Szefowie korporacji rzucili się na sztuczną inteligencję, olśnieni obiecywanymi zyskami.
Teraz wróciły arkusze kalkulacyjne - i historia wygląda zupełnie inaczej.
W salach zarządów blask AI przygasł. Technologia wciąż jest nagłaśniana, wciąż finansowana i wciąż wychwalana na każdej konferencji, ale finansowa wypłata, na którą liczyło wielu menedżerów, po prostu nie nadeszła. Za pewnymi siebie wystąpieniami narasta cichszy niepokój: co, jeśli zakład o AI się nie zwróci - przynajmniej nie w najbliższym czasie?
Szefowie mierzą się z kacem po AI
Przez kilka lat menedżerom wmawiano, że AI zwiększy produktywność, ograniczy zatrudnienie i napompuje marże. Konsultanci wklejali zawrotne liczby do prezentacji. Inwestorzy pytali, na ile dana firma jest „gotowa na AI”. Wielu liderów czuło, że nie ma realnego wyboru: wydać dużo albo wyglądać na przestarzałych.
Teraz napływają pierwsze twarde dane - i są otrzeźwiające. Globalne badanie PwC obejmujące 4 454 liderów biznesu w 95 krajach wykazało, że większość tych, którzy mocno zainwestowali w AI, nie zobaczyła oczekiwanego zwrotu finansowego.
Według PwC 56% menedżerów twierdzi, że AI w ostatnim roku obrotowym nie zwiększyła ich przychodów ani nie obniżyła kosztów.
To znaczy, że ponad połowa firm-entuzjastów AI - na razie - w praktyce stoi w miejscu finansowo, korzystając z tych narzędzi. Projekty transformacyjne wyglądają ambitnie na papierze. Wyciągi bankowe opowiadają surowszą historię.
Zwycięzcy istnieją, ale wciąż są rzadkością
Obraz nie jest jednak całkiem ponury. Dane PwC pokazują, że nieco mniej niż 30% liderów raportuje wzrost przychodów powiązany z inicjatywami AI. Tym firmom udało się - przynajmniej częściowo - przełożyć algorytmy na pieniądze.
Prawdziwa wygrana pozostaje jednak trudna do osiągnięcia. Tylko 12% badanych firm twierdzi, że dzięki AI uzyskało jednocześnie wyższe przychody i niższe koszty. Jak na wszystkie przemowy o „rewolucjonizowaniu biznesu” przez AI, to bardzo wąski klub.
Zaledwie jedna na osiem firm raportuje święty Graal: AI, która jednocześnie zwiększa sprzedaż i zmniejsza koszty.
Ta luka między obiecywaną a zrealizowaną wartością spędza sen z powiek wielu prezesom. Zobowiązali się do wydania milionów, a czasem miliardów, na programy AI. Powiedzieli akcjonariuszom, że to przyszłość. A jednak w praktyce liczby wyglądają bardziej na „eksperymentalne” niż „transformacyjne”.
Miraż łatwej automatyzacji
Część problemu wynika z nierealistycznych oczekiwań dotyczących zastępowania ludzi. Głośne osoby, w tym pionier AI Geoffrey Hinton, ostrzegały, że ogromne inwestycje w AI zwrócą się naprawdę dopiero wtedy, gdy maszyny przejmą dużą część istniejących miejsc pracy.
Niektóre firmy spróbowały dokładnie tego. Chwaliły się redukcją dużych części załogi i zastąpieniem jej systemami AI. Krótkoterminowe oszczędności wyglądały imponująco. Długoterminowy efekt - już nie.
Kilka z tych firm po cichu wycofało swój entuzjazm, gdy obsługa klienta się posypała, błędy zaczęły się mnożyć, a szkody wizerunkowe rosły. Systemy AI miały problemy z kontekstem, niuansami i przypadkami brzegowymi. Produktywność nie wzrosła zgodnie z oczekiwaniami; w niektórych zespołach wręcz runęła.
- Operacje spowalniały, bo narzędzia AI popełniały podstawowe błędy, które ludzie musieli naprawiać.
- Skargi klientów rosły, gdy chatboty zawodziły przy prostych prośbach.
- Zespoły prawne i compliance wpadały w panikę z powodu błędnych wyników i ryzyk związanych z danymi.
Wniosek, który coraz mocniej dociera do firm, jest prosty: większość dzisiejszych systemów AI nie jest jeszcze rozwiązaniem typu „wstaw i zapomnij” jako zamiennik człowieka. Może wspierać, wzmacniać i przyspieszać pewne zadania, ale rzadko prowadzi cały proces od początku do końca bez ścisłego nadzoru.
AI to nie „plug and play”
Wiele zarządów potraktowało AI jak błyszczący gadżet. Kup narzędzie, podłącz, patrz jak rosną wyniki. Rzeczywistość okazała się bardziej chaotyczna.
AI działa mniej jak myszka podłączana do laptopa, a bardziej jak skomplikowane przepięcie całej maszyny.
W firmach większość wdrożeń AI utknęła na etapie pilotaży lub odizolowanych eksperymentów. Mały zespół testuje model generatywny do treści marketingowych. Inna grupa bawi się automatycznym przeglądem dokumentów. Takie projekty mogą rokować, ale rzadko dotykają rdzenia łańcucha wartości organizacji.
Dopóki AI pozostaje na obrzeżach - proof-of-concepty, laboratoria innowacji, „etykietowanie” na potrzeby komunikatów prasowych - trudno jej przesunąć ogólny wynik finansowy. Integracja z krytycznymi procesami, takimi jak planowanie łańcucha dostaw, ustalanie cen, underwriting czy sterowanie produkcją, jest znacznie trudniejsza i wolniejsza, niż oczekiwano.
Dlaczego integracja wciąż się nie udaje
Wciąż powracają dwie duże przeszkody:
- Złożoność procesów: procesy biznesowe są stare, nieuporządkowane i pełne wyjątków. Narzędzia AI potrzebują czystych, ustrukturyzowanych przepływów, których wiele firm po prostu nie ma.
- Inercja organizacyjna: zespoły opierają się zmianom, którym nie ufają. Menedżerowie średniego szczebla często blokują lub po cichu ignorują inicjatywy AI, które zagrażają ich rutynom albo wskaźnikom.
Do tego sama technologia nie jest doskonała. Badanie powiązane z MIT z ubiegłego roku wykazało, że 95% prób osadzenia generatywnej AI w firmach nie przyniosło szybkiego przyspieszenia wzrostu przychodów. Halucynacje - pewne siebie, ale błędne odpowiedzi - oraz niestabilne zachowanie w prostych zadaniach ograniczały to, co firmy uznawały za bezpieczne do automatyzacji.
Firmy uczą się na własnej skórze, że elokwentny chatbot to nie to samo co niezawodny system referencyjny.
Ukryte ryzyka: dane, bezpieczeństwo i szkody wizerunkowe
Kolejnym powodem, dla którego szefowie dziś martwią się o ROI z AI, jest ryzyko. Gdy firmy „karmią” systemy AI wewnętrznymi dokumentami, kodem i informacjami o klientach, bezpieczeństwo danych staje się strategicznym bólem głowy.
Menedżerowie obawiają się, że poufne materiały użyte do trenowania lub dostrajania modeli mogą wyciec w przyszłych odpowiedziach. W sektorach regulowanych - finansach, ochronie zdrowia, obronności - to nie jest drobiazg. Pojedyncze naruszenie lub nieostrożny wynik może uruchomić kary, pozwy i straty reputacyjne.
Są też subtelniejsze ryzyka dla marki. Treści generowane przez AI, które brzmią nie w tonie, są stronnicze lub po prostu błędne, mogą podkopać zaufanie. Kiedy klienci zorientują się, że maszyna daje im chwiejne porady albo źle obsługuje roszczenie, nie obwiniają algorytmu. Obwiniają firmę.
Strach przed wypadnięciem z gry nadal napędza wydatki
Mimo rozczarowań i ryzyk, rozmowy PwC z liderami nie pokazują realnej chęci, by gwałtownie hamować. Wręcz przeciwnie: szefowie planują inwestować w AI więcej w ciągu najbliższych kilku lat.
Wielu menedżerów przyznaje, że kieruje nimi mniej jasno policzalny biznes case, a bardziej strach przed pozostaniem w tyle za konkurencją.
AI stała się wyznacznikiem statusu. Stwierdzenie „używamy AI” pomaga przyciągać talenty, inwestorów i partnerów. Technologia pojawia się w prezentacjach strategicznych, raportach ESG i przemówieniach otwierających konferencje. Niewielu liderów chce być tym, który wycofał się tuż przed przełomem.
PwC spodziewa się, że 2026 rok będzie kluczowy: firmy albo zaczną uwalniać realne wzrosty produktywności, albo staną przed trudnymi pytaniami o koszty utopione. Do tego czasu rady nadzorcze będą chciały wiedzieć: czy te zakłady o AI były odważne, czy po prostu modne?
Jak wygląda realistyczna strategia ROI z AI
Pod nagłówkami wyłania się bardziej pragmatyczny playbook. Firmy, które zbliżają się do dodatniego ROI, zwykle stosują kilka wzorców.
| Podejście | Wpływ na ROI |
|---|---|
| Skupienie na wąskich, mierzalnych przypadkach użycia | Ułatwia śledzenie wartości i unikanie wydatków napędzanych hype’em. |
| Łączenie ludzi i AI w hybrydowych przepływach pracy | Zmniejsza liczbę błędów i zwiększa akceptację pracowników. |
| Czyszczenie i strukturyzowanie danych przed wdrożeniem | Poprawia dokładność i niezawodność modelu. |
| Powiązanie projektów AI z kluczowymi metrykami biznesowymi | Łączy algorytmy bezpośrednio z przychodem, kosztem lub redukcją ryzyka. |
Zamiast obiecywać, że AI zastąpi „większość pracowników”, ostrożniejsi liderzy mówią o wzmacnianiu istniejących zespołów. Likwidator szkód, który dzięki wsparciu AI przetwarza sprawy dwa razy szybciej, jest łatwiejszy do zarządzania i bezpieczniejszy do wytłumaczenia regulatorom niż w pełni zautomatyzowany silnik decyzyjny.
Kluczowe pojęcia, z którymi zmagają się szefowie
Dwa terminy pojawiają się dziś w niemal każdej poważnej rozmowie na poziomie zarządu o ROI z AI.
„Halucynacja”
W AI halucynacja to pewny siebie, dobrze sformułowany wynik, który jest po prostu błędny. Modele generatywne potrafią wymyślać orzecznictwo, fabrykować liczby albo przekręcać regulacje. Dla hasła marketingowego to irytujące. Dla notatki medycznej, decyzji kredytowej czy dokumentu prawnego - może być katastrofalne.
Firmy uczą się budować wokół AI „barierki ochronne”, np. wymuszając cytowanie źródeł albo ograniczając model do zatwierdzonych wewnętrznych baz wiedzy. Te zabezpieczenia kosztują pieniądze i czas, a także zmniejszają surowe przyrosty szybkości, które pierwotnie sprzedawały technologię.
„Ład danych” (data governance)
Ład danych obejmuje to, jak firma zbiera, przechowuje, udostępnia i usuwa informacje. Silny ład definiuje, kto może zasilać system AI jakimi danymi i na jakich warunkach.
Firmy, które wpadły w AI bez jasnych zasad, teraz gorączkowo próbują je wdrożyć. Obejmuje to zakazy wklejania wrażliwych materiałów do publicznych chatbotów oraz tworzenie wewnętrznych platform, na których użycie można monitorować i audytować.
Praktyczne scenariusze: gdzie AI może, a gdzie jeszcze nie może się opłacać
Patrząc w przyszłość, wielu analityków spodziewa się, że ROI z AI będzie wynikać mniej z masowych zwolnień, a bardziej z subtelnych zmian w sposobie wykonywania pracy. Dwa przeciwstawne scenariusze dobrze to pokazują.
Po pierwsze, weźmy call center, które zastępuje połowę agentów głosowym asystentem AI. Teoretycznie koszty płac spadają. W praktyce bot źle rozumie akcenty, źle obsługuje reklamacje i zawodzi przy niestandardowych pytaniach. Odpływ klientów rośnie, regulatorzy dostają skargi, a firma musi w trybie pilnym zatrudnić ludzi z powrotem - na wyższych stawkach.
Po drugie, wyobraźmy sobie to samo call center, które utrzymuje agentów, ale daje im wsparcie AI: podsumowania wcześniejszych kontaktów w czasie rzeczywistym, sugerowane odpowiedzi i automatyczne notatki. Każdy agent obsługuje teraz więcej rozmów na godzinę, z mniejszą liczbą błędów i lepszą spójnością. Z czasem spadają koszty szkolenia, a wskaźniki satysfakcji powoli rosną. ROI jest tu wolniejsze, ale znacznie solidniejsze.
Podobne mechanizmy widać w prawie, księgowości, ochronie zdrowia i inżynierii. AI używana jako „copilot” częściej wnosi mierzalną wartość bez katastrofalnych skutków ubocznych. AI używana jako pełny zamiennik przegrywa z brudną rzeczywistością ludzkiej pracy.
Ryzyka i szanse w tym samym bilansie
Napięcie dla szefów polega na tym, że zarówno ryzyka, jak i potencjalne zyski z AI są realne. Zbyt długie zwlekanie oznacza, że rywale mogą użyć AI do obniżenia cen albo lepszej obsługi klientów. Ślepy pośpiech kończy się spiralą kosztów, problemami zgodności i rozczarowaną załogą.
Niektóre rady nadzorcze zaczynają traktować programy AI mniej jak zakupy technologii, a bardziej jak długoterminowe projekty infrastrukturalne. Oznacza to etapowanie inwestycji, regularne punkty kontrolne wartości i gotowość do zamykania efektownych pilotaży, które nie dowożą.
Na razie AI pozostaje dla liderów korporacji jednocześnie obietnicą i problemem. Pieniądze zostały wydane; zwroty - w wielu przypadkach - wciąż są teoretyczne. Najbliższe lata pokażą, którzy menedżerowie gonili za mirażem, a którzy po cichu znaleźli sposób, by zamienić algorytmy w trwały - choć skromny - zysk.
Komentarze
Brak komentarzy. Bądź pierwszy!
Zostaw komentarz