AI w zarządzaniu firmą

Obejrzałem czterdzieści filmów o tym, jak wykorzystywać AI w firmie. ChatGPT pojawiał się w prawie każdym z nich, a n8n i Make w co trzecim. Główne tematy były bardzo podobne: jak automatyzować faktury, w jaki sposób robić follow-upy, jak prowadzić transkrypcje spotkań i jak przygotować ofertę w dwadzieścia minut zamiast trzech godzin. Nie da się ukryć, że było w tym dużo konkretów i sporo sensownych porad. Sam z części tych rzeczy korzystam i sam uczę się od ludzi, którzy je pokazują. Ale im dłużej patrzę na AI w zarządzaniu firmą, tym bardziej widzę, że najważniejsze pytania nie padają.

Tyle że w tych czterdziestu filmach nie usłyszałem prawie nic o tym, co sztuczna inteligencja robi z rolą człowieka, który firmą zarządza. Jeżeli prowadzisz dziś firmę i wdrażasz w niej sztuczną inteligencję, to właśnie tutaj zaczyna się trudniejsza część rozmowy. Model podaje Ci syntezę rynku, zanim zdążysz sam przejrzeć dane, i bardzo łatwo przestaje być jasne, co jest jeszcze Twoim osądem. Do tego dochodzi odpowiedzialność za wynik, który wyszedł z maszyny, oraz pytanie o kompetencje ludzi, kiedy część myślenia coraz częściej oddajemy narzędziu.

Zapisz się na mój newsletter

⚠️ Jeśli cenisz treści, które pomagają podejmować lepsze decyzje i wspierają Cię w codziennych wyzwaniach, zapisz się na mój newsletter. Dodatkowo otrzymasz dostęp do moich książek w prezencie.

Zjazd dyrektorów operacyjnych

Kot ze znakiem zapytania na mównicy konferencyjnej, w widowni identyczne roboty w garniturach trzymające plakietki z ikonami automatyzacji - AI w firmie a przywództwo

Mógłbym długo tak jeszcze wyliczać, czego mi w tych filmach zabrakło. Ale najuczciwiej byłoby powiedzieć po prostu, że publiczny dyskurs o sztucznej inteligencji dla firm jest dziś głównie dyskursem operacyjnym. Opowiada o tym, jak robić szybciej to, co i tak już robisz. Oczywiście to nie jest mało i w dodatku często daje realne wyniki.

Najłatwiej byłoby powiedzieć, że twórcy tych filmów coś przeoczyli. Myślę, że to jednak nie byłoby prawdą. Oni po prostu odpowiadają na to, czego ludzie szukają.

Sam kiedy zaczynałem pracować z AI, moje pierwsze pytania dotyczyły narzędzi. Interesowało mnie głównie to, który model jest lepszy i jak usprawnić kodowanie. Zastanawiałem się też, ile godzin odzyskamy w ofertowaniu albo tworzeniu architektury. Spędzałem tygodnie, porównując ChatGPT z Claude’em i testując narzędzia do automatyzacji. Byłem z siebie zadowolony.

Dopiero kiedy trochę oswoiłem się z narzędziami, uznałem, że warto pójść z nimi dalej i wykorzystać je przy pracy nad strategią. Zbierałem dane, prosiłem model o syntezę i potem wracałem do wniosków. Kiedy dostałem pierwszy taki raport, szybko pojawiła mi się w głowie myśl, że nie jestem pewien, gdzie kończy się mój tok rozumowania, a gdzie zaczynam tylko powtarzać elegancko podaną syntezę.

Bellary w California Management Review stawia tezę, że sposób, w jaki mówimy o AI, nie tylko opisuje rzeczywistość, ale też ją współtworzy. Jeśli przez cały czas rozmawiamy o sztucznej inteligencji jak o narzędziu operacyjnym, liderzy też zaczynają ją tak traktować.

Pytają o zaoszczędzone godziny i nie przychodzi im do głowy, żeby zapytać, czy ich decyzje strategiczne są dziś lepsze niż przed wdrożeniem. Bo kiedy szef firmy wpisuje w wyszukiwarkę „jak zautomatyzować faktury”, ktoś inny to widzi w narzędziach dla twórców i tworzy film, który ma ściągnąć jego uwagę. Kiedy ktoś wpisuje „jak przyspieszyć ofertowanie”, dostaje narzędzie do ofertowania. Mało kto szuka rzeczy trudniejszych. Niewiele osób wpisuje: „jak zmienia się moja rola decyzyjna, kiedy AI wchodzi do firmy” albo „co dzieje się z odpowiedzialnością lidera, kiedy część pracy oddaje modelowi”. Więc takich materiałów prawie nie ma. I chyba właśnie dlatego tak często wracam do tego, że transformacja cyfrowa, a szczególnie AI, jest przede wszystkim zmianą biznesową. Technologia to tylko fragment. Tyle że tę biznesową część dużo trudniej pokazać na filmie, bo dotyczy rzeczy, które psują się po cichu.

Jeżeli AI naprawdę jest zmianą biznesową, to siłą rzeczy wchodzi w obszary, które wcześniej budowały nasz osąd. I wtedy powinno przestać nas interesować samo pytanie o to, jak pracować szybciej. Bardziej powinniśmy zainteresować się tym, jak odróżnić własne rozumienie od dobrze podanej syntezy. W biznesie zła decyzja i tak rzadko wychodzi na jaw od razu. Sztuczna inteligencja tylko robi ten problem bardziej zdradliwym, bo przez dłuższy czas pozwala takiej decyzji wyglądać na rozsądną.

AI a decyzje strategiczne

Po lewej kot pudłuje rzut do kosza na boisku, po prawej ten sam kot spokojnie patrzy na dashboard z samymi zielonymi wskaźnikami — kontrast uczciwej porażki i fałszywego sukcesu - AI w zarządzaniu firmą

Kilka lat temu byłem na Web Summicie w Lizbonie i słuchałem koszykarza NBA, który opowiadał o ryzyku, błędach i decyzjach, które kosztowały go miliony. Nie pamiętam już dokładnie, kto to był, ale pamiętam jedną myśl, która pojawiła się w mojej głowie. Na boisku piłka wpada do kosza albo odbija się od obręczy. Wynik przychodzi od razu i natychmiast wiemy, czy jest dobrze, czy źle. Sportowiec nie może się zasłonić prezentacją w PowerPoincie i opowiedzieć, że rzut był strategicznie trafny, tylko pechowo nie wpadł.

W biznesie wszystko rozgrywa się dużo mniej jednoznacznie. Decyzję o zatrudnieniu podejmujesz dziś, a jej jakość poznajesz dopiero po pół roku. Strategia przez jakiś czas też wygląda sensownie. Ludzie początkowo kiwają głowami, dane się spinają, ale dopiero po miesiącach okazuje się, że błąd tkwił w samym założeniu. Przez ten długi odcinek można całkiem wygodnie żyć w przekonaniu, że wszystko idzie dobrze.

Kiedyś, pracując nad strategią firmy, siedziałem nad danymi dwa dni. Nie tylko je czytałem, ale potrafiłem się z nimi kłócić. Wracałem do liczb po kilka razy, bo coś mi nie pasowało. Zapisywałem sobie w komentarzu w pliku „to nie ma sensu, sprawdzić” albo „tu jest za ładnie, coś ukrywają”. Właśnie w takich momentach budował się mój osąd.

Kiedy dziś model daje mi gotową syntezę w 10 minut, te szorstkie miejsca znikają. Wszystko jest spójne, logiczne i dobrze napisane. I właśnie to jest chyba niebezpieczne. Bo gdy model się myli albo upraszcza rzeczywistość, robi to w sposób, który przez dłuższy czas może wyglądać przekonująco. A prawdziwy osąd nie buduje się na gładkich podsumowaniach, tylko na miejscach, w których coś stawia opór.

I chyba właśnie dlatego sztuczna inteligencja nie tyle skraca pętlę informacji zwrotnej, ile czyni ją bardziej zdradliwą. Pozwala mylić się szybciej i przez dłuższy czas, do tego w formie, która wygląda przekonująco. A jeżeli taki mechanizm powtarza się wystarczająco długo, zaczyna zmieniać nie tylko jakość wyniku, ale też człowieka, który ten wynik ocenia. I jeśli prowadzisz ludzi, to ta pętla nie dotyczy już tylko Ciebie.

Sztuczna inteligencja a kompetencje pracowników

Kot chwiejnie stoi na korytarzu biurowym po odrzuceniu świecących kul AI — odkrywa, że bez technologicznego wsparcia ledwo utrzymuje równowagę.

W ortopedii ten mechanizm jest znany od lat. Kiedy orteza stabilizuje uszkodzony staw, mięśnie wokół niego zaczynają pracować mniej. Organizm oszczędza energię i staw może dzięki ortezie funkcjonować sprawniej, a jednocześnie po kilku miesiącach, gdy człowiek ją zdejmie, okazuje się słabszy niż wcześniej.

O AI myślę podobnie. Potrafi nadrobić nasze braki i przyspieszyć pracę, zwłaszcza tam, gdzie sami byśmy się zablokowali. W Inwedo korzystamy z tych narzędzi codziennie. Jeżeli pracujesz z nimi na co dzień, pewnie też widzisz, jak łatwo zaczynają wchodzić głębiej, niż na początku planowaliśmy. Kłopot zaczyna się wtedy, gdy z wygody oddajemy im nie tylko część pracy, ale też część kompetencji, które dalej powinniśmy rozwijać sami.

Lisa Messeri z Yale i Molly Crockett z Princeton opisały ten mechanizm w artykule opublikowanym w Nature. Nazwały go „iluzją rozumienia”. Kiedy AI przetwarza za nas informacje i podaje gotowe wnioski, zaczynamy przeceniać głębokość własnego rozumienia. Co gorsza, pole widzenia robi się węższe, choć subiektywnie wydaje nam się, że eksplorujemy temat szerzej.

Podobny problem opisali badacze z Harvardu we współpracy z BCG, którzy przebadali ponad siedmiuset konsultantów. W rutynowych zadaniach AI podnosiło jakość ich pracy. Kiedy jednak problem wymagał połączenia twardych danych z ludzkim niuansem i podjęcia nieoczywistej decyzji, konsultanci korzystający ze sztucznej inteligencji wypadali wyraźnie gorzej od tych, którzy radzili sobie sami. Zaufali maszynie dokładnie tam, gdzie kończyły się jej kompetencje.

Myślę, że dobrze rozumiem, skąd ten mechanizm się bierze, bo sam go widzę u siebie. Pamiętam, jak jako młody chłopak uczyłem się programować na Commodore 64. Nie miałem Stack Overflow, czasem miałem dokumentację, a reszta zostawała po mojej stronie. Szczerze mówiąc, nie chciałbym do tego wracać. Wolę dzisiejsze programowanie. Ale to, co wtedy było lepsze, to myślenie. Zanim odpaliłem kompilator, musiałem w głowie przejść przez scenariusze, w których program się wysypie. Nie brałem pierwszego rozwiązania, które wyglądało poprawnie. Najpierw szukałem w nim pęknięć.

Zapisz się na mój newsletter

⚠️ Jeśli cenisz treści, które pomagają podejmować lepsze decyzje i wspierają Cię w codziennych wyzwaniach, zapisz się na mój newsletter. Dodatkowo otrzymasz dostęp do moich książek w prezencie.

I chyba właśnie dlatego, gdy dziś AI podrzuca mi rozwiązanie albo rekomendację, dość automatycznie generuję w głowie scenariusze, w których to rozumowanie może się rozsypać. Ten „mięsień” istnieje, bo budowałem go latami, w warunkach, w których nic nie przychodziło łatwo. Dzięki temu mam własny punkt odniesienia i to on decyduje o tym, czy przyjmę podpowiedź, czy ją odrzucę. Znacznie bardziej niż sama produktywność interesuje mnie więc to, co dzieje się z ludźmi, którzy takiego filtra czy mięśnia jeszcze nie zdążyli zbudować.

Nie mam wątpliwości, że AI potrafi przynieść nam szereg korzyści. Pytanie, które bardziej mnie dziś zajmuje, nie brzmi „czy pomaga?”, bo oczywiście, że pomaga. Bardziej interesuje mnie, gdzie jest granica, po której przekroczeniu zaczyna zastępować mięsień, który powinniśmy ćwiczyć sami. Jeżeli tę granicę przegapimy, bardzo szybko przestaniemy odróżniać wygodę od kompetencji.

Pytania, których prawie nikt nie zadaje

Kot z lupą przygląda się rozmówcy przez stolik zasypany znakami zapytania — kameralna scena spotkania, w którym padają pytania, których nikt zwykle nie zadaje.

Przez długi czas myślałem o tym wyłącznie jako o swoim własnym problemie. Mój osąd, własne decyzje i moja odpowiedzialność. Tyle że w firmie te same mechanizmy rozkładają się na dziesiątki ludzi i setki codziennych decyzji, więc są jeszcze trudniejsze do wyłapania.

Dlatego niepokoi mnie to, że gdy oglądałem te czterdzieści filmów na YouTube, nie padło ani jedno z pytań, które moim zdaniem powinny nie dawać spokoju każdemu szefowi firmy wdrażającej sztuczną inteligencję. To są pytania bardziej ludzkie i przywódcze niż techniczne. I chyba właśnie dlatego prawie ich nie ma, bo nie mają prostych odpowiedzi, a proste odpowiedzi sprzedają się najlepiej.

Czy w ogóle wiem, jak moi ludzie się z tym czują?

Myślę, że to pytanie jest chyba najbardziej niewygodne. W głównej mierze dlatego, że samopoczucia ludzi w firmie nie da się prosto zmierzyć, a jeszcze trudniej wydobyć prawdziwe odpowiedzi na trudne tematy. A transformacja w kierunku AI na pewno do takich tematów należy.

Writer i Workplace Intelligence opisywali skalę oporu pracowników wobec strategii AI. BCG od dawna powtarza też regułę 10-20-70, która mówi o tym, że sukces AI to 10% algorytmy, 20% technologia i 70% ludzie oraz procesy. A w większości filmów człowiek pojawia się dopiero na etapie wdrożenia, zwykle w roli kogoś, kogo trzeba przeszkolić, najlepiej z promptów.

Oczywiście łatwo powiedzieć, że 70% sukcesu AI to ludzie. Trudniej usiąść naprzeciwko kogoś, kto pracuje w Twojej firmie od ośmiu lat, i usłyszeć, że boi się, że za pół roku może już nie być potrzebny. Ludzie nie bronią się przed taką zmianą ze złośliwości. Częściej robią to dlatego, że nikt nie porozmawiał z nimi uczciwie o tym, co naprawdę się dla nich zmienia. Nie o narzędziach, tylko o ich pracy, miejscu w firmie i o tym, czy dalej będą tu potrzebni.

BCG i Columbia Business School pokazują dużą lukę percepcji pomiędzy zespołami a liderami. I myślę, że właśnie to jest najtrudniejsze. Z perspektywy lidera bardzo łatwo w ogóle tego nie zauważyć.

Mam też wrażenie, że działa tu coś jeszcze, choć to już jest moja własna teza. O AI zrobiło się tak głośno, że brak entuzjazmu zaczął brzmieć jak problem kompetencyjny. Liderowi trudno dziś powiedzieć: „nie jestem pewien”, „mam wątpliwości”, „nie widzę jeszcze sensu”, bo za łatwo można to odczytać jako brak rozeznania albo brak odwagi. Więc kiedy pytasz wprost, co ktoś myśli o AI, bardzo często dostajesz odpowiedź bezpieczną społecznie, a nie do końca prawdziwą.

Jeżeli miałbym Ci coś podpowiedzieć z własnej praktyki, to nie zaczynałbym od pytania: „co myślisz o AI?”, tylko od: „co w Twojej pracy jest dziś trudniejsze niż pół roku temu?”. To inne pytanie i zwykle prowadzi nas w zupełnie inne miejsce. Kiedy pytałem o AI, najczęściej dostawałem opinie, deklaracje albo entuzjazm. Kiedy zacząłem pytać o to, co stało się trudniejsze, zaczęły wychodzić rzeczy dużo ważniejsze, a także powiązane ze sztuczną inteligencją, takie jak rozmyte granice odpowiedzialności, presja na tempo, bo „skoro AI to robi w dziesięć minut, to czemu Ty potrzebujesz dwa dni”, i zwykłe zmęczenie tempem zmian. Nie zawsze mam gotowe odpowiedzi czy rozwiązania na te wyzwania, ale przynajmniej wiem, o czym naprawdę trzeba rozmawiać.

Czy moi ludzie potrafią powiedzieć modelowi „nie”?

Przy wdrożeniach systemów AI, które analizują dane i generują raporty, technologia rzadko jest największym problemem. System analizuje dane, przygotowuje dokumenty i od strony technicznej wszystko zazwyczaj działa perfekcyjnie. Kłopot zaczyna się wtedy, gdy ludzie nie potrafią spojrzeć na gotowy wynik i powiedzieć: „tu czegoś brakuje” albo „to wygląda podejrzanie, sprawdźmy”. Jeżeli w Twojej firmie nie ma miejsca na takie wątpliwości, zaczniecie po prostu przyjmować to, co dostajecie. Dopiero kiedy zapewnisz przestrzeń, żeby się zatrzymać i podważyć wynik, zaczniecie szukać w nim luk, zamiast brać go na wiarę.

Badania Oracle i Setha Stephens-Davidowitza pokazują, że 85% liderów doświadcza dziś stresu decyzyjnego, a liczba decyzji podejmowanych przez menedżerów wzrosła dziesięciokrotnie w ciągu trzech lat. Przy takim tempie pokusa, żeby wziąć gotową rekomendację i iść dalej, robi się naprawdę duża. Nie wiem tylko, czy w naszych firmach ktoś jeszcze uczy ludzi, kiedy trzeba się tej pokusie postawić.

Co AI robi z kompetencjami moich ludzi — i czy da się to nadrobić rekrutacją?

Kiedy firma wdraża AI i nie zajmuje się przy tym ludźmi ani tym, jak pracują i myślą, to wcześniej czy później pojawiają się luki. I nie jest to nic specyficznego dla sztucznej inteligencji. Tak wygląda każda zmiana, w której technologia zaczyna biec szybciej niż organizacja. Ludzie dostają nowe narzędzia, ale nikt nie sprawdza, czy naprawdę umieją z nich korzystać w sposób, który daje wartość. Przez jakiś czas wszystko wygląda dobrze. Do momentu, w którym taka luka wraca do Ciebie przy kolejnych decyzjach personalnych.

Znam firmy, które w takiej sytuacji robią to, co wydaje im się najprostsze. Zwalniają ludzi, którzy nie radzą sobie z nową technologią, i próbują zatrudnić na ich miejsce kogoś z zewnątrz, kto „ogarnia AI”. Tyle że sztuczna inteligencja w realiach firmowych jest z nami od niedawna. Ludzi, którzy naprawdę rozumieją ją głęboko w kontekście biznesowym, jest niewielu. Znacznie częściej spodziewałbym się ludzi otwartych na eksperymentowanie i naukę niż gotowych specjalistów. Bo czym innym jest używanie AI do generowania animowanych kotków czy rozmów z czatem o przepisach kulinarnych, a czym innym praca z nią w środku firmy, przy projektach i operacjach, a czasem przy decyzjach strategicznych.

Sama rekrutacja też przestaje być prosta. Kiedy publikujemy ogłoszenie o pracę, coraz częściej trafiają do nas profile, które na pierwszy rzut oka wyglądają poprawnie, a po chwili coś zaczyna zgrzytać. CV wygląda dobrze, historia doświadczenia brzmi wiarygodnie, ale szczegóły się nie składają, a cały profil ma w sobie coś, co nie składa się w spójną całość. Widzimy coraz więcej aplikacji z ewidentnie fałszywymi CV i nie zawsze jestem w stanie powiedzieć, jakie intencje za tym stoją.

Swoją drogą, Gartner prognozuje, że do 2028 roku jeden na czterech kandydatów będzie fałszywy. Już teraz 39% aplikujących przyznaje się do używania AI w procesie rekrutacyjnym, a 41% organizacji potwierdza, że zatrudniło kogoś, kto okazał się kimś zupełnie innym, niż twierdził.

Vidoc Security Lab opisał nawet przypadek kandydata, który przeszedł kilka rund rekrutacji, zanim na rozmowie wideo okazało się, że jego twarz jest generowana w czasie rzeczywistym przez deepfake. My na szczęście do takiego momentu jeszcze nie doszliśmy, ale inne firmy już się z tym mierzą.

Nawet jeśli odsiejesz fałszywe profile, zostaje jeszcze jeden problem. Jak sprawdzić, ile kandydat naprawdę umie. Dzisiejszy dostęp do narzędzi AI jest tak szeroki, że model potrafi nosić ludzi na plecach miesiącami. Kandydat mógł przez ostatni rok „zarządzać projektem” z pomocą modelu i nigdy samodzielnie nie podjąć naprawdę trudnej decyzji. Na rozmowie wypadnie pewnie, bo jego pewność wcale nie musi być udawana. Kłopot zacznie się dopiero wtedy, gdy trafi na sytuację zbyt ludzką i zbyt mocno osadzoną w kontekście firmy, żeby algorytm mógł go przeprowadzić za rękę. A jeśli rozmowa odbywa się zdalnie, kandydat może mieć dobrze ustawiony ekran z prompterem albo narzędzie, które podsuwa mu gotowe odpowiedzi. My tego po prostu nie zobaczymy.

Dlatego na rozmowach, które dziś prowadzę, bardzo pilnuję tego, żeby zobaczyć, czy kandydat myśli samodzielnie. A dziś mogę to zrobić w głównej mierze, sprawdzając, czy ma własne zdanie. I coraz częściej widzę, że z tym jest dziś większy problem niż kiedyś. Ludzie lawirują, próbują wyczuć, co chciałby usłyszeć rozmówca, i dopasowują do tego odpowiedź. Jasne, po części zawsze tak było. Tyle że dziś, kiedy coraz więcej osób korzysta ze sztucznej inteligencji, która wygładza sposób mówienia i pisania, to, co słyszę na takich rozmowach, brzmi inaczej niż jeszcze cztery lata temu. Dziś nie szukam gładkich wypowiedzi. Szukam tego, co jest pod spodem. Co ten człowiek naprawdę myśli. Bo kiedy przyjdą naprawdę trudne sytuacje, takie, w których potrzebuję myślenia drugiego człowieka i jego kompetencji, chcę mieć pewność, że temu podoła bez odpalania modelu.

Czy traktuję AI jak kolejny temat dla IT, czy jak zmianę strategiczną?

To pytanie wraca też na samą górę firmy. Jeżeli traktujesz AI jak kolejny temat do oddelegowania, bardzo szybko okaże się, że wraca do Ciebie bocznymi drzwiami: w kosztach i jakości pracy, a po chwili także w decyzjach.

BCG w raporcie „The Widening AI Value Gap” podaje, że liderzy C-level głęboko zaangażowani w AI są wielokrotnie bardziej skłonni trafić do grupy firm, które generują z tego rzeczywistą wartość. Jednocześnie Deloitte pokazuje, że w wielu organizacjach zarządy nadal nie omawiają tego tematu wystarczająco poważnie i wystarczająco często.

Z tych dwóch obserwacji wychodzi mi po prostu, że problem nie rozbija się dziś o dostęp do narzędzi, tylko o to, czy ktoś na górze naprawdę bierze ten temat na siebie i podchodzi do niego rzetelnie.

Widziałem to w firmach swoich znajomych. Prezes mówił: „wdrażamy AI”, podpisywał budżet, delegował temat do CTO albo dyrektora IT i wracał do swoich spraw. Pół roku później na zarządzie pojawiały się ładne wykresy, kupione narzędzia i informacja, że ludzie przeszli albo nie przeszli szkolenia. Wszystko wyglądało tak, jakby temat był pod kontrolą. Tyle że w samej pracy niewiele się zmieniało poza tym, że koszty rosły. Firma nie zaczyna od tego podejmować lepszych decyzji. Zespoły nie zaczynają automatycznie pracować mądrzej, a jedyne, co rośnie, to koszt licencji.

Ale widziałem też odwrotne przykłady. Znam firmę, która wdrożyła AI do prognozowania popytu na produkty świeże i największą zmianą nie okazały się lepsze prognozy, tylko to, że system wymusił współpracę między marketingiem, sprzedażą i łańcuchem dostaw, która wcześniej nie istniała. Inna firma poszła jeszcze dalej i algorytm analizuje trendy, pogodę oraz ruch w sklepach, a potem de facto decyduje, co firma produkuje. W obu przypadkach sztuczna inteligencja nie była jedynie projektem IT. Była zmianą sposobu planowania i ktoś na górze musiał to tak potraktować.

W Polsce to jest chyba jeszcze trudniejsze. Z jednej strony ludzie i rynek idą z AI do przodu szybciej, niż wielu liderów zakłada. KPMG w swoim raporcie podaje, że aż 69% Polaków regularnie korzysta z AI. Polskie startupy zajmujące się sztuczną inteligencją przyciągnęły 171 milionów euro w 2024 roku, a liczba firm korzystających z tej technologii wzrosła o 56% w rok, co według PIE było najwyższym wzrostem w całej Unii Europejskiej.

Z drugiej strony Eurostat nadal pokazuje niski poziom formalnej adopcji AI w polskich firmach, a PIE opisuje dużą ostrożność firm z wyłącznie polskim kapitałem, a PwC w Europie Środkowo-Wschodniej pokazuje, że prezesi w naszym regionie większość czasu spędzają na priorytetach krótszych niż rok. Oczywiście nie chcę tutaj powiedzieć, że krótkoterminowe myślenie jest zawsze złe. Czasami po prostu musisz gasić pożary, bo firma mierzy się z kryzysem albo otoczenie zmienia się tak szybko, że horyzont kwartalny to wszystko, na co masz przestrzeń. Rozumiem to. Sam przez to przechodziłem i czasem nadal przechodzę. Jednak w takich warunkach trudno traktować jakąkolwiek transformację cyfrową jak zmianę, która wymaga cierpliwości, namysłu i prowadzenia ludzi przez kilka kwartałów.

Boisko i biuro

Po tych czterdziestu filmach nie mam poczucia, że w biznesie najbardziej brakuje dziś kolejnych narzędzi, tutoriali czy integracji. Tego wszystkiego jest już aż nadto. Znacznie bardziej brakuje rozmowy o tym, co AI robi z osądem lidera i kompetencjami zespołów, a w końcu także z odpowiedzialnością za decyzje, które coraz częściej wyglądają na mądre tylko dlatego, że zostały dobrze podane. W sumie dlatego powstał ten artykuł.

Jeżeli miałbym dziś wskazać jedno z ważniejszych zadań przywództwa, to chyba właśnie to: stworzyć takie warunki pracy, w których ludzie nadal muszą myśleć samodzielnie i umieć uzasadnić decyzję bez chowania się za modelem. Firma może przez długi czas wyglądać na nowoczesną i sprawną, a jednocześnie powoli tracić coś, czego żaden dashboard nie pokaże.

Od tego wolałbym dziś zaczynać rozmowę o AI w firmie. Nie od pytania, co jeszcze da się zautomatyzować. Bardziej od pytania, co ta technologia robi z naszym osądem. A jeśli prowadzisz ludzi, to prędzej czy później i tak będziesz musiał sobie na nie odpowiedzieć.

Subscribe
Powiadom o
guest

11 komentarzy
Inline Feedbacks
View all comments
Aga
Aga

Zarządzam operacjami w firmie ok80 osób i widzę jak ludzie przestają sprawdzać wyniki, bo „Agnieszka… przecież AI to policzyło”. Coraz bardziej mnie to denerwuje

Marco
Marco

u nas w firmie nikt nie pyta czy AI pomaga dobrze, pytaja tylko czemu jeszcze nie uzywasz. to chyba mowi samo za siebie

Jabłczan
Jabłczan

Piszesz że osąd buduje się na szorstkościach i oporze. Czy naprawdę tak jest? Pamiętam czasy bez AI i wtedy też ludzie podejmowali fatalne decyzje strategiczne na podstawie swoich intuicji. Błąd poznawczy nie zaczął się od Chata GPT.

Szarotka
Szarotka

Przeczytałam to z perspektywy nauczycielki i mam ciarki. Moi uczniowie oddają wypracowania pisane przez AI i nawet nie wiedzą, że nie rozumieją tematu. Myślą że skoro tekst jest dobry to znaczy że nie ma problemu. A potem na klasówce nie potrafią sformułować jednego zdania. Lektur też już nie czytają, tylko wrzucają je do AI i zadają pytania. Mnie to przeraża.

Kasia
Kasia

U mnie wdrożyli AI do raportowania finansowego i po trzech miesiącach okazało się że nikt nie zauważył błędu w prognozach, bo wszyscy brali raporty na wiarę… Jak to odkryłam to oczywiście nikt nie chciał się przyznać że przestał sprawdzać

Wieczny sceptyk
Wieczny sceptyk

A może te 40 filmów o narzędziach jest dokładnie tym czego ludzie potrzebują na tym etapie?

Miko
Miko

Jakby ktos robil 40 filmow o gotowaniu a w zadnym nie powiedzial ze trzeba umiec gotowac, zeby cos przyzadzic.

Piksel
Piksel

Ja jestem z obozu Amigi! Ale pozdrawiam Commodorowca.

Tomek
Tomek

Prowadzę firmę produkcyjną. W zeszłym roku wdrożyliśmy sztuczną nteligencję do planowania produkcji. Po pół roku zauważyłem że planiści przestali sprawdzać i podważać harmonogramy. Kiedyś dzwonili chocaiż do handlowców i sprawdzali. A teraz biorą co AI daje. Najmłodszy z nich powiedział mi, że po co ma sprawdzać skoro SI ma więcej danych niż on.

Pan od strategii
Pan od strategii

Robię warsztaty dla zarządów i lubię jak ludzie z zarządu przychodzą z gotowymi analizami od AI ale nie potrafią odpowiedzieć na zadane przeze mnie pytanie – a co TY o tym myślisz, albo jak mówią to słyszę, że zupełnie nie wiedzą co mówią

Marceli$ka
Marceli$ka

Pracuję w małej agencji. Kiedyś burze mózgów trwały godziny i były super. Teraz trwają 15 minut i są smutne.


Newsletter dla liderów

Dołącz do liderów, którzy myślą samodzielnie, podejmują lepsze decyzje i prowadzą po ludzku w świecie technologii, presji oraz własnych ograniczeń.

Prowadzę firmę technologiczną, którą Financial Times i Deloitte uznały za jedną z najszybciej rozwijających się w Europie. Jestem autorem pięciu książek i człowiekiem żyjącym z ciężką hemofilią. Piszę o przywództwie w czasach AI z perspektywy kogoś, kto przez całe życie musiał inaczej niż większość uczyć się ryzyka, ograniczeń i odpowiedzialności.

Czyta mnie ponad 1100 osób - prezesi, założyciele, menedżerowie, liderzy i ludzie, którzy chcą myśleć samodzielnie, prowadzić bez udawania i podejmować lepsze decyzje.

To nie jest newsletter o trendach, hackach i motywacyjnych sloganach. Piszę wtedy, gdy mam coś naprawdę wartego Twojej uwagi.

Zapisz się i odbierz trzy moje książki w PDF.


Zobacz także