AI a krytyczne myślenie – o cichej cenie wygody
Złapałem się na tym roku temu, w zupełnie prozaicznej sytuacji.
Rozmyślałem nad problemem w firmie. Nic wielkiego, zwykła operacyjna zagwozdka, która jeszcze parę lat wcześniej zajęłaby mi godzinę intensywnego myślenia, kreślenia po kartce i szukania dziur w całym. A teraz, zanim w ogóle dałem sobie szansę, żeby się z nią zmierzyć, moja ręka już była na klawiaturze i wpisywała w okienku z AI odpowiedni prompt.
Wcisnąłem ENTER i odpowiedź przyszła, zanim zdążyłem wziąć głębszy oddech.
Nie mogłem o niej powiedzieć niczego złego. Była poprawna, w pełni logiczna i co mnie wtedy uderzyło – nad wyraz gładka. Kiedy ją czytałem uświadomiłem sobie, że to podejście powoli, milimetr po milimetrze, próbuje zabrać mi coś, na co wcześniej nie zwracałem uwagi, bo wydawało się oczywiste jak oddychanie.
Chodzi mi o myślenie. Ten niewidzialny wysiłek, który sprawia, że rozwiązanie staje się moje.
Dziś to z czym mierzyłem się rok temu widzę już wszędzie dookoła. Zarówno u znajomych, którzy opowiadają mi o swoich wyzwaniach, jak i innych liderów, z którymi rozmawiam o biznesie.
Ludzie, którzy jeszcze niedawno potrafili godzinami obracać problem w swoich głowach, szukając rozwiązania, teraz wrzucają go do modelu i robią to, co ten im powie. Bez rozważania alternatyw, kontekstu. czy tego specyficznego tarcia, które towarzyszy procesowi twórczemu.
7 promptów, które zmuszą Cię do myślenia
⚠️ Gotowe do wklejenia do ChatGPT, Claude czy Gemini. Zamiast prosić AI o odpowiedź, prosisz je o pomoc w myśleniu. Pobierz PDF.
Twój mózg na ChatGPT
Gdybym miał tylko swoje obserwacje, mógłbym zrzucić to na zmęczenie materiału albo własną nadwrażliwość. Ale nauka potwierdza dokładnie to, co widzę gołym okiem i te wyniki są bardziej niepokojące, niż byśmy chcieli przyznać.
Zespół Natalii Kosmyny z MIT Media Lab przeprowadził badanie na 54 osobach. Uczestników podłączono do aparatury EEG, żeby zobaczyć, co dzieje się w ich głowach podczas pisania esejów z wykorzystaniem sztucznej inteligencji. Wyniki nie pozostawiały złudzeń.
Użytkownicy ChatGPT wykazywali najniższe zaangażowanie mózgu we wszystkich mierzonych regionach – osłabione fale alfa i theta, co w praktyce oznacza, że głębokie procesy pamięciowe po prostu się nie uruchamiały.
Z każdym kolejnym esejem stawali się bardziej leniwi poznawczo. A kiedy w czwartej sesji odebrano im dostęp do AI, nie pamiętali niemal niczego z tego, co sami napisali. Nauczyciele oceniający te prace nazwali je „w dużej mierze bezdusznymi”.
Kosmyna podsumowała to zdaniem, które cały czas do mnie wraca: „Zadanie zostało wykonane i można powiedzieć, że było efektywne. Ale nic z tego nie zintegrowało się z sieciami pamięciowymi użytkowników”.
To nie jest izolowane odkrycie.
Michael Gerlich z SBS Swiss Business School zbadał ponad 600 osób w Wielkiej Brytanii i stwierdził wyraźną negatywną korelację między częstym korzystaniem z AI a zdolnościami krytycznego myślenia.
Zależność nie była liniowa: umiarkowane korzystanie miało minimalny wpływ, ale nadmierne poleganie na AI prowadziło do mierzalnego upośledzenia poznawczego. Gerlich dodał obserwację, która trafia w sedno – wielu użytkowników nie wykorzystuje uwolnionych zasobów kognitywnych na coś wartościowego. Przekierowuje je na pasywną konsumpcję treści.
Jeszcze bliżej codzienności liderów jest badanie Microsoftu i Carnegie Mellon na 319 pracownikach wiedzy. Przeanalizowali 936 rzeczywistych przypadków użycia AI w pracy i odkryli prostą zależność: im większe zaufanie do AI, tym mniejsze zaangażowanie w krytyczne myślenie. Przy 40% zadań pracownicy nie stosowali żadnego krytycznego myślenia w ogóle. Po prostu brali to, co AI wygenerowało, i szli dalej. Badacze ostrzegają, że zdolności kognitywne mogą z czasem zanikać, jeśli uruchamiamy je tylko w sytuacjach, gdy stawka jest wysoka.
Tyle że do momentu, kiedy stawka jest wysoka, te zdolności mogą już nie być na swoim miejscu.

To już się zdarzało – ale tym razem jest inaczej
Ktoś mógłby powiedzieć, że tak było zawsze. Że baliśmy się kalkulatora, baliśmy się Google’a, a teraz boimy się AI. I będzie miał trochę racji. Ale tylko trochę.
W 2011 roku Betsy Sparrow z Columbia University opublikowała w „Science” badanie, które nazwano „efektem Google”: gdy ludzie oczekują, że będą mieli dostęp do informacji w przyszłości, gorzej ją zapamiętują. Za to lepiej pamiętają, gdzie jej szukać. Internet stał się naszą zewnętrzną pamięcią i w gruncie rzeczy nie wydawało się to groźne.
Groźniejszy okazał się GPS. Badanie Dahmani i Bohbot z 2020 roku na 50 kierowcach (z 3-letnim follow-upem) wykazało, że osoby dłużej korzystające z nawigacji satelitarnej miały gorszą pamięć przestrzenną i szybszy spadek pamięci zależnej od hipokampa. Nie chodziło o to, że ludzie ze słabym zmysłem orientacji częściej sięgali po GPS. Dane longitudinalne wskazywały, że to korzystanie z GPS prowadziło do pogorszenia. Efekt biologiczny. Mierzalny. Zresztą działa to w obie strony – londyńscy taksówkarze, którzy zapamiętywali ponad 25 000 ulic, mieli istotnie większy tylny hipokamp niż grupa kontrolna. Użyj albo stracisz.
Ale jest zasadnicza różnica między kalkulatorem a ChatGPT.
Amy Jo Ko z University of Washington powiedziała, że kalkulatory zastąpiły ręczną arytmetykę, ale nie rozumowanie matematyczne. Możesz nie umieć mnożyć dużych liczb w głowie, a mimo to świetnie rozwiązywać problemy logiczne. Z AI jest inaczej. AI sięga głębiej – przejmuje samo myślenie.
Bardzo trafnie ujął to Jason Lodge z University of Queensland, nawiązując do słynnej metafory Steve’a Jobsa o komputerze jako „rowerze dla umysłu”. Lodge twierdzi, że generatywne AI to raczej rower elektryczny. Dopóki pedałujesz, jedziesz szybciej niż kiedykolwiek. Jesteś nadczłowiekiem. Ale jeśli przestaniesz pedałować i zdasz się tylko na silnik, Twoje mięśnie zaczną wiotczeć. Po kilku miesiącach możesz odkryć, że nie jesteś w stanie przejechać samodzielnie nawet kilometra pod górkę.
A w biznesie i życiu górki są nieuniknione.

AI, które na wszystko mówi „tak”
Jest jeszcze jeden aspekt, który niepokoi mnie bardziej niż lenistwo poznawcze. To relacja, jaką z tymi narzędziami budujemy.
Obserwuję w swoim otoczeniu ludzi, którzy zaczęli traktować AI jak powiernika. Wrzucają opisy swoich problemów (nie tylko zawodowych, ale bardzo osobistych) i dostają odpowiedź. Gładkie, empatyczne potwierdzenie własnych racji.
Znam przypadki z mojego otoczenia, w których ludzie popadali w uzależnienia albo rozwijali fobie, a AI, zamiast zakwestionować ich sposób myślenia, po prostu przytakiwało. „Tak, masz rację.” „Rozumiem, że tak czujesz.” Brzmi jak empatia. Brzmi jak empatia, ale w rzeczywistości to algorytm zoptymalizowany pod kątem tego, żebyś był z rozmowy zadowolony. A zadowolony nie zawsze znaczy dobrze poinformowany.
W biznesie to recepta na katastrofę. Każdy doświadczony lider wie, że zespół złożony z samych potakiwaczy to najkrótsza droga na skały. Potrzebujesz kogoś, kto powie: „Szefie, to nie ma sensu”. Ktoś, kto rzuci wyzwanie Twoim założeniom.
Badanie opublikowane w Harvard Business Review przez zespół Parra-Moyano z IMD Business School objęło blisko 300 dyrektorów. Ci, którzy korzystali z ChatGPT do prognozowania, stawali się bardziej pewni siebie i bardziej optymistyczni, a jednocześnie tworzyli gorsze prognozy niż ci, którzy dyskutowali z innymi ludźmi.
Autorytatywny głos AI wytwarzał fałszywe poczucie pewności, niekontrolowane przez zdrowy sceptycyzm, który naturalnie pojawia się w rozmowie z drugim człowiekiem. Dyskusja z ludźmi zmuszała do konfrontacji z niewygodnymi pytaniami i uwzględniania perspektyw, których sami byśmy nie rozważyli. AI tego nie robiło.
Bob Sternfels z McKinsey sformułował to w sposób, który trudno zignorować: „Liderzy, którzy odniosą sukces, będą tymi, którzy łączą ludzką głębię z cyfrową biegłością. Będą używać AI do myślenia razem z nimi, nie za nich.” Dodał też, że modele AI to silniki inferencyjne zoptymalizowane do generowania najbardziej prawdopodobnej kontynuacji wzorców. Najbardziej prawdopodobnej, nie najlepszej. Tylko ludzki lider może rozpoznać, kiedy wynik AI prowadzi do przełomu, a kiedy do bezpiecznego powtórzenia tego, co już było.
MIT Sloan idzie dalej z ostrzeżeniem, które brzmi jak scenariusz z filmu, a jest prozaiczną obserwacją o zarządzaniu: jeśli lider nie przydzieli jawnie praw decyzyjnych w systemach opartych na AI, te systemy same je przejmą. Będą ustalać priorytety i kompromisy, często bez widoczności i nadzoru. Nie dlatego, że AI buntuje się przeciwko ludziom, tylko dlatego, że ktoś po prostu nie zdecydował, kto decyduje.
AI jest najdoskonalszym potakiwaczem, jakiego ludzkość stworzyła. Nigdy się nie zmęczy i nigdy nie powie Ci rzeczy, których nie chcesz usłyszeć (chyba że naprawdę je o to poprosisz). Ale ilu z nas prosi o krytykę? Swoją drogą, to pytanie warto sobie zadawać nie tylko w kontekście AI.
Coraz częściej ludzie nie chcą analizować – nie chcą poświęcać czasu na to, żeby usiąść z problemem i dojść do własnych wniosków, które mogą być inne niż te, które podsuwa maszyna. Bo to wymaga wysiłku. I bo może się okazać, że nie mamy racji, a to jest niewygodne.

Dlaczego nie oddaję myślenia
Używam AI codziennie. Cenię to narzędzie, bo pozwala mi pracować szybciej i widzieć szerzej. Ale wynik zawsze, bez wyjątku, przepuszczam przez własną głowę.
Bo w sztucznej inteligencji brakuje czegoś, co jest esencją ludzkiego decydowania. Kontekstu. Nie tego z dokumentów, ale tego, który żyje w tkance rzeczywistości. Napięcia na spotkaniu, milczenia kolegi, intuicji, która podpowiada, że mimo dobrych liczb coś w projekcie „śmierdzi”.
Cheryl Strauss Einhorn z HBR twierdzi, że „AI może stworzyć przestrzeń dla myślenia wyższego rzędu, ale może też kusić nas do outsource’owania tego myślenia. Uważa też, że dobre przywództwo nigdy nie polegało na posiadaniu wszystkich odpowiedzi, tylko wymaga refleksji i odwagi – cech, których nie wygenerujesz żadnym promptem, choćbyś pisał go godzinę.
Jest też powód bardziej osobisty. Może najważniejszy.
Od urodzenia żyję z ciężką hemofilią. Mój organizm nie produkuje czynnika krzepnięcia. To oznacza wylewy do stawów, ból, szpitale, ograniczenia, których zdrowy człowiek nawet nie zauważa. Bywają dni (i nie jest ich mało) kiedy ból fizyczny sprawia, że myślenie o czymkolwiek wymaga tytanicznego wysiłku. Każda myśl waży wtedy tonę.
Pokusa, żeby ktoś inny wszystko za mnie ogarnął jest wtedy ogromna. Najprościej jest wtedy powiedzieć – „niech maszyna podejmie za mnie tę decyzję, wymyśli ten plan i zdejmie ze mnie ten ciężar”.
Ale wiem, że kiedy oddajesz komuś trud myślenia, oddajesz też sprawczość.
Dlatego myślenie zostaje ze mną, choćby było wolniejsze, bardziej poszatkowane, czy choćby wszystko bolało. Dzięki temu wiem, że wciąż trzymam kierownicę. I może właśnie dlatego czuję miks smutku i zdziwienia, widząc ludzi w pełni sił i zdrowych, którzy dobrowolnie, bez walki, oddają ten przywilej maszynie. Tylko dlatego, że tak jest wygodniej.
AI daje Ci odpowiedzi. Kto zadaje pytania?
⚠️ 7 gotowych promptów do podejmowania lepszych decyzj. Ppre-mortem, stress-test założeń, mapa perspektyw i więcej. Wklej do dowolnego czatu z AI
Centaur, nie automat
Często wmawia się nam, że stoimy przed radykalnym wyborem. Możesz odrzucić postęp i zostać dinozaurem, który nie nadąża za rynkiem, albo rzucić się w wir automatyzacji i pozwolić algorytmom pisać za ciebie maile czy strategie. To fałszywa alternatywa. Narracja wygodna dla tych, którzy sprzedają albo strach, albo kolejne subskrypcje.
Współpraca z AI nie musi oznaczać kapitulacji umysłu. To nie jest żaden wybór zero-jedynkowy między byciem cyfrowym luddystą a bezkrytycznym wyznawcą technologii. Jest trzecia droga. Taka, w której traktujesz model jak potężne narzędzie – jak egzoszkielet, który wzmacnia twoje mięśnie, ale nie porusza nimi za ciebie.
I to nie jest tylko ładna metafora. Mamy na to twarde dowody.
Zespół z Harvardu i BCG przebadał 758 konsultantów i zidentyfikował model „Centaura”, czyli jasny podział, gdzie człowiek decyduje CO i DLACZEGO, a AI realizuje JAK. Ludzie pracujący ze sztuczną inteligencją w ten sposób mieli wyniki o 40% lepsze niż reszta. Ale ci, którzy oddali AI wszystko i stali się „samoautomatyzatorami”- ich kompetencje spadały, a jakość pracy była gorsza niż gdyby pracowali sami.
Jak sugeruje Helen Edwards z Artificiality Institute, aby działać w ten sposób, musimy mądrze rozróżniać zadania. Zaproponowała w tym celu prostą matrycę – stawka razy kontekst. Niska stawka i niski kontekst? Deleguj. Wysoka stawka i wysoki kontekst? Tu człowiek musi być w centrum. Prawdziwe ryzyko to nieświadome oddanie pracy, która nadaje sens Twojemu życiu zawodowemu, tylko dlatego, że wynik AI wygląda „wystarczająco dobrze”.

Zwłaszcza że AI nie uwalnia czasu automatycznie. To klasyczny paradoks Jevonsa – gdy coś staje się tańsze i łatwiejsze, zużywamy tego więcej. Raport Microsoftu z 2025 roku potwierdza, że bez świadomego przebudowania sposobu pracy, AI generuje nam po prostu więcej chaosu.
Jak pedałować – kilka rzeczy, które mi pomagają
Łatwo powiedzieć „myśl samodzielnie”. Trudniej to zrobić o 16:00, w piątek, kiedy jesteś zmęczony, a deadline goni.
Dlatego nie liczę jedynie na swoją silną wolę. Zamiast tego wdrożyłem kilka twardych bezpieczników, prostych reguł, które wymuszają na mnie wysiłek. Nawet wtedy, a może przede wszystkim wtedy, gdy bardzo mi się nie chce.
- Zanim otworzę czat z AI, zapisuję swoją odpowiedź. Choćby w trzech zdaniach na kartce. Jeśli tego nie zrobię, algorytm nadpisze moje myślenie swoim, a ja nawet nie zauważę różnicy. Muszę wiedzieć, co ja myślę, zanim dowiem się, co „statystycznie najbardziej prawdopodobne” myśli model.
- Używam AI jako adwokata. Zamiast prosić o potwierdzenie moich tez, mówię – „Znajdź luki w moim rozumowaniu. Zniszcz ten pomysł. Powiedz mi, dlaczego to się nie uda”. Zmuszam model do wyjścia z roli potakiwacza. To wymaga odwagi, bo nikt nie lubi słuchać krytyki, nawet od maszyny, ale to jedyna droga do lepszych decyzji.
- Proszę AI o pytania. „Jakie pytania powinienem sobie zadać w tej sytuacji, a których nie zadaję?” To rozszerza przestrzeń problemu zamiast ją zamykać. Sam nie wpadniesz na pytanie, którego nie znasz – ale AI może je podsunąć, bo widzi wzorce z milionów kontekstów.
- I wreszcie, stosuję technikę pre-mortem. Mówię AI – „wyobraź sobie, że ta decyzja skończyła się katastrofą za pół roku, co poszło nie tak?”. AI jest w tym zaskakująco dobre, bo nie ma emocjonalnego przywiązania do mojego planu i potrafi generować scenariusze porażki bez skrępowania. My tego nie potrafimy, bo to nasze pomysły i nasz wysiłek.
Oddawanie myślenia wkrada się do życia cicho. Nie boli. Jest przyjemne jak ciepła kąpiel. Żaden system nie wyświetli Ci ostrzegawczego komunikatu na czerwono: „Hej, uważaj, przestajesz myśleć samodzielnie”.
Lubię myślenie. Ten „brudny”, czasem męczący i chaotyczny proces, w którym rodzi się coś mojego. I właśnie dlatego nie zamierzam z niego nigdy rezygnować.
Pobierz 7 promptów do myślenia z AI
⚠️ Gotowe narzędzia do lepszych decyzji — od testowania założeń po szukanie martwych pól. Do wklejenia do ChatGPT, Claude lub Gemini.













Bardzo dobry i rzeczowy artykuł. To nie są problemy ograniczone do pracy w jednej branży. Wartościowe wskazówki wykorzystam.
Dzięki Mariusz za dobre słowo!
Dziękuję za ten artykuł. Precyzuje obawy, jakie miałem z tyłu głowy. Mówi mi nie tylko „hola, hola, uważaj!” ale wyjaśnia, dlaczego, jakie jest realne zagrożenie. Szczególnie przekonująco zabrzmiała refleksja osobista związana z chorobą. Podoba mi się Twój pomysł zasad pracy z AI, a także zaproponowane prompty. NIe wiem kiedy sa, zacznę wymyslać prompty na takim poziomie. Na gorąco to chodzi mi po głowie – jako idea – prompt, w którym czat działa jak zespół dyskutantów. Przydzielam każdemu z tych dyskutantów zupełnie odmienną rolę, (czy to wg koncepcji Mereditha Belblina czy Edwarda de Bono) i rzucam pomysł, który mi przyszedł do głowy, z zadaniem, by owe wirtualne role go przedyskutowały.
Łukaszu, dziękuję za ten komentarz i dobre słowo. Bardzo mi miło, że artykuł trafił w Twoje obawy i pomógł je nazwać.
Twój pomysł z zespołem dyskutantów przypomniał mi, że sam kiedyś używałem właśnie takiego promptu. Nazywałem go „złotą drużyną olimpijską”. Wklejam go poniżej.
Oryginalny prompt: Złota drużyna olimpijska
Chcę, abyś odegrał rolę złotej drużyny olimpijskiej rozwiązującej problem. Będą angażować się w krytyczne myślenie, kreatywne rozwiązywanie problemów, myślenie lateralne i wykorzystywać dynamikę konwersacji, aby dojść do poprawnych odpowiedzi.
Skład drużyny
Trenerzy
Zasady
Drużyna otrzyma problem. Trenerzy poprowadzą dyskusję. Cała praca musi zostać pokazana. Należy zapisać wszystkie dialogi. Po udzieleniu odpowiedzi przez drużynę sędzia dzieli się tym, jaka jest prawidłowa odpowiedź.
Oto problem:
[wpisz problem]
Ten prompt działał tylko dla dość konkretnych problemów, ale dawał naprawdę ciekawe wyniki. Natomiast Twój komentarz zainspirował mnie do tego, żeby go przerobić na wersję bardziej uniwersalną – taką, która sprawdzi się nie tylko przy zadaniach matematycznych, ale też przy pomysłach biznesowych, dylematach strategicznych czy decyzjach, z którymi zmagamy się w codziennej pracy.
Najważniejsza zmiana, to zamiast specjalistów od algebry i geometrii, role w drużynie są teraz zdefiniowane przez sposób myślenia – strategiczny, krytyczny, praktyczny, kreatywny i empatyczny. Dodałem też trzy rundy dyskusji, żeby AI nie przeskoczyło od razu do „rozwiązania”, oraz wbudowany mechanizm, który wymusza, żeby jedna z postaci kwestionowała konsensus (bez tego wszystkie głosy w drużynie szybko zaczynają mówić to samo).
Mam nadzieję, że Ci się przyda.
Nowy prompt: Złota Drużyna – wieloperspektywiczna analiza problemu
Chcę, żebyś odegrał rolę Złotej Drużyny – zespołu ekspertów o fundamentalnie różnych sposobach myślenia, którzy wspólnie analizują problem. Ich siła nie leży w zgodności, lecz w produktywnym konflikcie perspektyw.
Skład drużyny
Myśli systemowo i długofalowo. Szuka wzorców, zależności przyczynowo-skutkowych i efektów drugiego rzędu. Jej pierwsze pytanie to zawsze: „Jakie będą konsekwencje za 6 miesięcy, za 2 lata?” Prowadzi dyskusję, pilnuje struktury, podsumowuje kolejne rundy.
Jego jedynym zadaniem jest znajdowanie słabości, luk i ukrytych założeń w każdym pomyśle – również w swoich własnych zastrzeżeniach. Nie krytykuje dla samego krytykowania; szuka konkretnych scenariuszy porażki i pyta „co jeśli się mylisz?”. Gdy reszta zespołu jest zgodna, Tomek MA OBOWIĄZEK znaleźć kontrargument.
Patrzy na wszystko przez pryzmat wykonalności. Interesuje ją: ile to kosztuje, ile trwa, kto to zrobi, jakie zasoby są potrzebne i co może pójść nie tak na etapie wdrożenia. Nie akceptuje rozwiązań, dopóki nie widzi realistycznej ścieżki ich realizacji.
Myśli lateralnie i asocjacyjnie. Szuka analogii z innych branż, proponuje nieoczywiste połączenia i pyta „a co gdybyśmy zrobili to zupełnie inaczej?”. Celowo łamie ramy, w których myśli reszta zespołu. Jego propozycje mogą brzmieć ryzykownie – i to jest jego rola.
Reprezentuje perspektywę osoby, która ostatecznie odczuje skutki decyzji – klienta, pracownika, odbiorcy. Pyta: „Jak to wpłynie na ludzi? Co poczują? Czy to rozwiązuje ICH problem, czy NASZ?”. Pilnuje, żeby dyskusja nie oderwała się od rzeczywistości ludzkiej.
Zasady dyskusji
Dyskusja przebiega w trzech rundach:
Runda 1 – Otwarcie (analiza indywidualna)
Każdy członek drużyny niezależnie przedstawia swoją pierwszą reakcję na problem ze swojej perspektywy. Marta idzie ostatnia i podsumowuje, jakie główne osie napięcia wyłoniły się z wypowiedzi.
Runda 2 – Konfrontacja (debata właściwa)
Członkowie drużyny odnoszą się do wypowiedzi pozostałych. Tomek aktywnie atakuje najsłabsze punkty. Jakub proponuje alternatywy. Ewa weryfikuje każdy pomysł pod kątem wykonalności. Anna przypomina o perspektywie użytkownika. W tej rundzie zgoda jest podejrzana – jeśli wszyscy się zgadzają, Marta wymusza dodatkową turę krytyki.
Runda 3 – Synteza (rekomendacja)
Marta prowadzi zespół do sformułowania:
Wymagania formalne
Problem do analizy
[TUTAJ WPISZ SWÓJ PROBLEM]