Duże modele językowe, takie jak ChatGPT, zrewolucjonizowały sposób, w jaki piszemy, uczymy się i szukamy informacji. Ale najnowsze badanie MIT Media Lab stawia ważne pytanie: czy częste korzystanie z AI wpływa na nasz mózg – i to niekoniecznie pozytywnie?
Eksperyment przeprowadzony przez neurologów i specjalistów od sztucznej inteligencji z Massachusetts Institute of Technology daje do myślenia. W warunkach kontrolowanych 54 ochotników poproszono o napisanie esejów na temat filantropii – jedni z pomocą ChatGPT, inni z wykorzystaniem wyszukiwarki Google, a reszta wyłącznie własnym umysłem. Uczestników podłączono do urządzeń EEG, które mierzyły aktywność mózgu w czasie pisania. Wyniki okazały się zaskakujące.
AI jako kula u nogi?
Grupa, która pisała samodzielnie, wykazywała najwyższy poziom zaangażowania poznawczego i najaktywniejszą pracę mózgu. Użytkownicy Google byli pośrodku – korzystali z zewnętrznego źródła wiedzy, ale nadal musieli selekcjonować informacje i samodzielnie je formułować. Tymczasem użytkownicy ChatGPT wykazali najniższą aktywność neuronową. Ich mózgi pracowały mniej intensywnie, a po kilku miesiącach – w ponownym teście – uczestnicy z tej grupy zapamiętywali mniej i gorzej identyfikowali się ze swoją pracą.
Najbardziej wymowny był fakt, że osoby korzystające z ChatGPT miały trudności z przypomnieniem sobie, co dokładnie napisały. Co więcej – rzadziej utożsamiały się z esejem, który formalnie stworzyły. To z kolei może wskazywać na brak wewnętrznego przetworzenia treści, które zostały w dużej mierze wygenerowane, a nie samodzielnie wypracowane.
Modele językowe a umiejętność krytycznego myślenia
Od premiery ChatGPT w 2022 roku popularność dużych modeli językowych (LLM) eksplodowała. Stały się one wszechobecne w środowisku akademickim, pracy biurowej i edukacji. Narzędzia te przyspieszają pisanie, pomagają syntetyzować informacje i tłumaczyć złożone pojęcia. Ale pojawia się pytanie: czy ułatwianie procesów myślowych nie prowadzi przypadkiem do ich rozleniwienia?
Z badań MIT wynika, że może tak być. Wskazują one, że stałe korzystanie z AI w roli pomocnika poznawczego – nawet jeśli efektywne – może z czasem wpływać negatywnie na rozwój umiejętności krytycznego myślenia i zapamiętywania. To szczególnie istotne w kontekście systemów edukacyjnych oraz młodych użytkowników, którzy dopiero kształtują swoje strategie poznawcze.
Czy AI uczy nas myśleć – czy myśleć przestajemy?
Zwolennicy LLM podkreślają, że narzędzia takie jak ChatGPT pomagają rozwijać nowe formy ekspresji i dostęp do wiedzy. Z perspektywy technologicznej nie sposób się z tym nie zgodzić – modele te doskonale sprawdzają się jako asystenci, edytorzy i korepetytorzy. Są szybkie, tanie i zawsze dostępne.
Problem pojawia się, gdy AI zaczyna zastępować proces myślenia, zamiast go wspierać. Badanie MIT pokazuje, że różnica między „pomaganiem” a „wyręczaniem” jest znacząca – nie tylko poznawczo, ale i neurologicznie.
Efektywność vs. głębia poznawcza
To, co daje krótkoterminową produktywność, może w dłuższej perspektywie prowadzić do poznawczej stagnacji. Modele AI potrafią tworzyć teksty spójne, logiczne i przekonujące – ale to nie oznacza, że uczymy się lepiej. Wręcz przeciwnie – użytkownicy, którzy polegali wyłącznie na sobie, osiągali wyższe wyniki w ocenie jakości esejów (zarówno według ludzi, jak i AI), lepiej je zapamiętywali i wykazywali większe zaangażowanie poznawcze.
Wynika z tego, że w dłuższej perspektywie, bycie zdanym na siebie może być bardziej rozwijające niż ciągłe poleganie na AI – nawet jeśli ta druga opcja wydaje się „efektywniejsza”.
Wnioski z badań MIT mogą mieć istotne znaczenie dla branży technologicznej, edukacyjnej i HR. Coraz więcej firm implementuje generatywną AI w codziennej pracy – od copywritingu, przez analizy, po kodowanie. Tymczasem rodzi się pytanie: jak utrzymać równowagę między automatyzacją a aktywizacją poznawczą pracowników?
Dla nauczycieli i decydentów edukacyjnych to także sygnał ostrzegawczy – nadmierne poleganie na AI może utrudniać rozwój niezależnego myślenia. Potrzebne są strategie dydaktyczne, które nie tylko pozwalają korzystać z AI, ale uczą, jak to robić świadomie – tak, by wspierać, a nie zastępować procesy poznawcze.
Umiar i intencjonalność
Jak w przypadku każdej technologii, kluczowe jest zrozumienie jej wpływu i świadome korzystanie. Modele językowe nie są z natury złe – ale ich użycie powinno być przemyślane. Jak pokazuje badanie MIT, pozostawienie części wysiłku intelektualnego po stronie człowieka nadal ma sens – zwłaszcza jeśli zależy nam na długofalowym rozwoju kompetencji poznawczych.