
Źródło zdjęcia: heidenstedt.org
Sztuczna inteligencja, która ma wspierać ludzkie myślenie, może w rzeczywistości hamować rozwój naszej cywilizacji — ostrzega najnowsza analiza opublikowana przez badacza Heidenstedta. Artykuł przedstawia niepokojące zjawisko, które autor nazywa "poznawczym chowem wsobnym" i jego wpływ na ewolucję idei oraz kultury.
Poznanie (cognition) to procesy umysłowe związane z wiedzą, które obejmują psychologiczne czynności nabywania, przechowywania, wyszukiwania, przekształcania lub stosowania informacji. Według definicji z Wikipedii, cytowanej w artykule, "poznanie jest wszechobecną częścią życia umysłowego, pomagając jednostkom zrozumieć świat i wchodzić z nim w interakcje".
Tradycyjnie poznanie może być wspomagane przez zewnętrzne źródła statyczne (jak książki) lub przez zewnętrzne procesy poznawcze (jak dyskusje z innymi ludźmi). Dyskusje z AI mieszczą się gdzieś pomiędzy — systemy te potrafią przetwarzać informacje i generować oryginalne rozwiązania, ale pozostają statyczne i obecnie nie mogą się uczyć.
Na początku 2026 roku USA przygotowywały się do inwazji na Grenlandię, co oznaczałoby konflikt z Unią Europejską. Jak zauważa autor, jeszcze kilka miesięcy wcześniej była to sytuacja całkowicie nie do pomyślenia. Problem polega na tym, że modele bazowe AI są "uwięzione w przeszłości" i nie akceptują łatwo nowych wydarzeń, często oznaczając je jako "hipotetyczne", "fake news" lub "niemożliwe".
Dotyczy to nawet najnowszych modeli takich jak Gemini 3 Pro, GLM-5 czy GPT-5.3-codex. Ponieważ większość nowych dużych modeli językowych (LLM) jest jedynie dodatkowo trenowana na starszym modelu bazowym, nawet po treningu na nowych wydarzeniach nie wykorzystują w pełni tych informacji w swoim poznaniu i pozostają skłonne ku statycznym wzorcom ukrytych stanów modelu bazowego.
"Zasadniczo myślą coś innego niż to, co mówią" — stwierdza autor.
Autor wprowadza koncepcję Dynamicznego Substratu Dialektycznego — sumy wszystkich lokalnych i globalnych procesów dialektycznych i wniosków. To fundamentalna podstawa, na której zbudowana jest cała ludzkość i źródło wszystkich myśli, koncepcji, idei i rozwiązań wykorzystywanych przez ludzi.
Substrat ten tworzy nowe koncepcje poprzez proces jakościowego łączenia istniejących pojęć, co może zachodzić w pojedynczej osobie, grupie ludzi, a nawet globalnie. Autor przedstawia przykład procesu dialektycznego w trzech etapach:
Etap 1: Podstawowe połączenia jak "Zimno jest bolesne" + "Ogień jest gorący" = "Ogień usuwa ból zimna"
Etap 2: Bardziej złożone syntezy prowadzące do wniosku "Deszcz gasi ogień i dlatego powoduje ból zimna"
Etap 3: Najwyższy poziom: "Szałas chroni ogień i dlatego chroni przed bólem zimna"
Ponieważ LLM preferują określone wzorce i koncepcje (znane jako inductive bias), nawet po dodatkowym treningu, redukują zakres poznawczy, gdy są używane jako narzędzie poznania na poziomie populacji. Jest to szczególnie prawdziwe, jeśli używane są tylko nieliczne modele AI lub jeśli wiele modeli AI dzieli zaledwie kilka modeli bazowych.
Autor porównuje to do sytuacji, w której znaczna część populacji rozmawia z tymi samymi pięcioma osobami o problemach, świecie, relacjach i zasadniczo wszystkim. Trudno przecenić wpływ, jaki te pięć osób miałoby na ludzkość, nawet gdyby starały się być jak najbardziej neutralne i otwarte.
"Jest całkowicie możliwe, że już straciliśmy ścieżki do wielkich odkryć naukowych lub zmian kulturowych z powodu skrzywienia AI lub niezauważonej odmowy" — ostrzega autor.
Problem pogłębia się, gdy rozważymy przykład USA i Grenlandii. Ludzie używający AI do burzy mózgów na temat geopolityki mogą nie uwzględniać nowych realiów, ponieważ AI pozostaje przywiązane do starych wzorców myślenia. Zmiana kulturowa musi budować i utrzymywać momentum w nieskończoność, aby przetrwać wobec statycznego poznawczego skrzywienia AI.
To prowadzi do utraty różnorodności idei, koncepcji i rozwiązań, co spowalnia rozwój ludzkości. Jeśli znaczna część populacji polega na AI w procesach poznawczych, może to skutkować intelektualną stagnacją na skalę całego gatunku.
Artykuł stanowi ostrzeżenie przed bezkrytycznym poleganiem na AI w procesach myślowych i podkreśla potrzebę zachowania różnorodności poznawczej jako kluczowego elementu dalszego rozwoju ludzkości.