Alexander Lerchner z Google DeepMind argumentuje, że modele AI tylko symulują świadomość, operując na wzorcach bez rzeczywistego doświadczenia.

Źródło zdjęcia: Spider's Web

Badacze opracowali trójwarstwowy system reputacji AgentReputation dla agentów AI działających w zdecentralizowanych rynkach oprogramowania.
Anthropic podwaja limity Claude Code i podpisuje umowę z SpaceX na 300 MW mocy obliczeniowej. Nowa infrastruktura poprawi dostęp do AI.
Naukowiec z Google DeepMind podważa dominującą w branży technologicznej narrację o możliwości osiągnięcia świadomości przez sztuczną inteligencję. Alexander Lerchner w swojej publikacji „Błąd abstrakcji: dlaczego sztuczna inteligencja potrafi symulować świadomość, ale nie jest w stanie jej urzeczywistnić” argumentuje, że nawet najbardziej zaawansowane modele AI pozostaną jedynie symulacją, a nie prawdziwą świadomością.
Praca wywołała dyskusję nie tylko ze względu na kontrowersyjne wnioski, ale również dlatego, że podważa obietnice części branży technologicznej — w tym samego szefa DeepMind — dotyczące rozwoju świadomych systemów AI.
Sednem argumentacji Lerchnera jest fundamentalne rozróżnienie między symulowaniem a faktycznym posiadaniem świadomości. Modele językowe i inne systemy AI operują na symbolach i wzorcach, które zostały wcześniej uporządkowane przez człowieka. Proces ten autor określa jako zależny od „twórcy mapy” — czyli świadomego podmiotu, który nadaje znaczenie danym i przekształca ciągłe zjawiska fizyczne w zestaw dyskretnych stanów.
Bez takiego pośrednictwa komputer wykonuje jedynie operacje na sygnałach, które same w sobie nie niosą znaczenia. Autor podkreśla, że obliczenia dokonywane przez AI nie są procesem fizycznym w takim samym sensie jak zjawiska biologiczne — są opisem tych zjawisk, zależnym od interpretacji.
W publikacji pojawia się kluczowe pojęcie „błędu abstrakcji”, które odnosi się do powszechnego przekonania, że skoro system potrafi manipulować językiem i obrazami w sposób przypominający ludzkie zachowanie, to może posiadać świadomość. Lerchner stwierdza, że takie rozumowanie myli opis z rzeczywistością — algorytm przetwarza reprezentacje rzeczywistości (tekst, obraz, dźwięk, wideo), ale nie posiada doświadczenia, które nadaje im sens.
Język jest dla człowieka jednym z głównych sygnałów obecności umysłu. Gdy maszyna zaczyna się nim sprawnie posługiwać, granica intuicyjna zaczyna się rozmywać. Problem polega jednak na tym, że sprawność językowa nie jest dowodem istnienia doświadczenia, tylko efektem przetwarzania wzorców. Modele językowe nie „rozumieją” w sensie formalnym, tylko odtwarzają statystyczne zależności zapisane w danych.
Publikacja Lerchnera spotkała się z mieszanymi reakcjami środowiska naukowego. Johannes Jäger, filozof nauki i biolog systemowy, zgodził się z tezami naukowca DeepMind, określając je jako „wymyślanie koła na nowo”. W jego opinii Lerchner nieświadomie powtórzył argumenty środowiska filozoficznego, które od lat pojawiają się w debatach o świadomości sztucznej inteligencji.
Mark Bishop, profesor informatyki kognitywnej na Uniwersytecie Londyńskim, stwierdził, że choć Lerchner nie powiedział nic nowego, jego stwierdzenia są „w 99 proc.” zgodne z przekonaniami i wiedzą Bishopa. Jak zauważa Jäger:
Jako człowiek masz wiele innych motywacji (...) wszystkie one wynikają z faktu, że musisz jeść, oddychać i nieustannie wkładać wysiłek fizyczny, by po prostu przeżyć – a żaden system nieożywiony tego nie robi. Model LLM tego nie robi. To tylko zbiór wzorców na dysku twardym.
Szczególnie zaskakujący jest fakt, że publikacja tego kalibru została dopuszczona do publikacji na oficjalnej stronie Google DeepMind, podważając obietnice składane przez Dolinę Krzemową. Praca Lerchnera trafia w punkt, który branża technologiczna od dawna omija lub rozmywa w marketingowym przekazie, przypominając, że nawet proste organizmy biologiczne mogą być bliższe świadomości niż najbardziej zaawansowane modele językowe.