Anthropic nazwał nową funkcję agentów AI „dreaming”. Krytycy ostrzegają, że antropomorfizacja może zniekształcać nasze postrzeganie i zaufanie do technologii.

Źródło zdjęcia: WIRED
Nowy warsztat pozwala wytrenować funkcjonalny GPT na laptopie w mniej niż godzinę, budując każdy komponent od zera bez gotowych bibliotek.

Google prezentuje pięć sposobów wykorzystania AI w Search do wspomagania ogrodników — od wizualizacji projektów po diagnostykę chorób roślin w czasie rzeczywistym.
Anthropic wprowadził nową funkcję o nazwie „dreaming” (marzenie) podczas konferencji deweloperskiej w San Francisco. To część infrastruktury agentów AI firmy, zaprojektowanej do automatyzacji procesów software'owych. Funkcja analizuje transkrypcje ostatnich działań agenta i próbuje wyciągnąć wnioski mające poprawić jego wydajność. Jednak nazwa ta, podobnie jak inne określenia używane przez firmy AI, naśladuje procesy kognitywne człowieka, co budzi kontrowersje wśród krytyków.
Agenty AI często wykonują wieloetapowe zadania, odwiedzając różne strony internetowe lub czytając multiple plików. Funkcja „dreaming” pozwala agentom szukać wzorców w logach aktywności i ulepszać swoje możliwości na podstawie tych spostrzeżeń.
Od wybuchu rewolucji chatbotów w 2022 roku, liderzy firm AI intensywnie nazywają aspekty swoich narzędzi według procesów zachodzących w ludzkim mózgu. OpenAI wydało swój pierwszy model „reasoning” w 2024 roku, gdzie chatbot potrzebował „thinking time”. Firma opisywała to jako „nową serię modeli AI zaprojektowanych do spędzania większej ilości czasu na myśleniu przed odpowiedzią”. Liczne startupy również odnoszą się do swoich chatbotów jako posiadających „memories” o użytkowniku — nie chodzi tu o szybką pamięć komputerową, ale o bardziej ludzkie fragmenty informacji: mieszka w San Francisco, lubi popołudniowe mecze baseballu i nie znosi melona.
To konsekwentne podejście marketingowe wykorzystywane przez liderów AI, którzy nadal stawiają na branding zacierający granice między tym, co robią ludzie, a tym, co potrafią maszyny. Nawet sposób, w jaki firmy rozwijają chatboty jak Claude, z wyraźnymi „osobowościami”, może sprawiać, że użytkownicy czują się, jakby rozmawiali z czymś, co ma potencjał głębokiego życia wewnętrznego.
W Anthropic ta antropomorfizacja sięga głębiej niż tylko strategie marketingowe. „Omawiamy także Claude'a w terminach zwykle zarezerwowanych dla ludzi (np. 'cnota', 'mądrość')” — czytamy w części konstytucji Anthropic opisującej, jak firma chce, aby Claude się zachowywał. „Robimy to, ponieważ oczekujemy, że rozumowanie Claude'a będzie domyślnie czerpać z ludzkich konceptów, biorąc pod uwagę rolę ludzkiego tekstu w treningu Claude'a; i myślimy, że zachęcanie Claude'a do przyjmowania pewnych ludzkich cech może być aktywnie pożądane.” Firma zatrudnia nawet filozofa, aby próbował zrozumieć „wartości” bota.
Sposób, w jaki mówimy o tych maszynach, wpływa na to, co myślimy, że mogą osiągnąć. „Jako błąd logiczny, antropomorfizm zniekształca moralne osądy dotyczące AI, takie jak te dotyczące jego moralnego charakteru i statusu, a także osądy dotyczące odpowiedzialności i zaufania” — czytamy w artykule badawczym opublikowanym w czasopiśmie AI & Ethics. Nieużywanie bardziej zdystansowanego języka o botach naraża użytkowników na ryzyko nadmiernego zaufania do narzędzi i przypisywania im cech, których naprawdę nie posiadają.
Ta tendencja do humanizacji sztucznej inteligencji może prowadzić do błędnych oczekiwań i niewłaściwego zrozumienia ograniczeń technologii, co ma istotne implikacje dla bezpiecznego i świadomego korzystania z narzędzi AI.