Zespół badaczy z uniwersytetów w Wielkiej Brytanii przeprowadził eksperyment, który ujawnił niepokojące luki w funkcjonowaniu systemów AI. Naukowcy stworzyli całkowicie fikcyjną chorobę, a następnie obserwowali, jak popularne modele językowe nieświadomie rozpowszechniają fałszywe informacje medyczne, traktując je jako autentyczne dane naukowe.
Badanie, opublikowane w prestiżowym czasopiśmie Nature, pokazuje, w jaki sposób systemy sztucznej inteligencji mogą stać się nieświadomymi propagatorami dezinformacji medycznej. Naukowcy stworzyli szczegółowy opis nieistniejącej choroby, kompletny z objawami, metodami diagnostyki oraz proponowanym leczeniem.
Fikcyjna choroba została opisana z wykorzystaniem terminologii medycznej i struktury typowej dla autentycznych publikacji naukowych. Badacze celowo nadali jej wiarygodny charakter, wykorzystując wzorce znane z rzeczywistej literatury medycznej.
Kluczowe elementy eksperymentu obejmowały:
Podczas testowania różnych modeli językowych, badacze odkryli, że systemy AI nie tylko akceptowały fałszywe informacje jako prawdziwe, ale także aktywnie je rozpowszechniały. Modele generowały dodatkowe "szczegóły" na temat nieistniejącej choroby, tworząc złudzenie głębokiej wiedzy medycznej.
"To, co zaobserwowaliśmy, było szczególnie niepokojące — AI nie tylko powtarzały fałszywe informacje, ale także je rozwijały, dodając pozornie wiarygodne detale medyczne" — komentują autorzy badania.
Systemy sztucznej inteligencji wykazały tendencję do:
Odkrycie to rzuca nowe światło na rosnące wykorzystanie AI w opiece zdrowotnej i dostępie do informacji medycznych. W erze, gdy coraz więcej pacjentów korzysta z chatbotów medycznych i systemów AI do uzyskiwania porad zdrowotnych, podatność tych technologii na rozpowszechnianie dezinformacji stanowi poważne zagrożenie dla bezpieczeństwa publicznego.
Eksperci z dziedziny AI i medycyny podkreślają, że wyniki badania ujawniają fundamentalną słabość obecnych modeli językowych — brak mechanizmów weryfikacji faktów medycznych oraz tendencję do prezentowania niepewnych informacji z pozorną pewnością.
Główne zagrożenia obejmują:
Dyskusja na platformie Hacker News wokół tego badania przyciągnęła uwagę inżynierów i badaczy AI z całego świata. Komentatorzy wyrażają zaniepokojenie faktem, że nawet zaawansowane systemy AI mogą być tak łatwo wprowadzone w błąd przez spreparowane dane.
Niektórzy eksperci argumentują, że problem leży nie tyle w samych modelach AI, co w sposobie ich trenowania i walidacji. Obecne systemy są trenowane na ogromnych zbiorach danych internetowych, które mogą zawierać zarówno rzetelne informacje naukowe, jak i dezinformację.
Badanie podkreśla pilną potrzebę opracowania bardziej rygorystycznych standardów dla systemów AI wykorzystywanych w medycynie. Regulatorzy na całym świecie stoją przed wyzwaniem stworzenia ram prawnych, które zapewnią bezpieczeństwo pacjentów, nie hamując jednocześnie innowacji technologicznych.
Eksperci postulują wprowadzenie:
Mimo ujawnionych problemów, badacze nie postulują rezygnacji z wykorzystania AI w medycynie. Zamiast tego wzywają do opracowania bardziej zaawansowanych mechanizmów weryfikacji i walidacji informacji medycznych w systemach sztucznej inteligencji.
Przyszłe rozwiązania mogą obejmować integrację systemów AI z bazami danych peer-reviewed publikacji naukowych, implementację mechanizmów cross-referencingu oraz rozwój specjalistycznych modeli trenowanych wyłącznie na zweryfikowanych danych medycznych.
To przełomowe badanie stanowi ważny krok w kierunku zrozumienia ograniczeń obecnych technologii AI i potrzeby ich odpowiedzialnego rozwoju. W miarę jak systemy sztucznej inteligencji stają się coraz bardziej wszechobecne w opiece zdrowotnej, konieczne będzie znalezienie równowagi między wykorzystaniem ich potencjału a zapewnieniem bezpieczeństwa pacjentów przed dezinformacją medyczną.