Model o1 od OpenAI osiągnął 67% trafnych diagnoz w izbie przyjęć, podczas gdy lekarze tylko 55% i 50%. Badanie Harvard Medical School nad 76 przypadkami.

Źródło zdjęcia: TechCrunch

IBM wdrożył wśród swoich deweloperów narzędzie AI Bob, które analizuje całe repozytoria zamiast pojedynczych plików. Efekt: onboarding z 4 tygodni do 1 dnia.

Peter Russell z UC Berkeley zeznawał w sprawie Muska przeciwko OpenAI, ostrzegając przed zagrożeniami wyścigu do osiągnięcia sztucznej inteligencji ogólnej.
Badanie naukowców z Harvard Medical School pokazuje, że modele sztucznej inteligencji mogą oferować bardziej trafne diagnozy w izbie przyjęć niż niektórzy lekarze. Wyniki opublikowane w czasopiśmie Science porównują skuteczność modeli OpenAI z diagnozami stawianymi przez lekarzy w rzeczywistych przypadkach pacjentów z izby przyjęć. Pełne badanie dostępne w TechCrunch.
Zespół badaczy z Harvard Medical School i Beth Israel Deaconess Medical Center przeprowadził eksperyment porównując diagnozy dwóch lekarzy specjalistów chorób wewnętrznych z diagnozami generowanymi przez modele o1 i 4o od OpenAI. Kluczowym elementem badania było to, że modele AI nie otrzymały żadnych przetworzonych danych — miały dostęp dokładnie do tych samych informacji, które znajdowały się w elektronicznej dokumentacji medycznej w momencie stawiania każdej diagnozy.
Oceny diagnoz dokonywali dwaj inni lekarze, którzy nie wiedzieli, które pochodzą od ludzi, a które od AI. Jak zauważa Arjun Manrai, kierownik laboratorium AI w Harvard Medical School i jeden z głównych autorów badania: „Przetestowaliśmy model AI względem praktycznie każdego wskaźnika i przewyższył zarówno poprzednie modele, jak i nasze referencje lekarskie”.
Pomimo obiecujących wyników, badanie ma istotne ograniczenia. Naukowcy testowali tylko zdolność modeli do przetwarzania informacji tekstowych, podczas gdy „istniejące badania sugerują, że obecne modele podstawowe są bardziej ograniczone w rozumowaniu nad danymi nietekstowymi”.
Dr Adam Rodman z Beth Israel, współautor badania, ostrzegł w rozmowie z The Guardian, że „nie ma obecnie formalnych ram odpowiedzialności” wokół diagnoz AI, a pacjenci nadal „chcą, aby ludzie prowadzili ich przez decyzje życia i śmierci oraz trudne decyzje lecznicze”.
Kristen Panthagani, lekarz medycyny ratunkowej, krytykuje badanie za porównywanie AI z lekarzami chorób wewnętrznych zamiast ze specjalistami medycyny ratunkowej. „Jeśli mamy porównywać narzędzia AI ze zdolnościami klinicznymi lekarzy, powinniśmy zacząć od porównania z lekarzami, którzy rzeczywiście praktykują tę specjalizację” — argumentuje. Dodaje również, że jako lekarz w izbie przyjęć „głównym celem nie jest odgadnięcie ostatecznej diagnozy, ale określenie, czy pacjent ma stan, który może go zabić”.
Wyniki badania wskazują na potencjał AI w diagnostyce medycznej, ale autorzy podkreślają „pilną potrzebę prospektywnych badań klinicznych w celu oceny tych technologii w rzeczywistych warunkach opieki nad pacjentem”. To jasny sygnał, że mimo obiecujących rezultatów, droga do praktycznego zastosowania AI w medycynie ratunkowej wymaga jeszcze znaczących badań i opracowania odpowiednich protokołów bezpieczeństwa.