Badacze z Yang Lu opracowali framework oddzielający ocenę jakości wiedzy od wkładu człowieka w publikacjach wykorzystujących sztuczną inteligencję.

Źródło zdjęcia: arXiv.org

Sam Altman przeprosił społeczność Tumbler Ridge za to, że OpenAI nie zgłosiło policji użytkownika ChatGPT przed atakiem z bronią palną.
MIT Technology Review ostrzega przed rosnącą falą cyberataków z AI, podczas gdy w medycynie brakuje dowodów na rzeczywistą skuteczność narzędzi AI.
Zespół badaczy z Yang Lu na czele opublikował na platformie arXiv nowatorską propozycję reformy systemu publikacji naukowych, która ma odpowiedzieć na wyzwania związane z coraz większym udziałem sztucznej inteligencji w procesie badawczym. Praca zatytułowana "Rethinking Publication: A Certification Framework for AI-Enabled Research" przedstawia dwuwarstwowy system certyfikacji, który oddziela ocenę jakości wiedzy od oceny wkładu człowieka w badania. Artykuł dostępny jest w repozytorium arXiv.
Autorzy zwracają uwagę na fundamentalny problem współczesnej nauki: systemy publikacji akademickich zostały zbudowane w oparciu o założenie powszechnego autorstwa ludzkiego, podczas gdy coraz więcej prac badawczych powstaje z wykorzystaniem zautomatyzowanych procesów AI.
Badacze wskazują, że algorytmy AI coraz częściej produkują wyniki badawcze, które spełniają istniejące standardy peer-review pod względem jakości i nowości. Jednak obecny system publikacji nie posiada zasad umożliwiających spójną i przejrzystą ocenę wiedzy powstałej poprzez zautomatyzowane procesy.
Yang Lu i współautorzy wykorzystali analizę normatywno-konceptualną, projektowanie frameworka pod czterema wyraźnymi ograniczeniami oraz walidację na dwóch reprezentatywnych przypadkach testowych obejmujących kluczowe scenariusze atrybucji autorstwa.
Zaproponowany framework graduje wkład w badania zgodnie z trzema kategoriami. Kategoria A obejmuje prace osiągalne przez obecne systemy AI, Kategoria B dotyczy badań wymagających ludzkiej interwencji na identyfikowalnych etapach procesu, natomiast Kategoria C odnosi się do prac wykraczających poza obecne możliwości automatycznych systemów już na etapie formułowania problemu badawczego.
Kluczowym elementem propozycji są benchmark slots — specjalne miejsca dla w pełni ujawnionych badań automatycznych, które służą zarówno jako przejrzysta ścieżka publikacji, jak i narzędzie kalibracji dla oceny recenzentów. Ocena wkładu odbywa się współcześnie, na podstawie możliwości AI w momencie składania pracy do publikacji.
Autorzy przeprowadzili walidację typu dry-run na dwóch reprezentatywnych przypadkach, która wykazała, że framework może odpowiednio certyfikować wiedzę, jednocześnie tolerując nieusuwalną niepewność co do atrybucji autorstwa. System jest możliwy do wdrożenia w ramach istniejącej infrastruktury redakcyjnej i opiera uznanie pionierskiego wkładu człowieka na osiągnięciach epistemicznych, a nie na nieweryfikowalnych twierdzeniach o ludzkim pochodzeniu badań.
Propozycja stanowi odpowiedź na rosnące wyzwania związane z integracją AI w procesie badawczym, oferując pragmatyczne rozwiązanie, które zachowuje integralność systemu publikacji naukowych w erze sztucznej inteligencji.