
Źródło zdjęcia: WIRED
Anthropic, twórca asystenta Claude, sprzeciwił się kontrowersyjnemu projektowi prawa w stanie Illinois, który popiera OpenAI. Ustawa SB 3444 miałaby chronić laboratoria AI przed odpowiedzialnością prawną, jeśli ich systemy zostałyby wykorzystane do wyrządzenia szkód na wielką skalę, takich jak masowe ofiary lub straty materialne przekraczające miliard dolarów.
Spór wokół tego projektu ustawy rysuje nowe linie podziału między dwoma wiodącymi amerykańskimi laboratoriami AI w kwestii regulacji technologii sztucznej inteligencji. Choć eksperci ds. polityki AI oceniają, że prawdopodobieństwo uchwalenia tej legislacji jest niewielkie, to jednak ujawniła ona polityczne różnice między konkurencyjnymi firmami, które mogą nabierać coraz większego znaczenia wraz z intensyfikacją ich działalności lobbingowej w całym kraju.
Za kulisami Anthropic lobbowało senatora stanu Bill Cunninghama, sponsora projektu SB 3444, oraz innych prawodawców z Illinois, aby wprowadzili znaczące zmiany w ustawie lub całkowicie ją odrzucili. W oświadczeniu dla WIRED, przedstawiciel Anthropic potwierdził sprzeciw firmy wobec SB 3444.
"Jesteśmy przeciwni tej ustawie. Dobra legislacja dotycząca przejrzystości musi zapewnić bezpieczeństwo publiczne i rozliczalność firm rozwijających tę potężną technologię, a nie dostarczać karty wyjścia z więzienia przed wszelką odpowiedzialnością" — powiedział Cesar Fernandez, szef ds. relacji z władzami stanowymi i lokalnymi w Anthropic.
Fernandez dodał, że firma wie, iż senator Cunningham głęboko troszczy się o bezpieczeństwo AI i oczekuje współpracy nad zmianami, które połączyłyby przejrzystość z rzeczywistą odpowiedzialnością za łagodzenie najpoważniejszych szkód, jakie mogłyby powodować zaawansowane systemy AI.
Sedno sporu między OpenAI i Anthropic dotyczy kwestii, kto powinien ponosić odpowiedzialność w przypadku katastrofy związanej z AI — scenariusza koszmarnego, z którym amerykańscy prawodawcy dopiero niedawno zaczęli się mierzyć. Gdyby projekt SB 3444 został uchwalony, laboratorium AI nie byłoby odpowiedzialne, jeśli złoczyńca wykorzystałby jego model AI do stworzenia na przykład broni biologicznej zabijającej setki osób — pod warunkiem że laboratorium opracowało własne ramy bezpieczeństwa i opublikowało je na swojej stronie internetowej.
OpenAI argumentuje, że SB 3444 zmniejsza ryzyko poważnych szkód ze strony zaawansowanych systemów AI, jednocześnie "wciąż pozwalając tej technologii dostać się w ręce ludzi i firm — małych i dużych — z Illinois". Twórca ChatGPT twierdzi, że współpracował ze stanami takimi jak Nowy Jork i Kalifornia nad stworzeniem "zharmonizowanego" podejścia do regulacji AI.
Anthropic z kolei argumentuje, że firmy rozwijające zaawansowane modele AI powinny ponosić przynajmniej częściową odpowiedzialność, jeśli ich technologia zostanie wykorzystana do wyrządzenia szkód społecznych na szeroką skalę.
Eksperci ostrzegają, że ustawa mogłaby rozmontować istniejące regulacje mające na celu powstrzymanie firm przed złym postępowaniem. Thomas Woodside, współzałożyciel i starszy doradca ds. polityki w organizacji non-profit Secure AI Project, która pomagała w opracowywaniu i popieraniu praw dotyczących bezpieczeństwa AI w Kalifornii i Nowym Jorku, wyjaśnia:
"Odpowiedzialność już istnieje w prawie zwyczajowym i stanowi potężną zachętę dla firm AI do podejmowania rozsądnych kroków w celu zapobiegania przewidywalnym ryzykom ze strony ich systemów AI. SB 3444 poczyniłby skrajny krok niemal eliminacji odpowiedzialności za poważne szkody."
Przedstawiciel gubernatora Illinois JB Pritzkera wydał oświadczenie wyrażające sceptycyzm wobec projektu: "Choć Biuro Gubernatora będzie monitorować i analizować wiele ustaw dotyczących AI przechodzących przez Zgromadzenie Generalne, gubernator Pritzker nie wierzy, że wielkie firmy technologiczne powinny kiedykolwiek otrzymać pełną tarczę, która pozwala im uniknąć odpowiedzialności za ochronę interesu publicznego".
W tym samym czasie Anthropic poparł inny projekt ustawy w Illinois — SB 3261, który gdyby został uchwalony, byłby jednym z najsurowszych praw dotyczących bezpieczeństwa AI w kraju. Ta legislacja wymagałaby od twórców zaawansowanych systemów AI, takich jak OpenAI i Anthropic, stworzenia publicznych planów bezpieczeństwa i ochrony dzieci oraz poddania ich testom przez zewnętrznych audytorów w celu oceny ich skuteczności.
Anthropic, założone pięć lat temu przez grupę byłych pracowników OpenAI, zbudowało reputację firmy głośno mówiącej o potencjalnych zagrożeniach płynących z zaawansowanej sztucznej inteligencji i opowiadającej się za zabezpieczeniami mającymi im zapobiec. Takie podejście wielokrotnie stawiało firmę na celowniku administracji Trumpa, która próbowała ograniczyć regulacje AI na poziomie stanowym, argumentując, że mogą one hamować rozwój. David Sacks, ówczesny car AI i krypto w administracji Trumpa, skarżył się w poście w mediach społecznościowych, że Anthropic prowadzi "wyrafinowaną strategię przejęcia regulacyjnego opartą na sianiu strachu".