Firmy technologiczne organizują spotkania z liderami religijnymi w ramach inicjatywy Faith-AI Covenant, szukając wskazówek etycznych dla rozwoju AI.

Źródło zdjęcia: The Decoder

Anthropic przejmuje centrum danych Colossus 1 od xAI, co budzi wątpliwości co do strategii Muska i przygotowań do IPO SpaceX.

Newsletter MIT Technology Review analizuje obecną erę niepewności wobec AI oraz wpływ technologii na reprodukcję człowieka i robotykę.
Firmy technologiczne Anthropic i OpenAI szukają wskazówek etycznych u przywódców religijnych, organizując spotkania w ramach inicjatywy „Faith-AI Covenant”. Pierwszy okrągły stół odbył się w Nowym Jorku, a kolejne planowane są w Pekinie, Nairobi i Abu Dhabi, jak donosi The Decoder.
Spotkanie zorganizował Interfaith Alliance for Safer Communities (IAFSC) z siedzibą w Genewie — organizacja założona w 2018 roku, która angażuje liderów religijnych w kwestie ekstremizmu, radykalizacji, handlu ludźmi i ochrony dzieci.
Baroness Joanna Shields, partnerka w Interfaith Alliance i była dyrektor Google oraz Facebook, tłumaczy, że regulacje prawne nie nadążają za tempem rozwoju AI. Obecnie prowadzi firmę Precognition, która doradza rządom i korporacjom w kwestiach sztucznej inteligencji i przewidywania strategicznego. Jej zdaniem celem inicjatywy jest wypracowanie wspólnych standardów etycznych.
IAFSC podkreśla historyczne znaczenie tego momentu, argumentując, że tradycje religijne od wieków pomagają ludzkości interpretować świat i definiować moralne granice. Sztuczna inteligencja zaczyna wpływać na te same obszary, zmieniając sposób, w jaki ludzie zdobywają wiedzę, formułują osądy i szukają przewodnictwa.
Anthropic jest bardziej aktywny w przestrzeni religijnej — firma już wcześniej angażowała liderów wiary w kształtowanie swojej „Claude Constitution”. Sam Altman z OpenAI również odwołuje się do duchowych metafor, mówiąc na przykład o rozwijaniu „magicznej inteligencji na niebie” czy że czuje się „po stronie aniołów”.
Nie wszyscy w branży przyjmują inicjatywę entuzjastycznie. Dylan Baker z Distributed AI Research Institute ostrzega, że debata wokół „etycznej AI” przesłania bardziej fundamentalne pytanie: czy określone systemy AI w ogóle powinny być budowane.
Badaczka AI Rumman Chowdhury z organizacji non-profit Humane Intelligence, która testuje systemy AI pod kątem bezpieczeństwa i sprawiedliwości, nazywa te rozmowy „w najlepszym przypadku rozproszeniem uwagi”. Jej zdaniem skupienie na etyce religijnej odwraca uwagę od konkretnych pytań o regulacje, władzę i kontrolę nad systemami AI.
Brian Boyd z Future of Life Institute dostrzega w spotkaniu „pewien aspekt PR”. Jak zauważa, Dolina Krzemowa długo działała zgodnie z mottem „ruszaj szybko i łam rzeczy” i „złamała zbyt wiele rzeczy i skrzywdziła zbyt wiele osób” w tym procesie. Nowe zbliżenie do religii może być próbą odbudowania zaufania.
Inicjatywa „Faith-AI Covenant” reprezentuje rzadką próbę bezpośredniego dialogu między tradycjami religijnymi, zakorzenionymi w wiekach moralnego i duchowego autorytetu, a sztuczną inteligencją jako szybko rozwijającą się siłą definiującą współczesne życie.