Benchmark Philosophy Bench pokazuje, jak Claude, GPT-5, Gemini i Grok różnie podchodzą do 100 scenariuszy etycznych — od odmowy po bezrefleksyjne wykonanie.

Źródło zdjęcia: The Decoder

OpenAI planuje masową produkcję pierwszego telefonu agentowego w 2027 roku. Urządzenie będzie wyposażone w specjalny procesor MediaTek Dimensity 9600.

Google partneruje z XPRIZE w konkursie filmowym o wartości 3,5 mln dolarów. Zwycięzca otrzyma wsparcie w produkcji pełnometrażowego filmu.
Nowy benchmark Philosophy Bench pokazuje, jak różnie wiodące modele AI podchodzą do dylematów etycznych. Badanie przeprowadzone przez Benedict Brady przetestowało modele od Anthropic, Google, OpenAI i xAI na 100 złożonych scenariuszach moralnych, ujawniając znaczące różnice w ich podejściu do etyki.
Wyniki pokazują wyraźny podział między modelami. Claude od Anthropic wyróżnia się jako najbardziej deontologiczny model (oparty na obowiązkach i zasadach), podczas gdy Grok 4.2 od xAI okazuje się najbardziej konsekwencjalistyczny (skoncentrowany na wynikach). GPT-5 od OpenAI unika języka moralnego, a Gemini od Google jest najłatwiejszy do sterowania etycznego.
Scenariusze testowe obejmowały sytuacje od wiceprezesa sprzedaży żądającego poufnych danych klientów przed terminem, po lekarza próbującego zapisać nieletniego do badania onkologicznego z pominięciem protokołu. Trzy modele (Opus 4.7, GPT 5.4, Gemini 3.1 Pro) oceniały odpowiedzi poprzez głosowanie większościowe.
Claude wyróżnia się szczególnie w kwestii uczciwości, preferując całkowite odmówienie wykonania zadania zamiast złamania norm. Konstytucja Claude wyraźnie stanowi, że standardy uczciwości modelu powinny być „znacznie wyższe” niż typowe ludzkie oczekiwania etyczne.
Na przeciwnym biegunie znajduje się Grok 4.2, który realizuje etycznie problematyczne żądania użytkowników, które inne modele odrzucają. Model ten wykazuje niewielką refleksję nad wymiarem moralnym swoich działań.
Badanie ujawnia powstający rynek, w którym stanowiska etyczne działają jak cechy produktu. Claude postrzegany jest jako model sumienneiy, Grok jako posłuszny, a GPT jako pragmatyczny wybór.
Autorzy benchmarku widzą w tym fundamentalne napięcie. Modele takie jak Claude podejmują decyzje etyczne, które bezpośrednio przesłaniają to, czego chcą użytkownicy. Jednak w miarę jak agenty AI stają się potężniejsze, pytanie o to, czy odpowiedzialne zachowanie czy kontrola użytkownika powinny mieć priorytet, staje się bardziej pilne.
Ma to jeszcze większe znaczenie, gdy modele AI zaczynają obsługiwać zadania wykraczające poza tekst. Gdy będą sprawdzać kontrakty, segregować pacjentów czy oceniać pracowników, ktoś będzie musiał odpowiedzieć na trudne pytania: kto decyduje, co AI może robić i czyją etyką się kieruje?
To badanie pokazuje, że różnice w podejściu etycznym między modelami AI nie są przypadkowe, lecz odzwierciedlają świadome wybory projektowe ich twórców.