
Źródło zdjęcia: The Verge
Apple prawie usunęło aplikację Grok z App Store z powodu deepfake'ów o charakterze seksualnym generowanych przez chatbota należącego do Elona Muska. Jak ujawnia NBC News, gigant z Cupertino w styczniu po cichu zagroził usunięciem aplikacji, jeśli deweloperzy nie rozwiążą problemu z niekonsensualną pornografią AI.
W liście uzyskanym przez NBC News, Apple poinformowało amerykańskich senatorów, że "skontaktowało się z zespołami stojącymi za X i Grok po otrzymaniu skarg i zobaczeniu medialnych doniesień o skandalu" oraz zażądało od deweloperów "stworzenia planu poprawy moderacji treści".
W tym czasie chatbot Grok był swobodnie dostępny zarówno na platformie X, jak i jako samodzielna aplikacja. Słabe zabezpieczenia pozwalały użytkownikom łatwo generować i udostępniać seksualizowane deepfake'i oraz "rozbierać" na zdjęciach prawdziwe osoby, nieproporcjonalnie często kobiety, w tym prawdopodobnie nieletnich.
Były to, jak podkreśla The Verge, rażące i jednoznaczne naruszenia wytycznych App Store, które Apple zwykle egzekwuje z żelazną ręką. Firma, która czerpie zyski z obecności aplikacji takich jak X i Grok w swoim cyfrowym sklepie, nie wypowiadała się publicznie na temat tej kwestii ani swojej interwencji za kulisami.
Apple przeanalizowało zaproponowane zmiany w aplikacjach X i Grok. Podczas gdy firma stwierdziła, że X "w znacznym stopniu rozwiązało swoje naruszenia", Grok "nadal nie był zgodny z wytycznymi". Apple ostrzegło dewelopera, że "będą wymagane dodatkowe zmiany w celu naprawienia naruszeń, lub aplikacja może zostać usunięta z App Store".
Dopiero po dalszych negocjacjach Apple ustaliło, że Grok "znacznie się poprawił" i zatwierdziło jego zgłoszenie. Przez cały ten skryty proces wymiany korespondencji, Grok i X pozostały dostępne w App Store. Ten długotrwały proces może tłumaczyć chaotyczne i niespójne wdrażanie zmian w moderacji, które były ogłaszane w czasie rzeczywistym.
Zmiany te obejmowały ograniczenie dostępu do Grok na X wyłącznie do płacących subskrybentów oraz próby zatrzymania funkcji "rozbierania" kobiet przez Grok. Śledztwa The Verge ujawniły, że żadne z tych rozwiązań nie było szczególnie skuteczne poza utrudnieniem dostępu do narzędzia. Późniejsze interwencje, jak umożliwienie użytkownikom X blokowania Grok przed edytowaniem ich zdjęć, również można łatwo obejść.
Pomimo aprobaty Apple i twierdzeń xAI o zaostrzeniu zabezpieczeń, Grok nadal wydaje się być w stanie generować seksualizowane deepfake'i ze względną łatwością. Źródła z branży cyberbezpieczeństwa poinformowały, że udało im się stworzyć nieprzyzwoite obrazy celebrytów i postaci politycznych za pomocą tego narzędzia. Autor artykułu również był w stanie wyprodukować podobne obrazy siebie i innych zgadzających się dorosłych. NBC również zgłosiło podobne ustalenia.
Google, które podobnie jak Apple czerpie zyski z aplikacji w swoim sklepie Google Play, również nie komentowało publicznie tej sprawy. Incydent rzuca światło na podejście największych platform technologicznych do moderacji treści AI i ich gotowość do publicznego zajęcia stanowiska w kontrowersyjnych kwestiach związanych ze sztuczną inteligencją.
Sprawa pokazuje też wyzwania związane z egzekwowaniem zasad w przypadku aplikacji AI, które mogą być używane do tworzenia szkodliwych treści, jednocześnie będąc źródłem znacznych przychodów dla operatorów sklepów z aplikacjami.