
Źródło zdjęcia: WIRED
Globalna epidemia fałszywych nagich zdjęć w szkołach osiągnęła alarmujące rozmiary. Nastoletni chłopcy na całym świecie używają aplikacji opartych na sztucznej inteligencji do tworzenia deepfake'owych nagich fotografii koleżanek ze szkoły, co prowadzi do poważnych przypadków nadużyć seksualnych. Analiza przeprowadzona przez magazyn WIRED ujawnia skalę problemu, który dotknął już dziesiątki szkół na całym świecie.
Według przeglądu publicznie zgłoszonych incydentów przeprowadzonego przez WIRED i publikację Indicator, przypadki seksualnych nadużyć z wykorzystaniem deepfake'ów dotknęły około 90 szkół na całym świecie i wpłynęły na ponad 600 uczniów. Od 2023 roku uczniowie — najczęściej chłopcy w szkołach średnich — w co najmniej 28 krajach zostali oskarżeni o używanie generatywnej sztucznej inteligencji do atakowania kolegów z klasy za pomocą zseksualizowanych deepfake'ów.
Proces zwykle rozpoczyna się od zdjęcia pobranego z mediów społecznościowych. Chłopcy zapisują obrazy z Instagrama i Snapchata dziewczyn, które znają ze szkoły, a następnie używają szkodliwych aplikacji „nudify" do tworzenia fałszywych nagich zdjęć lub filmów. Te deepfake'i mogą być szybko udostępniane w całej szkole, pozostawiając ofiary w poczuciu upokorzenia, naruszenia, bezradności i strachu, że obrazy będą je prześladować na zawsze.
W Ameryce Północnej od 2023 roku zgłoszono prawie 30 przypadków seksualnych nadużyć z wykorzystaniem deepfake'ów — w tym jeden z ponad 60 domniemanymi ofiarami, jeden, w którym ofiara została tymczasowo wydalona ze szkoły, oraz inne, gdzie uczniowie z wielu szkół zostali rzekomo jednocześnie zaatakowani. Ponad 10 przypadków zostało publicznie zgłoszonych w Ameryce Południowej, ponad 20 w Europie oraz kolejne tuzin w Australii i Azji Wschodniej łącznie.
Prawdziwa skala seksualnych nadużyć z wykorzystaniem deepfake'ów w szkołach jest prawdopodobnie znacznie wyższa. Badanie przeprowadzone przez agencję ONZ ds. dzieci UNICEF szacuje, że w zeszłym roku utworzono seksualne deepfake'i 1,2 miliona dzieci. Jedna na pięć młodych osób w Hiszpanii powiedziała badaczom z Save the Children, że utworzono deepfake'owe nagie zdjęcia ich osoby.
Wpływ na ofiary jest ogromny. „Martwię się, że za każdym razem, gdy mnie widzą, widzą te zdjęcia" — powiedziała jedna z ofiar z Iowa wcześniej w tym roku. Rodzina innej ofiary stwierdziła: „Ona płacze. Nie jadła".
W wielu przypadkach ofiary często nie chcą uczęszczać do szkoły lub nie chcą spotykać tych, którzy stworzyli ich eksplicytne obrazy lub filmy. „Czuje się bezradna, ponieważ wie, że te obrazy prawdopodobnie trafią do internetu i dotrą do pedofilów" — mówi prawnik Shane Vogt wraz z trzema studentami Yale Law School, którzy reprezentują jedną nienazwaną nastolatkę z New Jersey w sprawie sądowej przeciwko usłudze nudyfikacji.
W Korei Południowej i Australii szkoły dały uczniom możliwość rezygnacji z umieszczania ich zdjęć w rocznikach lub przestały publikować obrazy uczniów na swoich oficjalnych kontach w mediach społecznościowych, powołując się na ich wykorzystanie do potencjalnych nadużyć deepfake'owych. „Na całym świecie zdarzały się przypadki, gdy zdjęcia szkolne były pobierane z publicznych stron mediów społecznościowych, zmieniane za pomocą AI i przekształcane w szkodliwe deepfake'i" — powiedziała jedna ze szkół w Australii.
Seksualne deepfake'i tworzone za pomocą AI istnieją od około końca 2017 roku; jednak gdy systemy generatywnej AI pojawiły się i stały się potężniejsze, doprowadziły do powstania mrocznego ekosystemu technologii „nudyfikacji" lub „rozbierania". Dziesiątki aplikacji, botów i stron internetowych pozwalają każdemu na tworzenie zseksualizowanych obrazów i filmów innych osób za pomocą zaledwie kilku kliknięć, często bez wiedzy technicznej.
„To, co zmienia AI, to skala, szybkość i dostępność" — mówi Siddharth Pillai, współzałożyciel i dyrektor Fundacji RATI, organizacji z siedzibą w Mumbaju pracującej nad zapobieganiem przemocy wobec kobiet i dzieci. „Bariera techniczna znacznie spadła, co oznacza, że więcej osób, w tym nastolatków, może produkować bardziej przekonujące rezultaty przy minimalnym wysiłku".
Analiza pokazuje również, że w wielu przypadkach szkoły i funkcjonariusze organów ścigania często nie są przygotowani do reagowania na poważne incydenty nadużyć seksualnych. „Myślę, że trudno byłoby znaleźć szkołę, której to nie dotknęło" — mówi Lloyd Richardson, dyrektor technologii w Kanadyjskim Centrum Ochrony Dzieci. „Najważniejszą rzeczą jest to, jak jesteśmy w stanie pomóc ofiarom, gdy to się dzieje, ponieważ skutki tego mogą być ogromne".
Eksplicytne obrazy zawierające nieletnich są uważane za materiał dotyczący seksualnego wykorzystywania dzieci (CSAM). Ta analiza jest uważana za pierwszą, która przegląda rzeczywiste przypadki nadużyć deepfake'owych AI mających miejsce w szkołach na całym świecie. Badania grup zajmujących się ochroną dzieci, takich jak Thorn, pokazują, że jeden na ośmiu nastolatków zna kogoś, kto został zaatakowany, a w 2024 roku 15 procent uczniów przebadanych przez Center for Democracy and Technology wiedziało o deepfake'ach generowanych przez AI związanych z ich szkołą.