Zapytania o naruszenie prywatności przez AI wzrosły o 400%. ChatGPT, Gemini i Claude podają błędne numery, co prowadzi do niechcianych połączeń.

Źródło zdjęcia: MIT Technology Review

Ian Crosby, założyciel upadłego Bench Accounting, pozyskał 10 mln dolarów na nowy startup Synthetic, który ma stworzyć w pełni autonomicznego księgowego AI.

Część społeczności aseksualnej używa AI do budowania emocjonalnych więzi bez seksu. Eksperci ostrzegają przed targetowaniem tej grupy.
Chatboty AI ujawniają prawdziwe numery telefonów użytkowników, co prowadzi do niepożądanych połączeń i potencjalnych problemów z prywatnością. Problem dotyczy głównie modeli takich jak Google Gemini, ChatGPT i Claude, które podczas treningu wykorzystały ogromne ilości danych zawierających informacje osobiste. Jak wynika z raportu MIT Technology Review, przypadki takich naruszeń prywatności stają się coraz częstsze, a użytkownicy mają ograniczone możliwości ochrony swoich danych.
Jeden z użytkowników Reddita zgłosił, że przez miesiąc otrzymywał połączenia od nieznajomych poszukujących różnych usług po tym, jak generatywna AI Google'a błędnie podała jego numer. W marcu izraelski programista Daniel Abraham otrzymał wiadomość na WhatsApp od osoby proszącej o pomoc z kontem w aplikacji płatniczej PayBox. Okazało się, że Gemini podał jego prywatny numer jako kontakt do obsługi klienta PayBox, mimo że firma w ogóle nie oferuje takiej usługi przez WhatsApp.
Abraham odkrył później, że jego numer pojawił się w internecie w 2015 roku na lokalnej stronie podobnej do Quora, co mogło być źródłem danych wykorzystanych przez AI ponad dekadę później. Gdy ponownie zapytał Gemini o kontakt do PayBox, system podał inny, również błędny numer telefoniczny.
Chatboty takie jak Gemini, ChatGPT i Claude są trenowane na ogromnych zbiorach danych pochodzących z całego internetu, które nieuchronnie zawierają setki milionów przypadków danych osobowych (PII). Jak wykazały wcześniejsze badania, popularne otwarte zbiory danych używane do treningu modeli AI, takie jak DataComp CommonPool, zawierały kopie CV, praw jazdy i kart kredytowych.
Problem nasila się, gdy „wyczerpują się” publicznie dostępne dane wysokiej jakości, a firmy AI poszukują nowych źródeł danych treningowych, w tym informacji od brokerów danych i stron wyszukujących ludzi. Zgodnie z kalifornijskim rejestrem brokerów danych, 31 z 578 zarejestrowanych firm przyznało, że w ostatnim roku dzieliło się lub sprzedawało dane konsumentów deweloperom systemów generatywnej AI.
Standardową praktyką jest obecnie budowanie zabezpieczeń w projektach modeli językowych, aby ograniczyć określone rodzaje odpowiedzi. Obejmuje to filtry treści mające identyfikować i zapobiegać ujawnianiu przez chatboty danych osobowych, oraz instrukcje jak te w Claude od Anthropic, by wybierać odpowiedzi zawierające „najmniej osobistych, prywatnych lub poufnych informacji należących do innych”.
Jednak jak pokazują opisane przypadki, te zabezpieczenia nie są w pełni skuteczne. Firma DeleteMe odnotowała dramatyczny wzrost zapytań klientów dotyczących generatywnej AI — z kilkudziesięciu do kilku tysięcy w ciągu ostatnich siedmiu miesięcy, co wskazuje na rosnącą skalę problemu.
Problem ujawniania prawdziwych numerów telefonów przez chatboty AI staje się coraz poważniejszym wyzwaniem dla prywatności użytkowników, a obecne rozwiązania techniczne okazują się niewystarczające do jego pełnego rozwiązania.