Google odkryło i zatrzymało pierwsze znane ataki zero-day stworzone przy użyciu AI. Hakerzy planowali masowy atak na systemy 2FA.

Źródło zdjęcia: The Verge
Google odkryło i zatrzymało pierwsze znane im ataki hakerskie typu zero-day, które zostały opracowane przy użyciu sztucznej inteligencji. Jak wynika z , przestępcy planowali wykorzystać lukę bezpieczeństwa do przeprowadzenia „masowego ataku eksploitacyjnego”, który pozwoliłby omijać dwuetapowe uwierzytelnianie w nienazwanym „open-source'owym narzędziu do administracji systemów internetowych”.

Jensen Huang porównał start kariery absolwentów Carnegie Mellon do rewolucji AI, podkreślając że to największa transformacja technologiczna w historii.

Autor seriali dla BBC i Paramount opisuje swoją drugą karierę jako trener sztucznej inteligencji, zmuszony do tego przez kryzys w branży rozrywkowej.
To pierwszy przypadek, gdy Google znalazło dowody na wykorzystanie AI w tego typu ataku, choć badacze zastrzegli, że „nie wierzą, aby użyto Gemini”.
Badacze Google znaleźli w skrypcie Python wykorzystywanym do eksploitu oznaki wskazujące na pomoc AI. Wśród dowodów znalazł się „halucynowany wynik CVSS” oraz „uporządkowane, podręcznikowe” formatowanie spójne z danymi treningowymi dużych modeli językowych.
Exploit wykorzystywał „wysokopoziomową lukę w logice semantycznej, gdzie programista zakodował na stałe założenie zaufania” w systemie 2FA platformy. To kolejny przypadek po tygodniach dyskusji nad możliwościami modeli AI ukierunkowanych na cyberbezpieczeństwo, takich jak Mythos od Anthropic, oraz niedawno ujawnionej luce w Linuksie odkrytej przy wsparciu AI.
Raport Google wskazuje, że hakerzy coraz częściej wykorzystują AI do znajdowania i wykorzystywania luk bezpieczeństwa. Przestępcy stosują techniki „persona-driven jailbreaking”, aby skłonić AI do znajdowania podatności — na przykład poprzez polecenia instruujące AI, aby udawało eksperta od bezpieczeństwa.
Dodatkowo, hakerzy dostarczają modelom AI całe repozytoria danych o lukach bezpieczeństwa i wykorzystują narzędzia takie jak OpenClaw w sposób sugerujący „zainteresowanie udoskonalaniem payload'ów generowanych przez AI w kontrolowanych środowiskach, aby zwiększyć niezawodność eksploitów przed wdrożeniem”.
Google zauważa także, że same systemy AI stają się celem ataków, szczególnie „zintegrowane komponenty, które nadają systemom AI ich użyteczność, takie jak autonomiczne umiejętności i łączniki danych zewnętrznych”.
Odkrycie Google pokazuje nową fazę w cyberprzestępczości, gdzie sztuczna inteligencja staje się zarówno narzędziem ataków, jak i ich celem.