Sasha Luccioni z Hugging Face zakłada Sustainable AI Group, by pomóc firmom ograniczyć wpływ AI na środowisko. Postuluje licznik energii w ChatGPT i większą transparentność.

Źródło zdjęcia: WIRED

Badacze z UC Berkeley stworzyli system automatycznie wykrywający luki w benchmarkach AI. BenchJack zhakował niemal wszystkie popularne testy.

Anthropic prowadzi negocjacje nad wycenę 900 mld dolarów, co po raz pierwszy przekroczyłoby wartość OpenAI przy pięciokrotnym wzroście przychodów.
Budowanie sztucznej inteligencji w sposób zrównoważony wydaje się obecnie nierealne, gdy giganci technologiczni, którzy wcześniej obiecywali redukcję emisji, teraz w pośpiechu budują ogromne centra danych zasilane paliwami kopalnymi. Mimo tych wyzwań, ekspertka ds. zrównoważonej AI Sasha Luccioni wierzy, że zapotrzebowanie na większą transparentność w obszarze sztucznej inteligencji jest wyższe niż kiedykolwiek — jak wynika z wywiadu opublikowanego przez WIRED.
Luccioni, która przez cztery lata pracowała w firmie Hugging Face i pioniersko opracowywała tabele rankingowe dokumentujące efektywność energetyczną modeli AI open-source, teraz uruchamia nowe przedsięwzięcie Sustainable AI Group. Wraz z byłym szefem ds. zrównoważoności w Salesforce, Borisem Gamazaychikovem, będzie pomagać firmom odpowiedzieć na kluczowe pytania dotyczące ograniczania negatywnego wpładu AI na środowisko.
Według Luccioni, firmy coraz częściej stają przed wymogiem raportowania wpływu AI na środowisko. Pracownicy pytają swoich pracodawców: „Zmuszacie nas do używania Copilot — jak to wpływa na nasze cele ESG?”. To nie przypadek — AI stało się kluczową częścią oferty biznesowej większości firm, co oznacza konieczność zrozumienia ryzyk związanych z tym technologiami.
Firmy muszą wiedzieć, gdzie działają ich modele, jakie są emisje z łańcucha dostaw, emisje transportowe i inne czynniki środowiskowe. Nie chodzi o rezygnację z AI, ale o świadomy wybór odpowiednich modeli i wysyłanie sygnału, że źródło energii ma znaczenie — klienci są skłonni płacić więcej za centra danych zasilane energią odnawialną.
Sytuacja znacząco różni się między regionami świata. W Europie EU AI Act od początku zawiera istotne elementy dotyczące zrównoważoności, a obecnie pojawiają się pierwsze inicjatywy raportowe. Nawet kraje azjatyckie starają się być bardziej transparentne, a Międzynarodowa Agencja Energetyczna publikuje raporty na temat AI i zużycia energii.
Problem polega na tym, że kraje nie posiadają dokładnych danych dotyczących centrów danych, co utrudnia podejmowanie strategicznych decyzji dotyczących przyszłych potrzeb energetycznych. Niektóre państwa zaczęły już wywierać presję na deweloperów centrów danych, domagając się większej transparentności.
Luccioni ma konkretną wizję tego, jak powinna wyglądać przyszłość AI. Marzy o „liczniku” w interfejsach ChatGPT czy Claude, który pokazywałby użytkownikom dokładne zużycie energii po każdej konwersacji, ideally wraz z informacjami o emisjach gazów cieplarnianych i źródle energii.
Jej zdaniem, gdyby jeden z głównych dostawców modeli postawił na zrównoważoność jako przewagę konkurencyjną i zrezygnował z centrów danych zasilanych gazem ziemnym na rzecz odnawialnych źródeł energii, mógłby to dać mu znaczącą przewagę rynkową — podobnie jak Anthropic zyskało kulturowy boost, odmawiając współpracy z amerykańskim rządem w celach militarnych.
Kluczowe jest także edukowanie użytkowników, że nie wszystkie zadania wymagają potężnych modeli językowych. Wiele praktycznych zastosowań AI można realizować za pomocą prostszych klasyfikatorów, które od lat wykonują „czarną robotę” w różnych branżach — od finansów po analizę danych.