Regulacje, etyka AI, alignment i bezpieczeństwo systemów AI
Minister powołał zespół do wykorzystania AI w policyjnych bazach danych. Celem jest przyspieszyć analizę informacji dla służb kryminalnych.
Pentagon zakłada, że ludzki nadzór kontroluje AI w konfliktach zbrojnych, ale operatorzy nie rozumieją, co systemy faktycznie "myślą".
Deweloper twierdzi, że złamał SynthID Google, ale firma zaprzecza. System pozostaje w dużej mierze bezpieczny.
Anthropic wdraża nowe procedury weryfikacji tożsamości dla użytkowników Claude'a w ramach zabezpieczeń platformy i zgodności z wymogami prawnymi.
Spór o projekt prawa w Illinois ujawnia różnice między gigantami AI w kwestii regulacji i odpowiedzialności za szkody.
Prezydent USA osobiście przyznał się do publikowania kontrowersyjnych obrazów generowanych przez sztuczną inteligencję na Truth Social.
Nowa analiza ostrzega przed 'poznawczym chowem wsobnym' — zjawiskiem, w którym nadmierne poleganie na AI hamuje ewolucję idei i rozwój cywilizacji.
Platforma Objection za 2000$ pozwala zakwestionować artykuł, używając AI do oceny prawdziwości. Krytycy obawiają się negatywnego wpływu na dziennikarstwo śledcze.
Niedawne ataki na CEO OpenAI wywołały alarm w branży i wskazują na eskalację oporu wobec rozwoju sztucznej inteligencji.
Analiza WIRED pokazuje, że przypadki AI-deepfake'ów dotknęły 90 szkół globalnie, wpływając na ponad 600 uczniów w 28 krajach.
Apple po cichu zagroziło usunięciem aplikacji Grok ze sklepu App Store z powodu problemów z seksualnymi deepfake'ami generowanymi przez AI.
Eksperyment naukowców ujawnił, jak systemy AI rozpowszechniają fałszywe informacje medyczne, traktując je jako prawdziwe dane naukowe.