11 artykułów z tym tagiem
79% kadry sektora publicznego obawia się bezpieczeństwa danych AI. SLM oferują lokalną kontrolę i większe bezpieczeństwo niż duże modele.
Character.AI uruchamia tryb Books, który pozwala użytkownikom wcielić się w postacie z klasycznych dzieł literatury i aktywnie kształtować ich fabułę.
Pentagon zakłada, że ludzki nadzór kontroluje AI w konfliktach zbrojnych, ale operatorzy nie rozumieją, co systemy faktycznie "myślą".
Deweloper twierdzi, że złamał SynthID Google, ale firma zaprzecza. System pozostaje w dużej mierze bezpieczny.
Anthropic wdraża nowe procedury weryfikacji tożsamości dla użytkowników Claude'a w ramach zabezpieczeń platformy i zgodności z wymogami prawnymi.
Spór o projekt prawa w Illinois ujawnia różnice między gigantami AI w kwestii regulacji i odpowiedzialności za szkody.
Nowa wersja SDK oferuje natywne wsparcie dla izolowanych środowisk, zwiększając bezpieczeństwo i stabilność agentów AI.
Niedawne ataki na CEO OpenAI wywołały alarm w branży i wskazują na eskalację oporu wobec rozwoju sztucznej inteligencji.
Eksperyment naukowców ujawnił, jak systemy AI rozpowszechniają fałszywe informacje medyczne, traktując je jako prawdziwe dane naukowe.
Eksperiment Stanforda ujawnił, jak systemy AI generują przekonujące, ale fałszywe informacje medyczne o nieistniejących chorobach.
Twórca Claude publikuje kompleksowy framework odpowiedzialnego rozwoju AI, który może stać się wzorcem dla całej branży.