
Źródło zdjęcia: MIT Technology Review
MIT Technology Review opublikowało najnowsze wydanie swojego newslettera The Download, w którym porusza dwie kluczowe kwestie: wątpliwości dotyczące teorii o „wewnętrznym neandertalczyku" oraz problemy z koncepcją „człowieka w pętli" w wojnach z użyciem AI. Newsletter zawiera także przegląd najważniejszych wydarzeń technologicznych.
• Para francuskich genetyków w 2024 roku zakwestionowała teorię o DNA neandertalczyka u współczesnych ludzi, sugerując że zjawisko można wytłumaczyć strukturą populacji zamiast krzyżowania gatunków
• Pentagon negocjuje dostęp do modelu Mythos firmy Anthropic, mimo że firma znajduje się na czarnej liście i uznała model za zbyt niebezpieczny do publicznego wydania
• Awaria Starlink podczas testów dronów ujawniła nadmierną zależność Pentagonu od SpaceX, co było jednym z kilku zakłóceń testów Marynarki Wojennej
• 40% projektów centrów danych zaplanowanych na ten rok może się opóźnić, co zagraża ekspansji AI
• Sztuczna inteligencja coraz bardziej kształtuje prawdziwe wojny, co rodzi pytania o rzeczywistą skuteczność nadzoru ludzkiego
Teoria o "wewnętrznym neandertalczyku" była jednym z najsłynniejszych odkryć XXI wieku w dziedzinie ewolucji człowieka. Zgodnie z nią, Homo sapiens i spokrewniony gatunek krzyżowały się, pozostawiając u niektórych współczesnych ludzi ślady DNA neandertalczyka.
Jednak w 2024 roku para francuskich genetyków podważyła fundamenty tej teorii. Zaproponowali oni, że zjawisko interpretowane jako krzyżowanie można alternatywnie wytłumaczyć strukturą populacji - sposobem koncentracji genów w mniejszych, izolowanych grupach. To odkrycie może znacząco zmienić nasze rozumienie ewolucji człowieka.
Uri Maoz w swoim komentarzu ostrzega przed fałszywym poczuciem bezpieczeństwa związanym z koncepcją "człowieka w pętli" w systemach wojskowych AI. Choć wytyczne Pentagonu zakładają, że nadzór ludzki zapewnia odpowiedzialność, kontekst i bezpieczeństwo, autor argumentuje, że to "pocieszająca dystrakcja".
Prawdziwe niebezpieczeństwo nie polega na tym, że maszyny będą działać bez nadzoru, ale na tym, że ludzie nadzorujący nie mają pojęcia, co maszyny faktycznie "myślą". Jak zauważa Rob Joyce, były dyrektor cyberbezpieczeństwa NSA: .
Pomimo umieszczenia Anthropic na czarnej liście, Biały Dom prowadzi negocjacje dotyczące dostępu do modelu Mythos. Sama firma uznała go za zbyt niebezpieczny do publicznego wydania, co wzbudziło obawy ministrów finansów różnych krajów. Jednocześnie Anthropic wypuściło model mniej ryzykowny niż Mythos, a Pentagon prowadzi "wojnę kulturową" przeciwko firmie.
Równolegle Sam Altman z OpenAI mierzy się z zarzutami o konflikt interesów związany z jego nieprzejrzystymi inwestycjami, które mogą wpływać na decyzje w firmie. Ława przysięgłych wkrótce zdecyduje, czy OpenAI porzuciło swoją pierwotną misję.
Newsletter MIT Technology Review pokazuje, jak szybko ewoluuje krajobraz sztucznej inteligencji - od fundamentalnych pytań o ludzką ewolucję po pilne wyzwania związane z AI w zastosowaniach militarnych.