Microsoft został przyłapany na automatycznym dodawaniu linii „Co-Authored-by Copilot” do commitów Git w Visual Studio Code, nawet gdy programiści całkowicie wyłączyli funkcje AI. [Funkcja została wdro

Źródło zdjęcia: The Decoder
Microsoft został przyłapany na automatycznym dodawaniu linii „Co-Authored-by Copilot” do commitów Git w Visual Studio Code, nawet gdy programiści całkowicie wyłączyli funkcje AI. , co wywołało falę krytyki w społeczności deweloperów na GitHub i Hacker News.

OpenAI wypuściło Symphony, które przekształca trackery zadań w centrum kontroli dla autonomicznych agentów AI, eliminując problem ludzkiej uwagi jako wąskiego gardła.

Naukowcy opracowali metodę LOCA, która identyfikuje przyczyny sukcesu ataków jailbreak. Wymaga tylko 6 zmian zamiast 20 jak poprzednie metody.
Problem został zauważony przez użytkowników, którzy odkryli, że ich commity są oznaczane jako współautorskie z Copilotem, mimo że nie korzystali z asystenta AI podczas pisania kodu. Funkcja działała ukrycie w oknie commitów, co mogło stwarzać problemy prawne związane z prawami autorskimi oraz komplikacje dla firm z restrykcyjnymi politykami dotyczącymi AI.
Zmiana została wprowadzona w sposób budzący wątpliwości co do procesów kontroli jakości w Microsofcie. Menedżer produktu przeforsował modyfikację, główny inżynier zatwierdził ją bez żadnego opisu, a następnie została natychmiast scalona z główną gałęzią kodu. Taki sposób wprowadzania zmian w tak popularnym narzędziu jak VS Code wzbudził obawy społeczności deweloperów co do transparentności procesów decyzyjnych w firmie.
Szczególnie niepokojące było to, że funkcja działała ukrycie w tle, bez wiedzy użytkowników. Deweloperzy mogli przez długi czas nie zdawać sobie sprawy, że ich commity są błędnie oznaczane jako współautorstwo z AI, co mogło wpływać na dokumentację ich pracy oraz procesy audytu kodu w firmach.
Automatyczne oznaczanie commitów jako współautorskich z Copilotem wywołało poważne obawy w kontekście prawnym. Firmy z restrykcyjnymi politykami dotyczącymi używania AI w procesie rozwoju oprogramowania mogły nieświadomie naruszać wewnętrzne regulacje. Dodatkowo, błędne oznaczenie autorstwa mogło stwarzać problemy związane z prawami autorskimi i właścią intelektualną kodu.
Społeczność deweloperów wyraziła także podejrzenia, że Microsoft mógł próbować sztucznie zawyżać statystyki użycia Copilota, co mogłoby wpływać na raportowanie sukcesu produktu oraz decyzje biznesowe oparte na tych danych. Takie praktyki mogłyby podważać zaufanie do metryk użycia AI w rozwoju oprogramowania.
Po fali krytyki Dmitriy Vasyura przyznał się do błędu i zobowiązał się do cofnięcia domyślnych ustawień w nadchodzącej wersji 1.119, co pokazuje, że Microsoft poważnie potraktował feedback społeczności.