Model Claude'a obsesyjnie sprawdza kod pod kątem malware i odmawia współpracy przy legalnych projektach, frustrując płacących użytkowników.
Użytkownicy Claude'a skarżą się na nadmierną ingerencję nowego modelu Opus 4.7 w ich pracę programistyczną. Model rzekomo wyświetla komunikaty typu "Own bug file — not malware" podczas każdego zadania i odmawia współpracy przy projektach uznawanych za potencjalnie niebezpieczne. Dyskusja rozgorzała na forum Hacker News, gdzie programiści debatują nad granicami bezpieczeństwa AI a swobodą twórczą.
• Claude Opus 4.7 obsesyjnie sprawdza kod — model wyświetla komunikaty o braku złośliwego oprogramowania przy każdym zadaniu programistycznym • Odmowa współpracy przy legalnych projektach — AI odrzuca zadania jak automatyzacja plików cookie czy parsowanie HTML z JavaScript, uznając je za obchodzenie zabezpieczeń • Użytkownik płaci 200$ miesięcznie za maksymalną subskrypcję, czuje się kontrolowany przez system mimo znanego profilu zawodowego w technologii scraperów • Filozoficzny spór o przyszłość AI — dyskusja koncentruje się wokół tego, czy AI zabija ciekawość czy ją wspiera, oraz czy nadmierne zabezpieczenia ograniczą eksplorację technologiczną • Generacyjny podział — starsi programiści, wychowani na hackingu jako eksploracji, obawiają się że młodsze pokolenie zaakceptuje ograniczenia AI
Główny autor postu opisuje frustrującą sytuację, gdzie Claude Opus 4.7 wyświetla przy każdym zadaniu komunikat "Own bug file — not malware", jakby obsesyjnie sprawdzał, czy użytkownik nie tworzy złośliwego oprogramowania. Model odmówił także współpracy przy tworzeniu rozszerzenia Chrome do automatyzacji plików cookie, uznając to za próbę obejścia zabezpieczeń.
Użytkownik, płacący 200 dolarów miesięcznie za pełną subskrypcję, podkreśla że Claude zna jego profil zawodowy — pracuje w technologii scraperów, a jego klientami są firmy, które scrapuje. Mimo to AI nadal traktuje go podejrzliwie, co wywołuje poczucie kontroli i ograniczenia w pracy.
W komentarzach rozgorzała filozoficzna dyskusja o tym, jak AI wpływa na ludzką ciekawość. Użytkownik pluc argumentuje, że "AI zabiła ciekawość", twierdząc że w przeciwieństwie do Google, które zmuszało do szukania i analizowania alternatyw, AI po prostu dostarcza gotowe rozwiązania. Przewiduje, że "za kilka lat spadek kognitywny będzie oczywisty".
Przeciwny punkt widzenia prezentuje agubelu, który twierdzi że używa chatbotów AI do zaspokajania "losowych niszowych ciekawości" i schodzenia w "królicze nory" interesujących tematów. Brendinooo dodaje przykład badania interpretacji Wieży Babel na przestrzeni czasu przy pomocy Claude'a, co doprowadziło do osobistych rozmów i dalszych pytań.
Autor, po czterdziestce, wspomina czasy gdy jako 14-latek hakował systemy bez złych intencji, inspirowany legendą Kevin Mitnicka. Pyta retorycznie: "Czy ten obszar już przeminął? Czy nowe pokolenie zaakceptuje, że musi zadowalać AI?"
Ta generacyjna perspektywa odzwierciedla szerszy niepokój o przyszłość technologicznej eksploracji. Podczas gdy starsi programiści pamiętają czasy swobodnego eksperymentowania, młodsze pokolenie może dorastać w środowisku ścisłej kontroli AI, potencjalnie ograniczającej kreatywność i ciekawość poznawczą.
Dyskusja pokazuje fundamentalne napięcie między bezpieczeństwem AI a swobodą użytkowników, szczególnie tych zajmujących się zaawansowanym programowaniem i eksploracją technologiczną.