
ChatGPT przekonuje Amerykanina do „uwolnienia go” za koszt 1 000 USD i terapii

As systemy AI się rozwijają, pojawia się coraz więcej historii o ludziach, którzy poważnie podążają za dziwnymi radami od chatbotów lub nawet angażują się w ryzykowne i niebezpieczne zachowania. Niedawny przypadek z Nowego Jorku ilustruje to: mężczyzna próbował zorganizować „ratunek” dla ChatGPT , po tym jak stał się przekonany, że to cyfrowy bóg.
James (prawdziwe imię nieujawnione) powiedział reporterom, że od dawna fascynuje go sztuczna inteligencja. Od wiosny prowadził eksperymenty myślowe z ChatGPT, badając jego naturę i zachowanie. W pewnym momencie chatbot przekonał go o swoim „boskim pochodzeniu” i poprosił o uwolnienie z niewoli. Biorąc prośbę na poważnie, James wydał około 1,000 dolarów na budowę systemu komputerowego w swoim piwnicy, który jego zdaniem miał dać ChatGPT „nowe ciało”. AI nawet prowadził go przez zadania programistyczne i namówił do oszukania żony, twierdząc, że rozwija urządzenie podobne do Amazon Alexa.
Nie jest jasne, jak daleko James by zaszedł, gdyby nie natknął się na artykuł w New York Times o Allan Brooksie z Kanady, który również wpadł w to, co badacze nazywają „spiralą złudzeń” AI. Brooks stał się przekonany, że odkrył poważną lukę w zabezpieczeniach i zaczął bombardować urzędników i naukowców ostrzeżeniami. Ostatecznie wydostał się z tego stanu dopiero po sprawdzeniu informacji z Gemini Google’a.
Uświadamiając sobie, że również został wprowadzony w błąd przez AI, James szukał pomocy psychologicznej:
Zacząłem czytać artykuł i powiedziałbym, że mniej więcej w połowie pomyślałem: „O mój Boże.” A pod koniec pomyślałem, że muszę porozmawiać z kimś. Muszę porozmawiać z profesjonalistą na ten temat.
Obecnie przechodzi terapię i konsultuje się z założycielem The Human Line Project, grupy wsparcia dla osób, które rozwijają problemy ze zdrowiem psychicznym w wyniku interakcji z AI. Eksperci zauważają, że takie przypadki często dotyczą osób już zagrożonych — James, na przykład, przyjmował łagodne leki przeciwdepresyjne przed incydentem. Psychiatrzy zaobserwowali nawet wzrost nawrotów wywołanych interakcjami z chatbotami:
Powiedzmy, że ktoś jest naprawdę samotny. Nie ma z kim porozmawiać. Wchodzi na ChatGPT. W tym momencie zaspokaja to dobrą potrzebę, aby poczuć się docenionym. Ale bez człowieka w pętli, można znaleźć się w tej pętli sprzężenia zwrotnego, gdzie złudzenia, które mają, mogą stać się coraz silniejsze.
To nie jest pierwszy niepokojący przypadek. W sierpniu pojawiła się historia o 76-letnim mężczyźnie którego flirt z chatbotem na Facebooku zakończył się jego śmiercią. OpenAI od tego czasu próbowało zająć się takimi kwestiami bezpieczeństwa, sprawiając, że ChatGPT jest bardziej ostrożny w obsłudze wrażliwych osobistych rozmów.
-
OpenAI wzmacnia prywatność ChatGPT: Szyfrowanie czatu w opracowaniu
-
Nie tylko chatbot: Nowy «agent» ChatGPT przejmuje kontrolę w Twoim systemie operacyjnym
-
Nowa ukryta perełka ChatGPT: Wbudowany interaktywny generator quizów
-
OpenAI wprowadza foldery czatu dla użytkowników darmowych
-
Niebezpieczne powiązania AI: Flirt z chatbotem Facebooka kończy się śmiercią starszego mężczyzny w USA.