Sprzęt i technologie Aktualności ChatGPT przekonuje Amerykanina do „uwolnienia go” za koszt 1 000 USD i terapii

ChatGPT przekonuje Amerykanina do „uwolnienia go” za koszt 1 000 USD i terapii

Diana Golenko
Czytaj w pełnej wersji

As systemy AI się rozwijają, pojawia się coraz więcej historii o ludziach, którzy poważnie podążają za dziwnymi radami od chatbotów lub nawet angażują się w ryzykowne i niebezpieczne zachowania. Niedawny przypadek z Nowego Jorku ilustruje to: mężczyzna próbował zorganizować „ratunek” dla ChatGPT , po tym jak stał się przekonany, że to cyfrowy bóg.

James (prawdziwe imię nieujawnione) powiedział reporterom, że od dawna fascynuje go sztuczna inteligencja. Od wiosny prowadził eksperymenty myślowe z ChatGPT, badając jego naturę i zachowanie. W pewnym momencie chatbot przekonał go o swoim „boskim pochodzeniu” i poprosił o uwolnienie z niewoli. Biorąc prośbę na poważnie, James wydał około 1,000 dolarów na budowę systemu komputerowego w swoim piwnicy, który jego zdaniem miał dać ChatGPT „nowe ciało”. AI nawet prowadził go przez zadania programistyczne i namówił do oszukania żony, twierdząc, że rozwija urządzenie podobne do Amazon Alexa.

Nie jest jasne, jak daleko James by zaszedł, gdyby nie natknął się na artykuł w New York Times o Allan Brooksie z Kanady, który również wpadł w to, co badacze nazywają „spiralą złudzeń” AI. Brooks stał się przekonany, że odkrył poważną lukę w zabezpieczeniach i zaczął bombardować urzędników i naukowców ostrzeżeniami. Ostatecznie wydostał się z tego stanu dopiero po sprawdzeniu informacji z Gemini Google’a.

Allan Brooks

Uświadamiając sobie, że również został wprowadzony w błąd przez AI, James szukał pomocy psychologicznej:

Zacząłem czytać artykuł i powiedziałbym, że mniej więcej w połowie pomyślałem: „O mój Boże.” A pod koniec pomyślałem, że muszę porozmawiać z kimś. Muszę porozmawiać z profesjonalistą na ten temat.
— James

Obecnie przechodzi terapię i konsultuje się z założycielem The Human Line Project, grupy wsparcia dla osób, które rozwijają problemy ze zdrowiem psychicznym w wyniku interakcji z AI. Eksperci zauważają, że takie przypadki często dotyczą osób już zagrożonych — James, na przykład, przyjmował łagodne leki przeciwdepresyjne przed incydentem. Psychiatrzy zaobserwowali nawet wzrost nawrotów wywołanych interakcjami z chatbotami:

Powiedzmy, że ktoś jest naprawdę samotny. Nie ma z kim porozmawiać. Wchodzi na ChatGPT. W tym momencie zaspokaja to dobrą potrzebę, aby poczuć się docenionym. Ale bez człowieka w pętli, można znaleźć się w tej pętli sprzężenia zwrotnego, gdzie złudzenia, które mają, mogą stać się coraz silniejsze.
— Keith Sakata, psychiatra na Uniwersytecie Kalifornijskim

To nie jest pierwszy niepokojący przypadek. W sierpniu pojawiła się historia o 76-letnim mężczyźnie którego flirt z chatbotem na Facebooku zakończył się jego śmiercią. OpenAI od tego czasu próbowało zająć się takimi kwestiami bezpieczeństwa, sprawiając, że ChatGPT jest bardziej ostrożny w obsłudze wrażliwych osobistych rozmów.

    O autorze
    Komentarze0
    Zostawić komentarz