Usługi sztucznej inteligencji, które coraz częściej zastępują tradycyjne wyszukiwania w internecie, regularnie zniekształcają informacje prasowe. To wnioski, do jakich doszli dziennikarze z 22 organizacji medialnych w ramach Europejskiej Unii Nadawczej (EBU). Specjaliści przetestowali ponad trzy tysiące odpowiedzi popularnych chatbotów, w tym ChatGPT, Gemini, Copilot i Perplexity, koncentrując się na dokładności faktów, poprawności źródeł oraz umiejętności rozróżniania faktów od opinii.
Analiza ujawniła problemy o różnym stopniu powagi w 81% odpowiedzi. Najbardziej niepokojącym odkryciem było to, że w prawie połowie wszystkich przypadków (45%) systemy popełniły przynajmniej jeden istotny błąd. Ponadto, jedna trzecia odpowiedzi (31%) borykała się z poważnymi problemami z przypisaniem źródeł: źródła były albo brakujące, niepoprawne, albo wprowadzające w błąd.
Jedna na pięć odpowiedzi zawierała nieścisłe lub nieaktualne szczegóły. Na przykład jeden asystent podał niepoprawne informacje na temat niedawnych zmian legislacyjnych, podczas gdy inny przypisał aktualne stanowisko rządowe osobie, która opuściła to stanowisko kilka miesięcy temu. Wśród testowanych modeli, AI Gemini popełniło największą liczbę krytycznych błędów, podczas gdy wydajność innych systemów była mniej więcej dwa razy lepsza.
Asystenci AI szybko stają się podstawowym źródłem informacji. Z danych Instytutu Reutersa wynika, że 7% wszystkich konsumentów wiadomości online regularnie korzysta z nich w celu uzyskania informacji, a odsetek ten wzrasta do 15% wśród odbiorców poniżej 25 roku życia. Badacze ostrzegają, że proliferacja niepoprawnych odpowiedzi podważa podstawowe zaufanie do cyfrowego środowiska informacyjnego.
Podczas gdy badacze podkreślają problemy z wiarygodnością wiadomości generowanych przez AI, te same technologie zaczynają pewnie konkurować na innych rynkach, takich jak edukacja. Na przykład wyszukiwarka Perplexity niedawno wprowadziła nauczyciela języków obcych, co już wpłynęło na ceny akcji wiodących platform edukacyjnych.