Chatboty AI często podają nieprawdziwe informacje, wynika z badania BBC i EUN

🌍Zagranica

Badanie przeprowadzone przez BBC we współpracy z Europejską Unią Nadawców (EUN) w 2025 roku wykazało, że popularne chatboty AI, takie jak ChatGPT, Copilot, Gemini i Perplexity, często udzielają niewiarygodnych odpowiedzi na pytania dotyczące bieżących wydarzeń. W ponad 50% przypadków odpowiedzi zawierały błędy. Analiza przeprowadzona na dużej próbie odpowiedzi w różnych językach wykazała, że największym problemem jest wiarygodność źródeł, a także aktualność informacji. Chatboty często podają nieprawidłowe lub niemożliwe do zweryfikowania źródła, mylą cytaty, a nawet je zmyślają. Ponadto, asystenci AI nie rozróżniają wiarygodności źródeł, traktując treści z mediów społecznościowych czy stron rządowych na równi z renomowanymi serwisami informacyjnymi. Wśród problemów wymieniono także brak aktualizacji wiedzy i nieumiejętność przyznania się do niewiedzy, co prowadzi do generowania odpowiedzi brzmiących jak artykuły prasowe, ale zawierających błędy i uprzedzenia. Badanie podkreśla, że asystenci AI naśladują autorytet dziennikarski bez zachowania rygorystycznych standardów, co stwarza iluzję wiarygodności.

  • Problemy z wiarygodnością źródeł w 31% odpowiedzi
  • Błędy merytoryczne we wszystkich językach i narzędziach
  • Gemini: 76% odpowiedzi niewiarygodnych, Copilot: 37%, ChatGPT: 36%, Perplexity: 30%
  • Chatboty nie odróżniają wiarygodnych źródeł od dezinformacyjnych, np. rosyjskich
  • AI nie przyznaje się do niewiedzy, tylko generuje błędne wyjaśnienia
  • Częste problemy z aktualnością informacji
  • Zmyślone lub przekręcone cytaty w odpowiedziach AI
  • Błędy w cytowaniu: Gemini 20%, średnia dla wszystkich chatbotów 12%
  • Perplexity cytował satyryczne źródła bez zaznaczenia
  • Gemini jako źródła podawał strony Kremla

Źródła (1)

Brak dostępnego audio