ChatGPT, Copilot, dar şi alte instrumente AI ar genera frecvent informaţii eronate
Un studiu BBC a descoperit că inteligenţa artificială, inclusiv ChatGPT şi Copilot, generează adesea răspunsuri eronate şi distorsionate în legătură cu ştirile şi evenimentele curente.
Un studiu realizat de BBC a arătat că chatbot-urile AI, precum ChatGPT, Copilot, Gemini şi Perplexity, furnizează răspunsuri eronate şi distorsionate atunci când sunt întrebate despre ştiri şi evenimente curente.
Cercetătorii au cerut celor patru instrumente AI să răspundă la 100 de întrebări folosind articole BBC ca sursă, iar răspunsurile au fost ulterior evaluate de jurnalişti specializaţi.
Mai mult de jumătate dintre răspunsurile generate au avut „probleme semnificative”, incluzând afirmaţii eronate despre politicieni precum Rishi Sunak şi Nicola Sturgeon, despre recomandările NHS cu privire la vapat, dar şi date istorice greşite.
De exemplu, Gemini a omis contextul condamnărilor lui Lucy Letby pentru crimă şi tentativă de crimă, iar Copilot a făcut afirmaţii greşite despre diverse victime ale violenţei, cum ar fi Gisèle Pelicot. Mai mult, ChatGPT a menţionat persoane moarte, cum ar fi Ismail Haniyeh, ca şi cum ar fi fost în viaţă.
Directorul executiv al BBC pentru ştiri, Deborah Turness, a avertizat că instrumentele AI riscă să erodeze încrederea publicului în adevăr şi îndeamnă companiile de AI să colaboreze cu organizaţiile media pentru a asigura acurateţea răspunsurilor.
Urmărește Business Magazin

Citeşte pe zf.ro
Citeşte pe Alephnews
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe prosport.ro
Citeşte pe Gandul.ro
Citeşte pe MediaFLUX.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro