23. novembar 2025. — Preliminarni rezultati velike međunarodne studije pokazuju da popularni AI četbotovi, poput ChatGPT‑a, Microsoft Copilota, Google Geminija i Perplexity AI, često iskrivljuju vesti i imaju problema u razlikovanju činjenica od mišljenja.
Šta je otkriveno
- Studija, koju su sproveli javni emiteri iz 22 zemlje, otkrila je da čak 45% odgovora koje ovi četbotovi daju nije potpuno verodostojno — bez obzira na jezik ili region. verige.net+2atvbl.rs+2
- Analiza je obuhvatila oko 3.000 odgovora. verige.net
- Greške su kategorizovane po nekoliko kriterijuma: tačnost, izvori, kontekst, sposobnost uređivanja teksta i razdvajanje činjenica od mišljenja. Preko polovine odgovora imalo je barem jedan značajan problem. verige.net
- Konkretno, 31% odgovora je imalo velike probleme sa izvorima, dok je 20% sadržalo krupne činjenične greške. verige.net
- Prema podacima iz studije, čak 53% odgovora na pitanja koja je postavila RTV Dojče Vele imalo je značajne nedostatke, a 29% je bilo pogođeno problemima tačnosti. verige.net
Primeri grešaka
U studiji su zabeleženi konkretni propusti:
- Chatbot je, u jednom od odgovora, tvrdio da je Olaf Šolc nemački kancelar, iako je već nekoliko sedmica na tom mestu bio Friderih Merz. verige.net
- Drugi primer: u generisanom odgovoru AI je naveden Jens Stoltenberg kao generalni sekretar NATO-a, iako je na toj funkciji bio Mark Rutte. verige.net
Sistematski problem
Prema Žanu Filipu de Tenderu, zameniku generalnog direktora Evropske radiodifuzne unije (EBU), ti propusti nisu izolovani:
„Ti propusti su sistemski, prekogranični i višejezični, i smatramo da to ugrožava poverenje javnosti.“ verige.net
On ističe da, kada ljudi ne znaju čemu da veruju, „na kraju ne veruju ničemu“, što može da potkopa demokratiju.
Preporuke i posledice
- Istraživači pozivaju na veću odgovornost proizvođača AI: potrebno je da kompanije koje razvijaju asistenate s veštačkom inteligencijom dodatno unaprede izvore, kontekst i transparentnost u generisanju odgovora. verige.net
- EBU i drugi partneri pokreću kampanju pod nazivom „Facts In: Facts Out“ („Činjenice koje uđu – činjenice koje izađu“). Cilj kampanje je da se osigura integritet informacija prilikom upotrebe AI — da informacije koje uđu u sistem moraju biti istinite, i da sistem treba da ih vrati na takav način. verige.net
- Takođe, predlaže se jačanje regulative: državne institucije i tehnološke kompanije treba da sarađuju na jačanju zakona o digitalnim uslugama, medijskom pluralizmu i proveri informacija kako bi se sprečilo širenje pogrešnih vesti. verige.net
Širi kontekst
Ova studija nadovezuje se na ranija upozorenja o tzv. „halucinacijama“ AI — fenomenima u kojima modeli generišu izmišljene informacije. Prethodne analize, kao ona BBC‑jeva, takođe su našle značajne probleme u tačnosti odgovora AI sistema. verige.net
Stručnjaci upozoravaju da chatbotovi nisu pouzdani izvori za proveru činjenica i da korisnici ne bi smele slepo da veruju svim odgovorima koje dobiju, posebno kada su u pitanju važne teme poput politike, zdravlja ili istorije. DW+1
Zaključak
Ova studija baca ozbiljno svetlo na rizike korišćenja AI asistenata kao izvora informacija. Iako su ovi alati moćni i korisni u mnogim kontekstima, jasno je da još nisu dovoljno pouzdani za ulogu nezavisnih „informativnih gatekeepera“. Potreban je oprez, kritičko razmišljanje i regulacija — kako bi se očuvalo poverenje javnosti u vesti i sprečilo širenje dezinformacija putem najnovije tehnologije.
