Velika međunarodna studija otkriva: Chatbotovi s veštačkom inteligencijom iskrivljuju vesti

Urednik
Napisao
Urednik
NapisaoUrednik
Potrebno 4 minuta za čitanje

23. novembar 2025. — Preliminarni rezultati velike međunarodne studije pokazuju da popularni AI četbotovi, poput ChatGPT‑a, Microsoft Copilota, Google Geminija i Perplexity AI, često iskrivljuju vesti i imaju problema u razlikovanju činjenica od mišljenja.

Šta je otkriveno

  • Studija, koju su sproveli javni emiteri iz 22 zemlje, otkrila je da čak 45% odgovora koje ovi četbotovi daju nije potpuno verodostojno — bez obzira na jezik ili region. verige.net+2atvbl.rs+2
  • Analiza je obuhvatila oko 3.000 odgovora. verige.net
  • Greške su kategorizovane po nekoliko kriterijuma: tačnost, izvori, kontekst, sposobnost uređivanja teksta i razdvajanje činjenica od mišljenja. Preko polovine odgovora imalo je barem jedan značajan problem. verige.net
  • Konkretno, 31% odgovora je imalo velike probleme sa izvorima, dok je 20% sadržalo krupne činjenične greške. verige.net
  • Prema podacima iz studije, čak 53% odgovora na pitanja koja je postavila RTV Dojče Vele imalo je značajne nedostatke, a 29% je bilo pogođeno problemima tačnosti. verige.net

Primeri grešaka

U studiji su zabeleženi konkretni propusti:

  • Chatbot je, u jednom od odgovora, tvrdio da je Olaf Šolc nemački kancelar, iako je već nekoliko sedmica na tom mestu bio Fride­rih Merz. verige.net
  • Drugi primer: u generisanom odgovoru AI je naveden Jens Stoltenberg kao generalni sekretar NATO-a, iako je na toj funkciji bio Mark Rutte. verige.net

Sistematski problem

Prema Žanu Filipu de Tenderu, zameniku generalnog direktora Evropske radiodifuzne unije (EBU), ti propusti nisu izolovani:

„Ti propusti su sistemski, prekogranični i višejezični, i smatramo da to ugrožava poverenje javnosti.“ verige.net
On ističe da, kada ljudi ne znaju čemu da veruju, „na kraju ne veruju ničemu“, što može da potkopa demokratiju.

Preporuke i posledice

  • Istraživači pozivaju na veću odgovornost proizvođača AI: potrebno je da kompanije koje razvijaju asistenate s veštačkom inteligencijom dodatno unaprede izvore, kontekst i transparentnost u generisanju odgovora. verige.net
  • EBU i drugi partneri pokreću kampanju pod nazivom „Facts In: Facts Out“ („Činjenice koje uđu – činjenice koje izađu“). Cilj kampanje je da se osigura integritet informacija prilikom upotrebe AI — da informacije koje uđu u sistem moraju biti istinite, i da sistem treba da ih vrati na takav način. verige.net
  • Takođe, predlaže se jačanje regulative: državne institucije i tehnološke kompanije treba da sarađuju na jačanju zakona o digitalnim uslugama, medijskom pluralizmu i proveri informacija kako bi se sprečilo širenje pogrešnih vesti. verige.net

Širi kontekst

Ova studija nadovezuje se na ranija upozorenja o tzv. „halucinacijama“ AI — fenomenima u kojima modeli generišu izmišljene informacije. Prethodne analize, kao ona BBC‑jeva, takođe su našle značajne probleme u tačnosti odgovora AI sistema. verige.net

- Advertisement -

Stručnjaci upozoravaju da chatbotovi nisu pouzdani izvori za proveru činjenica i da korisnici ne bi smele slepo da veruju svim odgovorima koje dobiju, posebno kada su u pitanju važne teme poput politike, zdravlja ili istorije. DW+1

Zaključak

Ova studija baca ozbiljno svetlo na rizike korišćenja AI asistenata kao izvora informacija. Iako su ovi alati moćni i korisni u mnogim kontekstima, jasno je da još nisu dovoljno pouzdani za ulogu nezavisnih „informativnih gatekeepera“. Potreban je oprez, kritičko razmišljanje i regulacija — kako bi se očuvalo poverenje javnosti u vesti i sprečilo širenje dezinformacija putem najnovije tehnologije.

Podijeli ovaj članak
Nema komentara

Komentariši

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *