Analiza pokazuje da Googleov AI Overview širi dezinformacije…
…u razmjerima koji u povijesti ljudske civilizacije nemaju presedana
Situacija je katastrofalna.
Googleov AI Overview širi dezinformacije u razmjerima koji bi mogli biti gotovo bez presedana u ljudskoj povijesti.
Nedavna analiza koju je provela AI startup tvrtka Oumi na zahtjev New York Timesa pokazala je da su sažeci koje generira umjetna inteligencija, a koji se pojavljuju iznad rezultata Google pretraživanja, točni u 91 posto slučajeva.
Na neki način, to može zvučati kao impresivna brojka. No evo još impresivnije: pet trilijuna. To je otprilike broj pretraga koje Google obradi svake godine, što se prevodi u desetke milijuna netočnih odgovora koje AI Overview daje svakog sata — i stotine tisuća svake minute, prema izračunu analize.

Drugim riječima, Google je stvorio krizu dezinformacija. Istraživanja su pokazala da ljudi imaju tendenciju bez propitivanja vjerovati onome što im AI kaže, pri čemu je jedno izvješće utvrdilo da samo 8 posto korisnika zapravo provjerava AI-jev odgovor. Drugi eksperiment pokazao je da korisnici nisu odustajali od AI-ja čak i kada im je davao pogrešan odgovor u gotovo 80 posto slučajeva. Radi se o zabrinjavajućem trendu koji su istraživači nazvali „kognitivna kapitulacija“.
Veliki jezični modeli koriste autoritativan ton i mogu samouvjereno predstavljati izmišljene informacije kao činjenice kada ne mogu odmah pronaći jasan odgovor. Uz praktičnost koju nudi Googleov AI Overview, nije teško zamisliti da ogroman broj korisnika te sažetke uzima zdravo za gotovo.
Oumi je proveo analizu koristeći test nazvan SimpleQA, široko korišten standard za mjerenje točnosti AI-ja u industriji, koji je osmislio OpenAI. Prvi krug testiranja, proveden u listopadu, koristio je verziju AI Overview pokretanu Googleovim modelom Gemini 2. Naknadno testiranje u veljači ispitivalo je značajku nakon što je prebačena na Gemini 3, njegovu naširoko hvaljenu nadogradnju.
Svaki krug testiranja uključivao je 4.326 Google pretraga. Gemini 3 pokazao se točnijim modelom, dajući činjenično ispravan odgovor u 91 posto slučajeva. Gemini 2 bio je znatno lošiji, s točnošću od samo 85 posto.

S jedne strane, to pokazuje da se modeli poboljšavaju. S druge strane, pokazuje da je Google bio spreman nametnuti svojim korisnicima model koji je bio još skloniji „haluciniranju“, u kontinuiranom eksperimentu koji i dalje dezinformira stotine milijuna ljudi.
Google je analizu nazvao manjkavom. „Ova studija ima ozbiljne nedostatke“, izjavio je glasnogovornik Googlea Ned Adriance za NYT. „Ne odražava ono što ljudi zapravo pretražuju na Googleu.“
Ipak, kako navodi izvješće, Googleova vlastita testiranja daju jednako zabrinjavajuću sliku. U internoj analizi Geminija 3 utvrđeno je da je AI model davao netočne informacije u 28 posto slučajeva. Google ipak tvrdi da je AI Overview točniji jer se oslanja na rezultate Google pretraživanja prije nego što pruži odgovor.
Poboljšanje između Geminija 2 i Geminija 3 možda prikriva ozbiljniji problem. U Oumi analizi, Gemini 2 je u 37 posto slučajeva davao „neutemeljene“ odgovore, što znači da je AI Overview citirao web stranice koje nisu podupirale informacije koje je pružao. Kod Geminija 3 taj je udio porastao na 56 posto. Osim što sugerira da AI „izmišlja činjenice“, neutemeljeni odgovori otežavaju korisnicima provjeru tvrdnji koje AI iznosi.
(Izvor: futurism.com; 8. travnja 2026.)
SVJESNI ZALOGAJ: Kako bi emocionalna svjesnost mogla biti pravi ključ uspjeha dijete
U kulturi zasićenoj pomodnim dijetama i strogim planovima prehrane, nova znanstvena istraž…






