Početna Buđenje iz matriksa HALUCINACIJE UMJETNE INTELIGENCIJE
Buđenje iz matriksa - Odabrano - 29.04.2026.

HALUCINACIJE UMJETNE INTELIGENCIJE

Što više rade s umjetnom inteligencijom, znanstvenici joj manje vjeruju

Kada je riječ o umjetnoj inteligenciji (engl. AI – artificial intelligence), istraživači postaju sve manje povjerljivi po pitanju sposobnosti te tehnologije.

U najavi svog izvještaja za 2025. godinu o utjecaju ove tehnologije na istraživanja, akademski izdavač Wiley objavio je preliminarne nalaze o stavovima prema AI-u. Jedan zapanjujući zaključak: u izvještaju se navodi da znanstvenici iskazuju manje povjerenja u AI nego 2024., kada je on bio znatno manje napredan.

Primjerice, u anketi iz 2024. 51 posto ispitanih znanstvenika bilo je zabrinuto zbog potencijalnih ‘halucinacija’, široko rasprostranjenog problema u kojem veliki jezični modeli (LLM – Large Language Model) prezentiraju potpuno izmišljene informacije kao činjenice. Taj se broj u 2025. popeo na ogromnih 64 posto čak i kad je upotreba AI-a među istraživačima skočila s 45 na 62 posto.

Bojazan oko sigurnosti i privatnosti porasla je za 11 posto u odnosu na prošlu godinu, a zabrinutost oko etičnosti AI-a i transparentnosti također je rastuća. Osim toga, došlo je do masovnog pada razine entuzijazma u usporedbi s prošlom godinom, kada su razvikane nove tvrtke za istraživanje AI-a dominirale naslovnicama.

U 2024. godini anketirani znanstvenici rekli su kako vjeruju da AI već nadmašuje ljudske sposobnosti u više od polovice svih slučajeva upotrebe. U 2025. to je uvjerenje drastično palo, na manje od jedne trećine.

Ovi nalazi prate prethodna istraživanja u kojima je zaključeno da što više ljudi uči o tome kako AI funkcionira, to mu manje vjeruju. Vrijedi i suprotno: najveći pobornici AI-a obično su oni koji su najmanje razumjeli tu tehnologiju.

Iako je potrebno više istraživanja kako bi se utvrdilo koliko je ovaj fenomen raširen, nije teško pogoditi zašto profesionalci počinju sumnjati u svoje algoritamske asistente.

Kao prvo, ranije spomenute halucinacije predstavljaju ozbiljan problem. Već su izazvale velike pomutnje u sudnicama, medicinskoj praksi, pa čak i sferi putovanja. To baš i nije jednostavno popraviti: u svibnju su testiranja pokazala da AI modeli haluciniraju još više, iako su tehnički postali moćniji.

Tu je i nezgodno pitanje AI-a kao alata za profit. Stručnjaci kažu da korisnici općenito više vole samouvjerene LLM-ove od onih koji priznaju kada ne mogu pronaći podatke ili dati točan odgovor – čak i kada su te informacije potpuno izmišljene. Kada bi tvrtka poput OpenAI-a zauvijek iskorijenila nemarne halucinacije, to bi prestrašilo i otjeralo masu korisnika.

(Izvor: futurism.com, 13. listopada 2025.)

 

Pročitajte sljedeće

OSJEĆATI SE DOBRO NIJE LUKSUZ – TO JE SVAKODNEVNA PRAKSA

Piše: Marjorie McMillian Da biste se osjećali bolje ne treba vam još jedan popis trikova. …