Kako umjetna inteligencija potiče ZNANSTVENE PRIJEVARE
Piše: Autumn Spredemann
Akademici i stručnjaci za kibernetičku sigurnost upozoravaju da se val lažnih znanstvenih istraživanja stvorenih umjetnom inteligencijom (UI) potiho provlači pored provjera za plagijate i ulazi u znanstvene arhive. Ovaj fenomen dovodi u opasnost buduću vjerodostojnost znanstvenih istraživanja pojačavajući pritom dugotrajnu prijevaru ‘tvornice papira’ (paper mill), kažu stručnjaci.
Akademske tvornice papira – lažne organizacije koje profitiraju od krivotvorenih studija i autorstva – godinama muče znanstvenike, a UI sada djeluje kao multiplikator sile.
Neki stručnjaci rekli su da su za rješavanje problema potrebne strukturne promjene, a ne samo bolji alati za provjeru plagijata.

‘OTPADNA’ ZNANOST
Opseg problema je zapanjujuć; više od 10 tisuća istraživačkih radova povučeno je globalno u 2023. godini, prema Nature Portfoliju. Tekstovi dobiveni korištenjem velikih jezičnih modela (LLM) šire se u više akademskih disciplina i platformi, uključujući Google Scholar, otkrilo je Sveučilište Boras. U nedavno objavljenoj analizi Nature Portfolija stoji da LLM alati poput ChatGPT-a, Geminija i Claudea mogu generirati uvjerljiva istraživanja koja prolaze standardne provjere plagijata.
U svibnju je Diomidis Spinellis, akademik računalnih znanosti i profesor na Atenskom sveučilištu za ekonomiju i poslovanje, objavio neovisnu studiju sadržaja generiranog umjetnom inteligencijom, pronađenu u časopisu Global International Journal of Innovative Research, nakon što je otkrio da je njegovo ime korišteno u lažnom pripisivanju.
Spinellis je primijetio da je samo pet od 53 pregledana članka, s najmanjim brojem citata u tekstu, pokazalo znakove da su ih napisali ljudi. Rezultati detekcije umjetnom inteligencijom potvrdili su „visoke vjerojatnosti“ sadržaja stvorenog umjetnom inteligencijom u preostalih 48.
U analizi ‘otpadne’ znanosti generirane umjetnom inteligencijom, objavljenoj na Google Scholaru, švedski sveučilišni istraživači identificirali su više od 100 članaka za koje se sumnja da su generirani umjetnom inteligencijom.
Google nije odgovorio na zahtjev lista The Epoch Times za komentar.
Autori švedske studije rekli su da je, ono što posebno zabrinjava u vezi s istraživanjima stvorenim umjetnom inteligencijom – uz pomoć ljudi ili na neki drugi način – to što se dezinformacije mogu koristiti za „stratešku manipulaciju“.
„Rizik od onoga što nazivamo ‘hakiranjem dokaza’ značajno se povećava kada se istraživanje generirano umjetnom inteligencijom širi u tražilicama“, rekao je autor studije Bjorn Ekstrom. „To može imati opipljive posljedice jer netočni rezultati mogu prodrijeti dublje u društvo, a moguće i u sve više domena.“
Švedski sveučilišni tim izjavio je da čak i ako se članci povuku, radovi o umjetnoj inteligenciji stvaraju teret za već ionako teško opterećen sustav recenziranja.

DALEKOSEŽNE POSLJEDICE
„Najštetniji utjecaj poplave znanstvenog otpada generiranog umjetnom inteligencijom imat će na istraživačka područja koja se tiču ljudi“, rekla je za The Epoch Times Nishanshi Shukla, etičarka umjetne inteligencije na Sveučilištu Western Governors.
Shukla je rekla da su ljudski nadzor i analiza ključni kada se umjetna inteligencija koristi za analizu podataka.
„Kada cjelokupno istraživanje generira umjetna inteligencija, postoji rizik homogenizacije znanja“, rekla je.
„U bliskoj budućnosti to znači da su sva istraživanja koja slijede slične putove i metode korumpirana sličnim pretpostavkama i predrasudama te su namijenjena samo određenim skupinama ljudi. Dugoročno to znači da nema novog znanja, a proizvodnja znanja je ciklički proces lišen ljudskog kritičkog razmišljanja.“
Michal Prywata, suosnivač tvrtke za istraživanje umjetne inteligencije Vertus, slaže se da je trend lažne znanosti o umjetnoj inteligenciji problematičan – i da su učinci već vidljivi.
„Ono što u biti sada vidimo ekvivalent je napada uskraćivanja usluge. Pravi istraživači se ne može čuti od buke, recenzenti su preopterećeni, a citati se zagađuju izmišljenim referencama. To otežava prepoznavanje i validaciju pravog znanstvenog napretka“, rekao je Prywata za The Epoch Times.
U svom radu s UI sustavima, Prywata je izbliza vidio nusprodukte masovno implementiranih LLM-ova, za koje vjeruje da su srž problema.
„Ovo je predvidljiva posljedica tretiranja umjetne inteligencije kao alata za produktivnost, a ne razumijevanja što je inteligencija zapravo“, rekao je. „LLM-ovi, kakvi su sada, nisu izgrađeni poput umova. To su sofisticirani sustavi za usklađivanje uzoraka koji su nevjerojatno dobri u stvaranju uvjerljivog teksta, a to je upravo ono što lažna istraživanja trebaju da bi izgledala vjerodostojno.“

KIBERNETIČKI NAPADI
Glavni direktor za informacijsku sigurnost u Optivu, Nathan Wenzler, vjeruje da je budućnost javnog povjerenja ugrožena.
„Kako se sve više netočnog ili potpuno lažnog sadržaja generiranog umjetnom inteligencijom dodaje u ugledne časopise i ključne znanstvene recenzije, kratkoročni i dugoročni učinci su isti: urušavanje povjerenja“, rekao je Wenzler za The Epoch Times.
Sa sigurnosnog stajališta, Wenzler je rekao da se sveučilišta sada suočavaju s drugačijom vrstom prijetnje kada je u pitanju krađa intelektualnog vlasništva.
„Vidjeli smo kibernetičke napade određenih država koji su posebno usmjereni na krađu istraživanja sa sveučilišta i istraživačkih instituta, a onda sveučilišta iste te države objavljuju nalaze kao da su same provele istraživanje“, rekao je.
U konačnici, Wenzler je rekao da će to imati ogroman financijski utjecaj na organizacije koje računaju na potpore za unapređenje legitimnih znanstvenih studija, tehnologije, zdravstvene skrbi i još mnogo toga.
Wenzler je opisao mogući primjer iz stvarnog svijeta: „Umjetna inteligencija bi se lako mogla koristiti za pojačavanje ovih kibernetičkih napada, a sadržaj ukradenog istraživanja bi se prepravio tek toliko da se stvori iluzija da se radi o jedinstvenom i zasebnom sadržaju. Također, postoji mogućnost stvaranja lažnog narativa da je postojeće istraživanje manjkavo stvaranjem lažnih kontraargumenata kako bi se potkopao kredibilitet izvornih podataka i nalaza.“
„Potencijalni financijski utjecaj je ogroman, ali način na koji bi to moglo utjecati na napredak koji koristi ljudima diljem svijeta je nemjerljiv“, rekao je.

LJUDI POČINJU PREISPITIVATI ZNANSTVENIKE
Prywata je istaknuo da velik dio javnosti već dovodi u pitanje akademsku zajednicu.
„Bojim se da će zbog ovoga ljudi sve češće preispitivati znanstvene institucije“, rekao je. „Ljudi sada imaju dokaze da se sustavom može manipulirati u velikim razmjerima. Rekao bih da je to opasno za društvo.“
Niz lažnih istraživačkih radova generiranih umjetnom inteligencijom objavljuje se u vrijeme kada je povjerenje javnosti u znanost i dalje niže nego prije pandemije COVID-19. Analiza Pew Research Centra iz 2024. godine otkrila je da samo 26 posto ispitanika ima veliko povjerenje u znanstvenike, smatrajući da djeluju u najboljem interesu javnosti. Pedeset i jedan posto izjavilo je da ima prilično povjerenje; nasuprot tome, broj ispitanika koji su izrazili istu razinu povjerenja u znanost 2020. godine bio je 87 posto.
Istovremeno, Amerikanci su postali nepovjerljivi prema napretku umjetne inteligencije. Nedavna studija Brookings Institutiona otkrila je da su sudionici izloženi informacijama o napretku umjetne inteligencije postali nepovjerljivi prema različitim mjerilima, uključujući lingvistiku, medicinu i datiranje, u usporedbi s napretkom koji nije bio povezan s umjetnom inteligencijom u istim područjima.
NAPOMENA: članak u cijelosti pročitajte OVDJE.
(Izvor: theepochtimes.com; 9. studenoga 2025.)
Ples i kreativno izražavanje pozitivno utječu na starenje mozga
Generacijama je narativ starenja bio narativ neizbježnog propadanja, laganog pogoršanja pa…






