Istraživači su pronašli novu metodu koja se može koristiti da se detektiraju i spriječe „halucinacije” umjetne inteligencije, što je kolokvijalni naziv za netačne odgovore koje daje AI.
Nova studija tima Univerziteta u Oxfordu razvila je statistički model koji može identificirati kada će pitanje postavljeno velikom jezičnom modelu (large language models, LLM), koji se koristi za pokretanje AI chatbota, vjerovatno dati netačan odgovor, javlja dpa.
„Halucinacije” umjetne inteligencije su identificirane kao ključni problem budući da napredna priroda tehnologije i njezine mogućnosti konverzacije znače da je sposobna dati netačne informacije kao činjenice kada odgovara na pitanje.
U vrijeme kada se sve više korisnika okreće alatima umjetne inteligencije kada im treba pomoć u istraživanju ili u dovršavanju zadataka, mnogi stručnjaci pozivaju na akciju kako bi se spriječile „halucinacije” AI-ja, posebno kada je riječ o upitima vezanima uz medicinska ili pravna pitanja.
Istraživači s Oxforda su rekli da je njihovo istraživanje pronašlo način da se utvrdi kada je AI siguran u odgovor, a kada ga izmišlja, prenosi Hina.
„LLM-i su vrlo sposobni reći istu stvar na mnogo različitih načina, što može otežati procjenu kada su sigurni u odgovor, a kada doslovno samo nešto ‘haluciniraju’. S prijašnjim pristupima nije bilo moguće uočiti razliku kada model ne zna što reći i kada ne zna kako to reći. No, naša nova metoda to nadilazi”, objasnio je autor studije dr. Sebastian Farquhar.
Ipak, smatra i da treba još raditi na ispravljanju grešaka koje AI modeli mogu napraviti.
Istraživanje naučnika s Oxforda objavljeno je u časopisu Nature.
(Agencije)