Umjetna inteligencija u medicini mogla bi biti ‘opasna’ za siromašnije nacije, upozorava SZO

Brzi rast generativne AI u zdravstvenoj zaštiti podstakao je agenciju da postavi smjernice za etičku upotrebu.

Uvođenje zdravstvenih tehnologija zasnovanih na vještačkoj inteligenciji (AI) moglo bi biti “opasno” za ljude u zemljama s nižim prihodima, upozorila je Svjetska zdravstvena organizacija (SZO).

Organizacija, koja je danas izdala izvještaj koji opisuje nove smjernice za velike multimodalne modele (LMM), kaže da je od suštinskog značaja da korištenje tehnologije u razvoju ne oblikuju samo tehnološke kompanije i one u bogatim zemljama. Ako modeli nisu obučeni na osnovu podataka ljudi na mjestima s nedostatkom resursa, algoritmi bi mogli loše opsluživati te populacije, kaže agencija.

“Posljednja stvar koju želimo vidjeti kao dio ovog iskoraka s tehnologijom je širenje ili pojačavanje nejednakosti i predrasuda u društvenom tkivu zemalja širom svijeta”, Rekao je Alain Labrique, direktor SZO za digitalno zdravlje i inovacije , rekao je na brifingu za medije.

Zatečeni događajima

WHO je izdao svoje prve smjernice o umjetnoj inteligenciji u zdravstvenoj skrbi 2021. No organizacija je bila ponukana da ih ažurira manje od tri godine kasnije porastom snage i dostupnosti LMM-ova. Nazivaju se i generativni AI, ovi modeli, uključujući onaj koji pokreće popularni chatbot ChatGPT, obrađuju i proizvode tekst, videozapise i slike.

LMM su „usvojeni brže od bilo koje potrošačke aplikacije u istoriji“, kaže SZO. Zdravstvena zaštita je popularna meta. Modeli mogu izraditi kliničke bilješke, ispuniti formulare i pomoći liječnicima da dijagnosticiraju i liječe pacijente. Nekoliko kompanija i pružalaca zdravstvenih usluga razvija specifične alate AI.

SZO kaže da njene smjernice, izdate kao savjet državama članicama, imaju za cilj osigurati da eksplozivni rast LMM promovira i štiti javno zdravlje, umjesto da ga podriva. U najgorem slučaju, organizacija upozorava na globalnu „trku do dna“, u kojoj kompanije nastoje biti prve koje će objaviti aplikacije, čak i ako one ne rade i nisu bezbjedne. To čak podiže izglede za „urušavanje modela“, ciklus dezinformacija u kojem LMM obučeni na netačnim ili lažnim informacijama zagađuju javne izvore informacija, kao što je Internet.

„Generativne AI tehnologije imaju potencijal da poboljšaju zdravstvenu zaštitu, ali samo ako oni koji razvijaju, regulišu i koriste ove tehnologije identifikuju i u potpunosti uzmu u obzir povezane rizike“, rekao je Jeremy Farrar, glavni naučnik SZO.

Upravljanje ovim moćnim alatima ne smije biti prepušteno samo tehnološkim kompanijama, upozorava agencija. „Vlade svih zemalja moraju kooperativno voditi napore za efikasno regulisanje razvoja i upotrebe AI tehnologija“, rekao je Labrique. Grupe civilnog društva i ljudi koji primaju zdravstvenu zaštitu moraju doprinijeti svim fazama razvoja i implementacije LMM, uključujući njihov nadzor i regulaciju.

Istjerivanje akademske zajednice

U svom izvještaju, SZO upozorava na potencijal za “industrijsko hvatanje” razvoja LMM, s obzirom na visoke troškove obuke, implementacije i održavanja ovih programa. Već postoje uvjerljivi dokazi da najveće kompanije istiskuju i univerzitete i vlade u istraživanju umjetne inteligencije, navodi se u izvještaju, s “neviđenim” brojem doktorskih studenata i fakulteta koji napuštaju akademsku zajednicu radi industrije.

Smjernice preporučuju da nezavisne treće strane izvrše i objave obavezne revizije LMM-ova koji su raspoređeni u velikom obimu nakon objavljivanja. Takve revizije trebale bi procijeniti koliko dobro alat štiti i podatke i ljudska prava, dodaje SZO.

Takođe sugeriše da programeri softvera i programeri koji rade na LMM-ima koji bi se mogli koristiti u zdravstvenoj zaštiti ili naučnim istraživanjima treba da prođu istu vrstu etičke obuke kao i medicinari. I kaže se da bi vlade mogle zahtijevati od programera da registruju rane algoritme, kako bi potaknuli objavljivanje negativnih rezultata i spriječili pristrasnost objavljivanja i hype.

Izvor: Nature;
Prevod: AbrašMEDIA