Burne reakcije podstakle nove rasprave: Da li vještačka inteligencija ima rasne predrasude?
03.03.2024. | 18:17Nedavno su se pojavile slike koje je kreirala vještačka inteligencija, a koje su izazvale burne reakcije širom svijeta i podstakle nove rasprave o AI.
Google je preduzeo proaktivan korak kako bi se prevazišli problemi u vezi sa svojim novim modelom vještačke inteligencije, Gemini, koji generiše slike ljudi sa netačnim etničkim prikazima.
Tehnološki gigant je privremeno zaustavio funkciju generisanja slika Gemini AI i planira uskoro da objavi poboljšanu verziju. Ovaj potez dolazi nakon što su korisnici društvenih medija podijelili primjere istorijskih ličnosti, uključujući Vikinge i njemačke vojnike iz Drugog svjetskog rata, koje su prikazane sa različitim etničkim i polovima.
Kao odgovor na kritike, Google priznaje potrebu za prilagođavanjem kako bi se osigurala tačnost i pravičnost u svojoj AI tehnologiji.
U saopštenju, Google je izrazio svoju posvećenost rješavanju nedavnih problema sa Gemini funkcijom za generisanje slika. Iako specifične slike nisu pomenute, primjeri problematičnih rezultata bili su široko dostupni, što je izazvalo rasprave o tačnosti i pristrasnosti AI. Jedan bivši zaposleni u Googleu je čak primjetio da je teško natjerati Gemini da prizna postojanje bijelaca!
Google Gemini tim, priznao je da su neophodna hitna poboljšanja, pošto model vještačke inteligencije nije imao uporište u istorijskim kontekstima. Google naglašava svoju posvećenost odražavanju svoje globalne korisničke baze kroz svoje principe vještačke inteligencije. Dok je generisanje slika ljudi privremeno pauzirano, Google će nastaviti da zadovoljava otvorene zahtjeve za slikama.
Međutim, kompanija priznaje da zahtjevi za odgovor sa istorijskim naslijeđem zahtjevaju dalje fino podešavanje kako bi se prilagodili nijansama različitih konteksta. Pitanje pristrasnosti u vještačkoj inteligenciji bila je tema za zabrinutost, posebno u pogledu njenog uticaja na ljude sa drugačijom bojom kože.
Istraga “Vašington posta” otkrila je slučajeve generatora slika koji pokazuju pristrasnost prema ljudima boje kože. Na primjer, generator slika je prikazivao primaoce bonova za hranu kao prvenstveno ljude tamnije puti, uprkos tome što je većina primalaca bonova za hranu u SAD bijelci. Slični pristrasni rezultati primjećeni su kada se tražila slika osobe u socijalnim službama.
Stručnjaci sa Instituta za vještačku inteligenciju usmjerenu na ljude na Univerzitetu u Sariju, priznaje da je ublažavanje pristrasnosti u dubokom učenju i generativnoj vještačkoj inteligenciji izazovan problem. Vjerovatno će doći do grešaka, ali tekuća istraživanja i različiti pristupi, kao što su čuvanje skupova podataka za obuku i uvođenje zaštitnih ograda za obučene modele, imaju za cilj da eliminišu pristrasnost tokom vremena.
Googleova odluka da pauzira generisanje slika ljudi u svom modelu Gemini AI pokazuje njegovu posvećenost rješavanju zabrinutosti izazvanih netačnim etničkim prikazima. Priznajući potrebu za poboljšanjima i daljim podešavanjem, Google ima za cilj da osigura da njegova AI tehnologija odražava raznolikost njegove korisničke baze.
Iako pristrasnost u AI ostaje izazov, očekuje se da će stalni napori i istraživanja dovesti do kontinuiranih poboljšanja u eliminisanju pristrasnosti i poboljšanju tačnosti i pravednosti sadržaja generisanog vještačke inteligencije. Kako će se stvari dalje odvajati, saznaćemo u bliskoj budućnosti, prenosi “Telegraf”.