Da li vještačka inteligencija ima rasne predrasude?

Vuk Jovanović avatar

Nedavno su se pojavile slike kreirane vještačkom inteligencijom koje su izazvale burne reakcije širom svijeta i pokrenule nove rasprave o AI. Google je preduzeo proaktivan korak kako bi prevazišao probleme vezane za svoj novi model vještačke inteligencije, Gemini, koji je generisao slike ljudi sa netočnim etničkim prikazima.

Tehnološki div privremeno je zaustavio funkciju generisanja slika Gemini AI i planira uskoro objaviti poboljšanu verziju. Ovaj potez dolazi nakon što su korisnici društvenih medija podijelili primjere historijskih ličnosti, uključujući Vikinge i njemačke vojnike iz Drugog svjetskog rata, koje su prikazane sa različitim etničkim i polnim karakteristikama.
Kao odgovor na kritike, Google priznaje potrebu za prilagođavanjem kako bi osigurao tačnost i pravičnost u svojoj AI tehnologiji.
U saopćenju, Google je izrazio svoju posvećenost rješavanju nedavnih problema sa funkcijom generisanja slika Gemini. Iako specifične slike nisu pomenute, primjeri problematičnih rezultata bili su široko dostupni, što je izazvalo rasprave o tačnosti i pristrasnosti AI. Jedan bivši zaposlenik u Googleu primijetio je da je teško natjerati Gemini da prizna postojanje bijelaca!
Googleov tim Gemini priznao je da su neophodna hitna poboljšanja, pošto model vještačke inteligencije nije imao oslonac u historijskim kontekstima. Google ističe svoju posvećenost odražavanju svoje globalne korisničke baze kroz svoje principe vještačke inteligencije. Dok je generisanje slika ljudi privremeno pauzirano, Google će nastaviti da zadovoljava otvorene zahtjeve za slikama.
Međutim, kompanija priznaje da zahtjevi za odgovorom u historijskom nasljeđu zahtijevaju dalje fino podešavanje kako bi se prilagodile nijanse različitih konteksta. Pitanje pristranosti u vještačkoj inteligenciji bilo je tema za zabrinutost, posebno s obzirom na njen uticaj na ljude različite boje kože.
Istraživanje „Washington Posta“ otkrilo je slučajeve generatora slika koji pokazuju pristranost prema ljudima boje kože. Na primjer, generator slika prikazao je primaoce bonova za hranu kao prvenstveno ljude tamnije boje kože, uprkos tome što većina primalaca bonova za hranu u SAD-u su bijelci. Slični pristrani rezultati primijećeni su kada se tražila slika osobe u socijalnim službama.
Stručnjaci sa Instituta za vještačku inteligenciju usmjerenu na ljude na Univerzitetu u Sariju priznali su da ublažavanje pristranosti u dubokom učenju i generativnoj vještačkoj inteligenciji predstavlja izazovan problem. Vjerovatno će doći do grešaka, ali tekuća istraživanja i različiti pristupi, kao što su čuvanje skupova podataka za obuku i uvođenje zaštitnih ograda za obučene modele, imaju za cilj eliminisati pristranost tokom vremena.
Googleova odluka da pauzira generisanje slika ljudi u svom modelu Gemini AI pokazuje njegovu posvećenost rješavanju zabrinutosti izazvane netočnim etničkim prikazima. Priznajući potrebu za poboljšanjima i daljim podešavanjem, Google ima za cilj osigurati da njegova AI tehnologija odražava raznolikost njegove korisničke baze.
Iako pristranost u AI ostaje izazov, očekuje se da će stalni napori i istraživanja dovesti do kontinuiranih poboljšanja u eliminaciji pristranosti i poboljšanju tačnosti i pravednosti sadržaja generiranih vještačkom inteligencijom. Kako će se stvari dalje odvijati, saznaćemo u bliskoj budućnosti, prenosi „Telegraf“.

Vuk Jovanović avatar

Obavezno pročitajte ove članke: