Kalifornijska kompanija OpenAI, poznata po razvoju veštačke inteligencije, najavila je značajne promene u obuci svojih modela, uključujući i popularni alat Čet Dži-Pi-Ti (ChatGPT). Ove promene imaju za cilj da unaprede sposobnost modela da se nosi sa izazovnim i kontroverznim temama, pružajući korisnicima širi spektar informacija i perspektiva.
Prema izveštaju Teh kranč, OpenAI će omogućiti svojim modelima da prihvate „intelektualnu slobodu“. To znači da će Čet Dži-Pi-Ti moći da odgovara na veći broj pitanja, uključujući i ona koja se tiču osetljivih tema. Ova odluka dolazi u trenutku kada je veštačka inteligencija postala sve prisutnija u svakodnevnom životu, a korisnici često traže informacije koje mogu biti kontroverzne ili izazovne.
Jedna od ključnih tačaka u novim smernicama OpenAI jeste princip „Ne laži“. Ovaj princip naglašava važnost tačnosti informacija koje modeli pružaju, bilo kroz izbegavanje davanja neistinitih izjava, bilo kroz osiguravanje da se ne izostavi važan kontekst. Ova promena odražava rastuću zabrinutost oko dezinformacija i lažnih vesti u digitalnom svetu.
OpenAI je svestan da je izazov u obuci veštačke inteligencije pronaći ravnotežu između slobode izražavanja i odgovornosti za pružene informacije. U ovom kontekstu, kompanija se obavezuje da će njeni modeli biti obučeni da pruže objektivne i raznovrsne informacije, bez obzira na to koliko je tema osetljiva. Ovo je posebno važno s obzirom na to da se veštačka inteligencija sve više koristi u obrazovanju, novinarstvu i drugim oblastima gde je tačnost informacija od ključne važnosti.
U praksi, ovo znači da će korisnici moći da postavljaju pitanja o raznim kontroverznim temama, kao što su politika, religija ili društvena pitanja, a Čet Dži-Pi-Ti će im pružiti odgovore koji uključuju različite perspektive i stavove. Ova funkcionalnost može pomoći korisnicima da bolje razumeju kompleksne teme i formiraju sopstvene stavove na osnovu različitih informacija.
Pored toga, novo ažuriranje će obuhvatiti i unapređenja u razumevanju konteksta. Modeli će biti obučeni da bolje prepoznaju nijanse u jeziku i da pruže odgovore koji su relevantniji za postavljena pitanja. Ova sposobnost će doprineti kvalitetu interakcije između korisnika i veštačke inteligencije, čineći je korisnijom i informativnijom.
OpenAI je takođe naglasio da će se nastaviti sa radom na smanjenju pristrasnosti u svojim modelima. Pristrasnost u veštačkoj inteligenciji može dovesti do netačnih ili nepoželjnih rezultata, što je posebno problematično kada se radi o osetljivim temama. Kompanija će uložiti napore da identifikuje i eliminiše potencijalne izvore pristrasnosti tokom obuke svojih modela.
Ove promene dolaze u vreme kada se sve više postavlja pitanje etike veštačke inteligencije. Kako se AI alati koriste u raznim industrijama, od marketinga do zdravstva, važno je osigurati da oni funkcionišu u skladu sa etičkim standardima i da ne doprinose širenju dezinformacija ili stereotipa.
U zaključku, OpenAI se obavezao da će unaprediti svoje modele veštačke inteligencije, omogućavajući im da pružaju tačne i raznovrsne informacije o kontroverznim temama. Ove promene su deo šireg trenda usmerenog ka odgovornijem i etičkijem korišćenju veštačke inteligencije, što može imati značajan uticaj na način na koji ljudi pristupaju informacijama i formiraju svoja mišljenja. Sa novim smernicama, OpenAI teži ka stvaranju alata koji ne samo da informišu, već i podstiču kritičko razmišljanje i dijalog među korisnicima.