spot_img

Siit saate teada, kuidas OpenAI kavatseb ChatGPT-d valeteabest puhastada

OpenAI eesmärk on vähendada ChatGPT-s tehisintellekti hallutsinatsioone, parandades matemaatikaoskusi, kuna protsesside järelevalve näitab lubadust täpsuse parandamisel…

31.mail teatas OpenAI oma jõupingutustest parandada ChatGPT matemaatilisi probleemide lahendamise võimeid, eesmärgiga vähendada tehisintellekti (AI) hallutsinatsioonide juhtumeid. OpenAI rõhutas hallutsinatsioonide leevendamist kui olulist sammu ühtse AI arendamise suunas.

Märtsis viis ChatGPT uusima versiooni – ChatGPT-4 – kasutuselevõtt tehisintellekti veelgi enam peavoolu. Generatiivsed AI-vestlusbotid on aga pikka aega maadelnud faktitäpsusega, tekitades aeg-ajalt valeteavet, mida tavaliselt nimetatakse “hallutsinatsioonideks”. Nende tehisintellekti hallutsinatsioonide vähendamise püüdlustest teatati OpenAI veebisaidil avaldatud postituse kaudu.

Tehisintellekti hallutsinatsioonid viitavad juhtudele, kus tehisintellektisüsteemid genereerivad faktiliselt valesid väljundeid, mis on eksitavad või mida reaalse maailma andmed ei toeta. Need hallutsinatsioonid võivad avalduda erinevates vormides, näiteks valeteabe genereerimine, olematute sündmuste või inimeste väljamõtlemine või teatud teemade kohta ebatäpsete üksikasjade esitamine.

OpenAI viis läbi uuringud, et uurida kahte tüüpi tagasiside tõhusust: “tulemuse järelevalve” ja “protsessi järelevalve”. Tulemuste järelevalve hõlmab tagasisidet lõpptulemuse alusel, protsessi järelevalve annab sisendit iga mõtteahela etapi kohta. OpenAI hindas neid mudeleid matemaatikaülesannete abil, genereerides mitu lahendust ja valides iga tagasiside mudeli järgi kõrgeima asetusega lahenduse.

Pärast põhjalikku analüüsi leidis uurimisrühm, et protsessi järelevalve andis suurepärase tulemuse, kuna see julgustas mudelit järgima inimeste poolt heaks kiidetud protsessi. Seevastu tulemuste järelevalve osutus järjepidevaks kontrollimiseks keerulisemaks.

OpenAI tunnistas, et protsesside järelevalve tagajärjed ulatuvad matemaatikast kaugemale ning selle mõju erinevates valdkondades mõistmiseks on vaja täiendavat uurimist. See väljendas võimalust, et kui vaadeldud tulemused kehtivad laiemas kontekstis, võib protsessi järelevalve pakkuda tulemuslikkuse ja vastavusse viimise soodsat kombinatsiooni võrreldes tulemuste järelevalvega. Uurimistöö hõlbustamiseks avaldas ettevõte avalikult protsessi järelevalve täieliku andmekogumi, kutsudes üles seda valdkonda uurima ja uurima.

Kuigi OpenAI ei esitanud selgesõnalisi juhtumeid, mis ajendaksid hallutsinatsioone uurima, näitasid kaks hiljutist juhtumit probleemi tegelikus elus.

Hiljutises intsidendis tunnistas advokaat Steven Schwartz kohtuasjas Mata vs. Avianca Airlines, et tugineb vestlusrobotile kui uurimisallikale. ChatGPT esitatud teave osutus aga täielikult väljamõelduks, mis tõstab praeguse probleemi esile.

OpenAI ChatGPT ei ole ainus näide tehisintellektisüsteemidest, mis puutuvad kokku hallutsinatsioonidega. Märtsis oma vestlusrobotite tehnoloogia tutvustamise ajal uuris Microsofti Bing AI vestlusbot tuluaruandeid ja genereeris ebatäpseid andmeid selliste ettevõtete kohta nagu Gap ja Lululemon.

Sarnased

spot_img
Leia Meid Youtubes!spot_img

Viimased

- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -