Musk, Wozniak kutsuvad GPT-4-st võimsama tehisintellekti väljatöötamisel pausi tegema

Elon Musk, Steve Wozniak, tehisintellekti pioneer Yoshua Bengio ja teised on allkirjastanud avaliku kirja, milles kutsutakse üles tegema kuuekuulist pausi uute tehisintellekti tööriistade väljatöötamisel, mis on võimsamad kui GPT-4 –tehnoloogia, mille Microsofti toetatud startup OpenAI avaldas selle kuu alguses. Wall Street Journal teatab.

Kaasaegsed AI-süsteemid muutuvad nüüd üldiste ülesannete täitmisel inimestele konkurentsivõimeliseks ja me peame endalt küsima: kas peaksime laskma masinatel oma teabekanalid propaganda ja ebatõega üle ujutada? Kas peaksime automatiseerima kõik tööd, sealhulgas täitvad tööd? Kas me peaksime arendama mitteinimlikke mõistusi, mis võivad lõpuks arvulisemalt ületada, kavaldada, vananeda ja meid asendada? Kas peaksime riskima kontrolli kaotamisega oma tsivilisatsiooni üle? Selliseid otsuseid ei tohi delegeerida mittevalitud tehnoloogiajuhtidele. Võimsaid tehisintellektisüsteeme tuleks arendada alles siis, kui oleme kindlad, et nende mõju on positiivne ja nende riskid on juhitavad. – futureoflife.org

Oleme jõudnud punkti, kus need süsteemid on piisavalt nutikad, et neid saaks kasutada ühiskonnale ohtlikel viisidel,” ütles Montreali ülikooli Montreali õppealgoritmide instituudi direktor Bengio, lisades: “Ja me ei tea seda veel mõista.”

Nende mured väljendati kirjas pealkirjaga “Pause Giant AI Experiments: An Open Letter”, mille eesotsas oli Future of Life Institute – mittetulundusühing, mida nõustas Musk.

Kirjas ei nõuta kogu tehisintellekti arendamise peatamist, kuid kutsutakse ettevõtteid üles ajutiselt peatama treeningsüsteemid, mis on võimsamad kui GPT-4 – tehnoloogia , mille Microsoft Corp.-i toetatud startup OpenAI sel kuul välja andis. See hõlmab OpenAI järgmise põlvkonna tehnoloogiat GPT-5. 

OpenAI ametnikud ütlevad, et nad pole GPT-5 treenimist alustanud. Intervjuus ütles OpenAI tegevjuht Sam Altman, et ettevõte on juba pikka aega seadnud arenduses ohutuse prioriteediks ja veetis rohkem kui kuus kuud enne selle käivitamist GPT-4 ohutusteste tehes. – WSJ

“Mingis mõttes on see koorile jutlustamine,” ütles Altman. “Ma arvan, et oleme nendest küsimustest rääkinud kõige valjemini, kõige intensiivsemalt ja kõige kauem.”

Samal ajal ütleb Goldman, et tehisintellektiga võib asendada kuni 300 miljonit töökohta, kuna “AI abil saaks osaliselt automatiseerida kaks kolmandikku ametitest.”

Niinimetatud generatiivne tehisintellekt loob originaalsisu, mis põhineb inimeste juhistel – tehnoloogia, mis on juba juurutatud Microsofti otsingumootoris Bing ja muudes tööriistades. Varsti pärast seda võttis Google kasutusele konkurendi nimega Bard. Teised ettevõtted, sealhulgas Adobe, Salesforce ja Zoom, on kõik kasutusele võtnud täiustatud AI tööriistad.

“Võistlus algab täna,” ütles Microsofti tegevjuht Satya Nadella eelmisel kuul antud kommentaarides. “Me liigume ja liigume kiiresti.”

Üks kirja korraldajatest, Max Tegmark, kes juhib Future of Life Instituuti ja on Massachusettsi Tehnoloogiainstituudi füüsikaprofessor, nimetab seda “enesetapuvõistluseks”.

“On kahetsusväärne, et seda kujutatakse võidurelvastumisena,” ütles ta. “See on pigem enesetapujooks. Pole tähtis, kes sinna esimesena jõuab. See tähendab lihtsalt seda, et inimkond tervikuna võib kaotada kontrolli oma saatuse üle.”

Future of Life Instituut alustas kirja kallal tööd eelmisel nädalal ja lubas esialgu igaühel ilma isikut tõendamata allkirja anda. Ühel hetkel lisati kirjale ka härra Altmani nimi, kuid hiljem eemaldati. Hr Altman ütles, et ta pole kunagi sellele kirjale alla kirjutanud. Ta ütles, et ettevõte kooskõlastab sageli teiste tehisintellekti ettevõtetega ohutusstandardeid ja laiemaid probleeme. 

“On töid, mida me ei tee, sest arvame, et me ei tea veel, kuidas seda piisavalt ohutuks muuta,” ütles ta. “Nii, jah, ma arvan, et on olemas viise, kuidas saate mitmel teljel aeglustada ja see on oluline. Ja see on osa meie strateegiast. – WSJ

Musk – OpenAI varajane asutaja ja rahaline toetaja ning Wozniak – on AI ohtudest juba mõnda aega avalikult rääkinud.

On tõsiseid AI riskiprobleeme,” säutsus ta.

Meta juhtiv tehisintellekti teadlane Yann LeCun ei kirjutanud avalikule kirjale alla, kuna ütleb, et ei nõustu selle eeldusega (täpsustamata).

Mõned muidugi spekuleerivad juba, et allakirjutanutel võivad olla tagamõtted.

Sarnased

Leia Meid Youtubes!spot_img

Viimased

- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -