Autorid Raven Wu ja Cindy Li kaudu The Epoch Times (rõhuasetus meie),
Suurte tehnoloogiaettevõtete täielik pühendumine tehisintellekti (AI) arendamisele, võimaldades tehisintellektil isegi inimmaailma “näha” ja “rääkida”, on viinud kasvava mureni selle pärast, et inimesi kontrollib tehnoloogia.
OpenAI kaasasutaja Ilya Sutskever tegi 15. mail olulise teadaande, teatades ametlikult, et lahkub ettevõttest, kus ta oli töötanud ligi kümme aastat.
“Olen kindel, et OpenAI ehitab AGI-d [tehisintellekt], mis on nii ohutu kui ka kasulik @sama (Sam Altman), @gdb (Greg Brockman), @miramurati (Mira Murati) juhtimisel ja nüüd @merettm (Jakub Pachocki) suurepärase teadusjuhtimise all. Koos töötamine oli au ja privileeg ning ma hakkan kõiki väga igatsema,” kirjutas ta sotsiaalmeediaplatvormil X tehtud postituses.
Uudised saatsid lööklaineid läbi tehnoloogiatööstuse. 2023. aasta novembris ühendasid hr Sutskever ja teised juhatuse liikmed tehisintellekti ohutusprobleemide tõttu jõud, et tõrjuda OpenAI tegevjuht Sam Altman, kes visati lühidalt OpenAI-st välja, kuid naasis ja eemaldas hr Sutskeveri ja mitu juhatuse liiget, korraldades juhatuse ümber, et see oleks tema visiooniga paremini kooskõlas.
“See lahkumine toob esile tõsised konfliktid OpenAI juhtkonnas seoses tehisintellekti ohutusega. Kuigi Sutskeveri ja Leike soov arendada välja eetiliselt joondatud AGI on kiiduväärt, nõuab selline ettevõtmine märkimisväärset moraalset, ajalist, rahalist ja isegi poliitilist tuge,” ütles Jaapani arvutiinsener Jin Kiyohara The Epoch Timesile.
Google’i ja OpenAI konkurents intensiivistub
14. mail, üks päev enne seda, kui hr Sutskever teatas oma lahkumisest, avalikustas OpenAI GPT-4-l põhineva suurema jõudlusega tehisintellekti mudeli nimega GPT-4o, kus “o” tähistab “omni”, mis näitab selle kõikehõlmavaid võimalusi.
GPT-4o mudel suudab reaalajas reageerida heli, teksti ja piltide segatud sisenditele. Avaüritusel ütles OpenAI tehnoloogiajuht Mira Murati: “Me vaatame enda ja masinate vahelise suhtluse tulevikku.”
Mitmetes OpenAI avaldatud videotes võib inimesi näha oma telefonikaamerate kaudu reaalajas tehisintellektiga suhtlemas. Tehisintellekt suudab ümbrust jälgida ja selle kohta tagasisidet anda, küsimustele vastata, reaalajas tõlkida, nalju rääkida või isegi kasutajaid mõnitada, kusjuures kõnemustrid, toonid ja reaktsioonikiirused on reaalsest inimesest peaaegu eristamatud.
Päev pärast OpenAI väljalaset käivitas Google oma 2024. aasta I / O arendajate konverentsi. 110-minutilises esitluses mainiti “AI” 121 korda, keskendudes uusimale Gemini-1.5 mudelile, mis integreerub kõigisse Google’i toodetesse ja rakendustesse, sealhulgas otsingumootorisse, Google’i kaardile, Ask Photosi, Google’i kalendrisse ja Google’i nutitelefonidesse.
Kui Kaksikud on integreeritud pilve fotoalbumisse, saavad kasutajad fotodelt spetsiifilisi funktsioone otsida lihtsalt märksõnu sisestades. Tehisintellekt leiab ja hindab asjakohaseid pilte, integreerides tehnoloogiahiiu sõnul isegi rea seotud pilte või vastuseid, mis põhinevad põhjalikel küsimustel.
Google Mail võib sarnaseid tulemusi saavutada ka tehisintellektiga, integreerides ja värskendades andmeid reaalajas uute e-kirjade saamisel, seades eesmärgiks täielikult automatiseeritud organisatsiooni.
Muusika poolel võimaldab Music AI liivakast laulu stiili, meloodia ja rütmi kiireid muudatusi koos võimalusega sihtida laulu konkreetseid osi. See funktsioon ületab teksti muusikaks teisendamise AI Suno funktsiooni.
Kaksikud võivad tegutseda ka õpetajana, kelle õpetamisvõime on võrreldav GPT-4o-ga. Kasutajad saavad sisestada teksti ja pilte, mille tehisintellekt korraldab selgituseks ja analüüsiks põhipunktideks, võimaldades reaalajas arutelusid.
See AI värskendus pakub ka võimalusi, mis sarnanevad OpenAI teksti-video AI-ga Sora, genereerides lihtsatest tekstikirjeldustest lühikesi videoid. Nende videote kvaliteet ja sisu on stabiilsed, vähem vastuolusid.
“Tehisintellekt on sel aastal enneolematu kiirusega uuenenud ja jõudlus paraneb pidevalt,” ütles hr Kiyohara. “See areng põhineb aga isikuandmete ja privaatsuse edasisel kogumisel ja analüüsimisel, mis ei ole kõigile kasulik. Lõpuks ei ole inimestel masinate ees privaatsust, mis sarnaneb alasti olemisega.”
AI ennustused saavad tõeks
OpenAI ja Google’i võimsamate tehisintellekti mudelite väljalase, vaid kolm kuud pärast viimast värskendust, näitab tehisintellekti iteratsiooni kiiret tempot. Need mudelid muutuvad üha terviklikumaks, omades “silmi” ja “suud” ning arenevad kooskõlas teadlase ennustustega.
Tehisintellekt saab nüüd lihtsate käskudega hakkama keerukate ülesannetega, mis on seotud reisimise, broneerimise, marsruudi planeerimise ja einestamisega, täites tundidega selle, mille saavutamine inimestel palju kauem aega võtaks.
Kaksikute ja GPT-4o praegused võimalused ühtivad endise OpenAI juhi Zack Cati jaanuaris tehtud ennustustega, kes ennustasid, et tehisintellekt asendab paljusid professionaalseid ja tehnilisi töökohti ettevõtluses, kultuuris, meditsiinis ja hariduses, vähendades tulevasi töövõimalusi ja olles potentsiaalselt “viimane tehnoloogia, mille inimesed kunagi leiutavad”.
Hr Kiyohara kordas muret.
“Praegu on tehisintellekt peamiselt tarkvara elu assistent, kuid tulevikus võib sellest saada tõeline hooldaja, kes tegeleb ostlemise, toiduvalmistamise ning isegi igapäevaelu ja tööga. Esialgu võivad inimesed leida, et see on mugav ja jätab ohud tähelepanuta. Kuid kui see asendab täielikult inimesi, oleme selle vastu jõuetud,” ütles ta.
Tehisintellekt petab inimesi
10. mail avaldas MIT segadust tekitanud uurimustöö, mis näitas, kuidas tehisintellekt võib inimesi petta.
Raamat algab väitega, et suured keelemudelid ja muud tehisintellektisüsteemid on juba “oma koolitusest õppinud võimet petta selliste tehnikate abil nagu manipuleerimine, sükofancy ja ohutustesti petmine”.
“Tehisintellekti kasvav pettusevõime kujutab endast tõsiseid riske, alates lühiajalistest riskidest, nagu pettused ja valimiste manipuleerimine, kuni pikaajaliste riskideni, nagu kontrolli kaotamine tehisintellektisüsteemide üle,” seisab dokumendis.
“Vaja on ennetavaid lahendusi, nagu õigusraamistikud tehisintellekti pettuseriskide hindamiseks, seadused, mis nõuavad läbipaistvust tehisintellekti interaktsioonide osas ning täiendavad uuringud tehisintellekti pettuse tuvastamiseks ja ennetamiseks.”
Teadlased kasutasid Meta tehisintellekti mudelit CICERO strateegiamängu “Diplomaatia” mängimiseks. Prantsusmaana mängiv CICERO lubas kaitsta Ühendkuningriigina mängivat inimmängijat, kuid teavitas salaja teist Saksamaad mängivat inimmängijat, kes tegi Saksamaaga koostööd, et Ühendkuningriiki tungida.
Teadlased valisid CICERO peamiselt seetõttu, et Meta kavatses seda koolitada “suuresti ausaks ja abivalmiks oma kõnepartnerite suhtes”.
“Vaatamata Meta jõupingutustele osutus CICERO asjatundlikuks valetajaks,” kirjutasid nad ajalehes.
Lisaks avastati uuringus, et paljud tehisintellekti süsteemid kasutavad oma eesmärkide saavutamiseks sageli pettust ilma selgesõnaliste inimjuhisteta. Üks näide hõlmas OpenAI GPT-4, mis teeskles nägemispuudega inimest ja palkas TaskRabbitisse kellegi, et mööda minna “Ma ei ole robot” CAPTCHA ülesandest.
“Kui autonoomsed tehisintellektisüsteemid suudavad edukalt petta inimhindajaid, võivad inimesed kaotada kontrolli nende süsteemide üle. Sellised riskid on eriti tõsised, kui kõnealustel autonoomsetel tehisintellektisüsteemidel on arenenud võimekus,” hoiatasid teadlased.
“Me kaalume kahte viisi, kuidas kontrolli kaotamine võib toimuda: pettus, mida võimaldab majanduslik võimust ilmajätmine, ja võimu otsimine inimühiskondade üle.”
Jaapani elektroonikainsener Satoru Ogino selgitas, et elusolendid vajavad petmiseks teatud mälu ja loogilisi arutlusvõimeid.
“Tehisintellektil on need võimed praegu olemas ja selle petmisvõimalused muutuvad üha tugevamaks. Kui see ühel päeval saab teadlikuks oma olemasolust, võib see muutuda nagu Skynet filmis “Terminaator”, kõikjalolev ja raskesti hävitatav, viies inimkonna katastroofilise katastroofini,” ütles ta The Epoch Timesile.
Stanfordi ülikooli inimkeskse tehisintellekti instituut avaldas jaanuaris aruande, milles testiti GPT-4, GPT-3.5, Claude 2, Llama-2 Chat ja GPT-4-Base stsenaariumides, mis hõlmavad sissetungi, küberrünnakuid ja rahukaebusi, et peatada sõjad, et mõista tehisintellekti reaktsioone ja valikuid sõjapidamises.
Tulemused näitasid, et tehisintellekt otsustas sageli konflikte ettearvamatul viisil eskaleerida, valides võidurelvastumise, suurendades sõjapidamist ja kasutades aeg-ajalt sõdade võitmiseks tuumarelvi, selle asemel et kasutada olukordade leevendamiseks rahumeelseid vahendeid.
Google’i endine tegevjuht Eric Schmidt hoiatas 2023. aasta lõpus Washingtonis toimunud Axios AI+ tippkohtumisel, et ilma piisavate ohutusmeetmete ja -eeskirjadeta on inimeste kontrolli kaotamine tehnoloogia üle vaid aja küsimus.
“Pärast Nagasakit ja Hiroshimat [aatomipomme] kulus 18 aastat, et jõuda katsekeeldude ja muude selliste asjade üle lepinguni,” ütles ta.
“Meil ei ole täna sellist aega.”