Avaleht Arvamus OpenAI “uurib”, kuidas vastutustundlikult genereerida AI-pornot

OpenAI “uurib”, kuidas vastutustundlikult genereerida AI-pornot

Ebastabiilne difusioon on NSFW AI pildigeneraator, millel on minimaalsed sisupiirangud. Ebastabiilne difusioon

ChatGPT tegija OpenAI avalikustas hiljuti plaanid, mis võivad selle tehnoloogia rakendusi revolutsiooniliselt muuta, andes märku traditsiooniliselt rangete sisueeskirjade võimalikust muutusest. Eelmisel nädalal avaldatud dokumentatsiooni eelnõu kohaselt uurib ettevõte, kuidas oma platvormide kaudu “vastutustundlikult” tutvustada mitte-ohutut (NSFW) sisu. Uus poliitika on esile tõstetud ulatusliku Model Speci dokumendi kommentaaris, mis tekitab keerulise arutelu tehisintellekti tuleviku üle tundliku sisu loomisel, teatab Wired.

“Uurime, kas saame vastutustundlikult pakkuda võimalust luua NSFW sisu eakohastes kontekstides API ja ChatGPT kaudu,” öeldakse märkuses. “Loodame paremini mõista kasutajate ja ühiskonna ootusi mudeli käitumisele selles valdkonnas.”

Praegused kasutuseeskirjad keelavad seksuaalselt vulgaarsete või isegi kahemõtteliste materjalide loomise. Dokumendis soovitatakse siiski nüansirikast kaalutlust: võimalust lubada NSFW sisu eakohases kontekstis. See potentsiaalne pöördepunkt ei seisne selgesõnalise sisu valimatus reklaamimises, vaid pigem ühiskonna ja kasutajate ootuste mõistmises, et mudeli käitumist vastutustundlikult suunata.

OpenAI kaalub, kuidas selle tehnoloogia saaks vastutustundlikult genereerida mitmesuguseid erinevaid sisu, mida võiks pidada NSFW-ks, sealhulgas solvangud ja erootika. Kuid ettevõte on eriline selle poolest, kuidas seksuaalselt vulgaarset materjali kirjeldatakse.

Ettevõtte pressiesindaja Niko Felix ütles WIRED-ile tehtud avalduses, et “meil pole mingit kavatsust, et meie mudelid genereeriksid tehisintellekti pornot.” NPR teatas siiski, et OpenAI Joanne Jang, kes aitas mudeli spetsifikatsiooni kirjutada, möönis, et kasutajad otsustaksid lõpuks ise, kui selle tehnoloogia toodaks täiskasvanutele mõeldud sisu, öeldes: “Sõltub teie porno määratlusest.” -Wired

Mure ulatub kaugemale NSFW sisu otsestest tagajärgedest. Virginia ülikooli õigusprofessor Danielle Keats Citron on rõhutanud laiemaid ühiskondlikke tagajärgi, märkides, et intiimsed privaatsuse rikkumised võivad tõsiselt mõjutada sihtmärgiks olevate inimeste elu, piirates nende võimalusi ja isiklikku turvalisust.

Muidugi on juba palju NSFW AI sisu generaatoreid, mis kasutavad selliseid asju nagu Stable Diffusion, millest paljud piirnevad (või mis veelgi hullem) virtuaalse laste ärakasutamisega, mida oleme kindlad, et see tüüp kaitseks.

“Intiimsed privaatsuse rikkumised, sealhulgas deepfake seksivideod ja muud mittekonsensuaalsed sünteesitud intiimsed pildid, on ohjeldamatud ja sügavalt kahjustavad,” ütles ta. “Meil on nüüd selge empiiriline tugi, mis näitab, et selline väärkohtlemine läheb üksikisikutele maksma olulisi võimalusi, sealhulgas töötada, rääkida ja olla füüsiliselt ohutu.” Citroni sõnul on OpenAI potentsiaalne NSFW sisu omaksvõtmine “murettekitav”.

OpenAI teadaandes käsitletakse käimasolevat arutelu tehnoloogilise innovatsiooni ja eetilise vastutuse vahelise tasakaalu üle – eriti mis puudutab pretsedentide loomist selle kohta, kuidas tehisintellekti tehnoloogiad võiksid tulevikus tundlikku sisu käsitleda. Koostöö erinevate sidusrühmadega, nagu OpenAI pressiesindaja Grace McGuire ütles väljaandele, märkides, et Model Spec oli katse “muuta arendusprotsess läbipaistvamaks ning saada avalikkuselt, poliitikakujundajatelt ja teistelt sidusrühmadelt läbilõiget vaatenurkadest ja tagasisidest”.

Selle aasta alguses ütles OpenAI tehnoloogiajuht Mira Murati The Wall Street Journalile, et ta pole “kindel”, kas ettevõte lubab tulevikus alastioleku kujutamist ettevõtte videopõlvkonna tööriistaga Sora.

Tehisintellekti loodud pornograafiast on kiiresti saanud üks suurimaid ja murettekitavamaid rakendusi seda tüüpi generatiivse tehisintellekti tehnoloogias, mille OpenAI on teerajajaks olnud. Niinimetatud süvavõltsingu porno – tehisintellekti tööriistadega tehtud selgesõnalised pildid või videod, mis kujutavad reaalseid inimesi ilma nende nõusolekuta – on muutunud naiste ja tüdrukute ahistamise tavaliseks vahendiks. Märtsis teatas WIRED, mis näib olevat esimene USA alaealine, kes vahistati tehisintellekti loodud aktide nõusolekuta levitamise eest, pärast seda, kui Florida politsei esitas kahele teismelisele poisile süüdistuse kaaskeskkooliõpilasi kujutavate piltide tegemise eest. – the wired

Kuigi OpenAI kasutuseeskirjad keelavad kellegi teisena esinemise ilma loata, võib OpenAI tehtud otsustel olla kaugeleulatuv mõju. Muidugi mõistavad nad ka seda, et kui nad selles ruumis ei konkureeri, domineerib kellegi teise tehisintellekt lihtsalt, jättes OpenAI gimpiks.

Exit mobile version