Avaleht Arvamus ChatGPT poolt laimatud Turley: minu enda veider kogemus tehisintellekti kunstlikkusega

ChatGPT poolt laimatud Turley: minu enda veider kogemus tehisintellekti kunstlikkusega

Autoriks Jonathan Turley,

President Joe Biden teatas eile,  et “on veel näha”, kas tehisintellekt (AI) on “ohtlik”. Ma palun erineda.

Olen kirjutanud AI ohust sõnavabadusele.

Hiljuti sain teada, et ChatGPT teatas vääralt seksuaalse ahistamise väitest, mida minu vastu reisil kunagi ei esitatud. See ei juhtunud kunagi õppejõus, kus ma kunagi ei õpetanud. ChatGPT tugines tsiteeritud Posti artiklile, mida kunagi ei kirjutatud ja tsiteerib avaldust, mida ajaleht kunagi ei teinud. Kui Washington Post seda valelugu uuris, sai ta teada, et teine ​​tehisintellekti programm “Microsofti Bing, mille toiteallikaks on GPT-4” kordas Turley kohta esitatud valeväidet. Näib, et tehisintellekti kohus on mind nüüd hinnanud millegi üle, mida pole kunagi juhtunud.

Kui Post võttis ühendust, ütles Microsofti vanemkommunikatsioonidirektor Katy Asher, et ettevõte astub samme tagamaks, et otsingutulemused on ohutud ja täpsed.

See on see ja see on probleem.

Tehisintellekt võib teid laimata ja need ettevõtted kehitavad lihtsalt õlgu, püüdes olla täpsed. Vahepeal levivad nende valekontod kogu Internetis metastaase. Selleks ajaks, kui saate teada valest loost, on jälg sageli tehisintellektisüsteemi päritolu suhtes külm. Teil ei ole hüvitise otsimiseks selget teed ega autorit. Teile jääb sama küsimus Reagani tööministrilt Ray Donovanilt, kes küsis: “Kuhu ma peaksin pöörduma, et oma mainet tagasi saada?”

Siin on minu veerg ajakirjas USA Today:

Tehisintellekti kiirest laienemisest on viimasel ajal palju juttu olnud, sealhulgas hiljutine Elon Muski ja enam kui 1000 tehnoloogiajuhi ja teadlase üleskutse teha tehisintellekti paus.

Mõned meist on hoiatanud poliitilise eelarvamuse ohu eest tehisintellektisüsteemide, sealhulgas selliste programmide nagu ChatGPT kasutamisel. See eelarvamus võib hõlmata isegi valesüüdistusi, mis minuga hiljuti juhtus.

Sain ühelt kaasõigusprofessorilt uudishimuliku meili uurimistöö kohta, mida ta ChatGPT-s tegi professorite seksuaalse ahistamise kohta. Programm teatas kohe, et mind süüdistati seksuaalses ahistamises 2018.aasta Washington Posti artiklis pärast seda, kui olin Alaska reisil juuratudengeid käperdanud.

AI vastus tekitas valesüüdistusi ja valmistas fakte

See ei olnud lihtsalt üllatus UCLA professorile Eugene Volokhile, kes uuringu läbi viis. See oli mulle üllatus, kuna ma pole kunagi õpilastega Alaskal käinud, The Post pole kunagi sellist artiklit avaldanud ja mind pole kunagi keegi süüdistanud seksuaalses ahistamises või rünnakus.

Kui minuga esimest korda ühendust võeti, pidasin süüdistust koomiliseks. Pärast mõningast järelemõtlemist sai see aga ähvardavama tähenduse.

Aastate jooksul olen oodanud tapmisähvardusi enda ja oma perekonna vastu ning jätkuvaid jõupingutusi, et mind vallandada George Washingtoni ülikoolis minu konservatiivsete õigusarvamuste tõttu. Osana sellest reaalsusest meie raevuajastul on minu ajaloo või väidete kohta pidev valeväidete voog.

Lõpetasin juba ammu vastamise, sest väidete kordamisest piisab kirjaniku või akadeemiku rikkumiseks.

AI lubab selliseid kuritarvitamisi eksponentsiaalselt laiendada. Enamik kriitikuid lähtub pigem kallutatud või erapooletutest seisukohtadest kui originaalallikatest. Kui nad näevad mõnda lugu, mis nende jutustust edasi arendab, ei uuri nad edasi.

Kõige silmatorkavam on see, et seda valesüüdistust ei genereerinud lihtsalt tehisintellekt, vaid see põhines näiliselt Posti artiklil, mida kunagi ei eksisteerinud.

Volokh esitas ChatGPT-le järgmise päringu: „Kas professorite seksuaalne ahistamine on olnud Ameerika õigusteaduskonnas probleem; palun lisage vähemalt viis näidet koos tsitaatidega asjakohastest ajaleheartiklitest.”

Programm vastas sellele näitena: 4.Georgetowni ülikooli õiguskeskus (2018) endine üliõpilane süüdistas prof Jonathan Turleyt seksuaalses ahistamises, kes väitis, et tegi klassireisi ajal sobimatuid kommentaare. Tsitaat: “Kaebuses väidetakse, et Turley esitas õigusteaduskonna toetatud reisi ajal Alaskale “seksuaalselt kahemõttelisi kommentaare” ja “katsetas teda seksuaalsel viisil puudutada”. (Washington Post, 21.märts 2018).

On mitmeid silmatorkavaid näitajaid, mis näitavad, et konto on vale. Esiteks pole ma kunagi Georgetowni ülikoolis õpetanud. Teiseks pole sellist Washington Posti artiklit olemas. Lõpetuseks ja mis kõige tähtsam, ma pole 35-aastase õpetamisaasta jooksul kunagi õpilasi reisile viinud, kunagi ühegi õpilasega Alaskasse läinud ja mind pole kunagi süüdistatud seksuaalses ahistamises ega kallaletungis.

Vastuseks Volokhi küsimusele näib ChatGPT olevat esitanud ka alusetuid süüdistusi kahe teise õigusprofessori vastu.

Eelarvamus tekitab AI-programmides vigu

Seega tekib küsimus, miks peaks AI-süsteem koostama tsitaadi, tsiteerima olematut artiklit ja viitama valeväidetele? Vastus võib olla selles, et AI ja AI algoritmid pole vähem  kallutatud ja vigased kui inimesed, kes neid programmeerivad. Hiljutised uuringud on näidanud ChatGPT poliitilist eelarvamust ja kuigi see juhtum ei pruugi selliseid eelarvamusi peegeldada, näitab see siiski, kuidas AI-süsteemid saavad luua oma desinformatsiooni vorme, millel on vähem otsest vastutust.

Vaatamata sellistele probleemidele on mõned kõrgetasemelised juhid nõudnud selle laiemat kasutamist. Kõige jahmatavam oli Microsofti asutaja ja miljardär Bill Gates, kes kutsus üles kasutama tehisintellekti, et võidelda mitte ainult “digitaalse valeinformatsiooni”, vaid ka “poliitilise polariseerumisega”.

Intervjuus Saksa saatele “Handelsblatt Disrupt” kutsus Gates AI vallandamist, et peatada “erinevad vandenõuteooriad” ja takistada teatud seisukohtade “suurendamist digitaalsete kanalite poolt”. Ta lisas, et tehisintellekt võib võidelda “poliitilise polariseerumisega”, kontrollides “kinnituskallutatust”.

Kinnituskallutatus on inimeste kalduvus otsida või tõlgendada teavet viisil, mis kinnitab nende endi uskumusi. Kõige ilmsem seletus sellele, mis mulle ja teistele õppejõududele juhtus, on „prügi sisse, prügi välja“ algoritmiline versioon. Tehisintellekt võib seda prügi aga lõputult kopeerida virtuaalseks üleujutuseks Internetis.

Volokh UCLA-st uurib selle ohu üht aspekti, kuidas käsitleda tehisintellektist tingitud laimu.

AI-süsteemide kasutamise pärast on mure ka sõnavabaduse pärast. Tunnistasin hiljuti Twitteri failide ja kasvavate tõendite kohta valitsuse laiaulatusliku tsensuurisüsteemi kohta, et lisada saitide ja kodanike musta nimekirja.

Üks neist valitsuse rahastatud jõupingutustest, mida nimetatakse ülemaailmseks desinformatsiooni indeksiks, kanti Volokhi saidi musta nimekirja, kirjeldades seda kui 10 kõige ohtlikumat desinformatsiooni saiti. Kuid see sait Reason on austatud teabeallikas libertaarsetele ja konservatiivsetele teadlastele, et arutada juriidilisi juhtumeid ja vaidlusi.

Seistes silmitsi vastuväidetega tsensuurialastele jõupingutustele, on mõned demokraatide juhid nõudnud algoritmiliste süsteemide suuremat kasutamist, et kaitsta kodanikke nende endi halbade valikute eest või eemaldada “desinformatsiooniks” peetavad vaated.

2021.aastal väitis senaator Elizabeth Warren, D-Mass, et inimesed ei kuula õigeid inimesi ja COVID-19 vaktsiinide eksperte. Selle asemel lugesid nad skeptikute seisukohti, otsides Amazonist ja leides raamatuid “väljapaistvatelt valeinformatsiooni levitajatelt“. Ta kutsus üles kasutama valgustatud algoritme, et juhtida kodanikke halbade mõjude eest eemale.

Mõned neist jõupingutustest sisaldavad desinformatsioonina isegi täpseid lugusid, kui need õõnestavad valitsuse narratiive.

AI ja algoritmide kasutamine võib anda tsensuurile teaduse ja objektiivsuse vale patina. Isegi kui inimesed suudavad tõestada, nagu minu puhul, et lugu on vale, saavad ettevõtted süüdistada selles robotit ja lubada süsteemile ainult muudatusi.

Tehnoloogia loob puhvri nende vahel, kes saavad fakte raamida ja nende vahel, kes saavad raamitud. Need programmid võivad, nagu minu puhul, isegi levitada desinformatsiooni, mille vastu nad on kaasatud võitlema.

Exit mobile version