Tehisintellekt suurendab tuuma hävitamise ohtu

ChatGPT eest vastutav ettevõte OpenAI teatas hiljuti uue meeskonna loomisest, millel on väga konkreetne ülesanne: peatada tehisintellekti mudelite tekitamine inimkonnale “katastroofiliste riskidega”.

Ettevalmistust, tabavalt pealkirjastatud meeskonda, hakkab juhtima masinõppe ekspert ja Massachusettsi Tehnoloogiainstituudiga seotud teadlane Aleksander Madry. Hr Madry ja tema meeskond keskenduvad erinevatele ohtudele, eelkõige keemiliste, bioloogiliste, radioloogiliste ja tuumaohtudega seotud ohtudele. Need võivad tunduda kaugele tõmmatud ohtudena, kuid tegelikult ei tohiks nad seda teha.

Nagu ÜRO selle aasta alguses teatas, on oht, et riigid pöörduvad tuumarelvade poole, kõrgeimal tasemel pärast külma sõda. See aruanne avaldati enne kohutavaid sündmusi, mis toimusid Iisraelis 7.oktoobril. Vladimir Putini lähedane liitlane Nikolai Patrušev väitis hiljuti, et “Ameerika Ühendriikide ja tema liitlaste “hävitav” poliitika suurendab ohtu, et kasutatakse tuuma-, keemia- või bioloogilisi relvi,” vahendab Reuters.

Ühendage tehisintellekt ülaltoodud relvadega, eriti tuumarelvadega, hoiatab Zachary Kallenborn, kes on terrorismi uurimise ja terrorismile reageerimise riikliku konsortsiumi (START) ebatraditsiooniliste relvade ja tehnoloogia osakonna uurimispartner ning teil on retsept leevendamata katastroofiks.

Hr Kallenborn on korduvalt ja ebapopoloogiliselt löönud häirekella tehisintellekti ja tuumarelvade ebapüha liidu kohta. Mitte keegi ei hakkinud sõnu, teadlane hoiatas: “Kui tehisintellektid kontrolliksid tuumarelvi, võiksime kõik olla surnud.”

Ta ei liialda. Täpselt 40 aastat tagasi, nagu kirjeldas Shari poliitika- ja valitsuskooli poliitikakaaslane hr Kallenborn, oli Nõukogude õhukaitsejõudude kolonelleitnant Stanislav Petrov hõivatud oma riigi tuumahoiatussüsteemide jälgimisega. Äkki, hr Kallenborni sõnul, “järeldas arvuti suurima kindlusega, et Ameerika Ühendriigid on alustanud tuumasõda.” Hr Petrov oli aga skeptiline, peamiselt seetõttu, et ta ei usaldanud praegust tuvastussüsteemi. Lisaks puudusid radarisüsteemil kinnitavad tõendid.

Õnneks jõudis hr Petrov järeldusele, et sõnum oli valepositiivne, ja otsustas mitte tegutseda. Spoileri hoiatus: Arvuti oli täiesti vale ja venelasel oli täiesti õigus.

“Kuid,” märkis riikliku julgeoleku konsultant hr Kallenborn, “kui Petrov oleks olnud masin, mis oleks programmeeritud automaatselt reageerima, kui usaldus oli piisavalt kõrge, oleks see viga käivitanud tuumasõja.”

Lisaks soovitas ta, et pole absoluutselt mingit garantiid, et teatud riigid “ei pane tehisintellekti tuumakaatrite eest vastutama”, sest rahvusvaheline õigus “ei täpsusta, et alati peaks olema nuppu valvav “Petrov”.

“See on midagi, mis peaks varsti muutuma,” ütles hr Kallenborn.

Ta ütles mulle, et tehisintellekt kujundab juba praegu ümber sõjapidamise tulevikku.

Hr Kallenborni sõnul võib tehisintellekt “aidata sõjaväelastel kiiresti ja tõhusamalt töödelda lahinguväljal loodud tohutuid andmehulki; muuta kaitsetööstusbaas tõhusamaks ja tõhusamaks relvade ulatuslikul tootmisel ning võib-olla suudab parandada relvade sihtimist ja otsuste tegemist.”

Võtame näiteks Hiina, mis on väidetavalt suurim oht Ameerika Ühendriikidele ja selle tehisintellektil põhinevad sõjalised rakendused. Georgetowni ülikooli aruande kohaselt võib Peking mitte nii kauges tulevikus kasutada tehisintellekti mitte ainult sõjaajal abistamiseks, vaid ka kõigi sõjategevuse tegelikuks jälgimiseks.

See peaks puudutama kõiki lugejaid.

“Kui tuumarelvade käivitamine delegeeritakse autonoomsele süsteemile,” kardab hr Kallenborn, et need “võidakse käivitada ekslikult, mis viib juhusliku tuumasõjani.”

“Tehisintellekti lisamine tuumajuhtimisse ja -kontrolli,” ütles ta, “võib viia ka eksitava või halva teabeni.”

Tal on õigus. Tehisintellekt sõltub andmetest ja mõnikord on andmed metsikult ebatäpsed.

Kuigi pole ühtegi konkreetset riiki, mis hoiaks hr Kallenborni öösel ärkvel, on ta mures “võimaluse pärast, et Venemaa president Vladimir Putin kasutab Ukraina konfliktis väikseid tuumarelvi”. Isegi piiratud tuumaenergia kasutamine “oleks pikas perspektiivis üsna halb”, sest “tuumatabu” eemaldataks, julgustades seega “teisi riike olema tuumarelvade kasutamisega kavalamad”.

“Tuumarelvad”, hr Kallenborni sõnul, on “suurim oht inimkonnale”.

“Need on ainus olemasolev relv, mis võib põhjustada piisavalt kahju, et tõeliselt põhjustada inimeste väljasuremist,” ütles ta.

Nagu varem mainitud, näib tehisintellekti viskamine tuumasegusse suurendavat massilise väljasuremise ohtu. Hr Kallenborni, lugupeetud teadlase, kes on pühendanud aastaid oma elust tuumasõja arengu uurimisele, hoiatused kannavad suurt usaldusväärsust.

Sarnased

Leia Meid Youtubes!spot_img

Viimased

- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -spot_img
- Soovitus -