Friday, March 31, 2023

AI paanika

Eile suusatama sõites enne kui hakkasin kuulama Lexi vana (6 kuud on tänapäeva arengu juures eelajalooline) podcasti AI guru Kurzweiliga tuli raadiost uudis prominentsete kodanike kirjast Tehsiintellekti ohtude kohta. Raadios pikemalt ei seletatud, kuid peamise ohuna mainiti töökohtade kadu ja disinformatsiooni levikut, lahendusena pakuti välja 6 kuulist pausi tehisintellekti arendamisel. Minu arust täiesti vale lähenemine, sest kõige suuremaks ohuks hoopiski võimsa tehisintellekti sattumine mõne hullude valitsuse (vene, hiina, iraan, ... ) kätte, kelle esimene reaktsioon on seda relvana kasutada. Paus annab neile võimaluse järgi jõuda. Tehisintellekt on nagu tuumarelv: kui pudelist väljas siis tagasi enam ei topi, esimesena korralikult töötava mudeli loomine annab omandajale tohutud eelised. Seega absoluutseks prioriteediks, et esimeseks oleks lääneriigid või vähemalt lääneriikides asuvad firmad.

Objektiivse infi saamiseks on alati mõistlik algallikaid uurida. Massimeedia kipub mõnd aspekti võimendades sensatsiooni taga ajama jättes tihtipeale olulisi momente kahe silma vahele.

Nüüd kirja enda juurde (esitan kaldkirjas kokkuvõtliku lühendatud tõlke):

Inimintelligentsiga võrreldav tehisintellekt võib kujutada ohtu inimkonnale ja ühiskonnale. Nagu märgitud Asilomari AI põhimõtetes: Arenenud tehisinellekt võib oluliselt muuta elu planeedi Maa peal mistõttu vajalik hoolikas kontroll ja juhtimine. Momendil pigem tegu kontrollimatu regulatsioonideta võidujooksuga järjest võimsamate AI süsteemide loomisel.

Põhimõtteliselt olen nõus.

AI süsteemid lähenevad inimvõimekusele juba ka üldiste ülesannete lahendamisel ehk siis läheneme AGI (Üldine tehisintellekt) loomisele.

Kitsapiiriline AI (narrow-AI) on ammu inimestest üle, lihtsaim näide taskuarvuti, mobla, malemängu programm, ...). LLM ehk suured keelemudelid nagu ChatGPT on siiski vaid võimsad tekstitöötlusprogrammid, mis emuleerivad tehisintellekti ning mida pole võimalik iseseisvana Üldtehisintellektiks (AGI) arendada. Aga nad on üheks oluliseks osaks loodava Üldtehisintellekti loomisel.

Põhilisteks ohtudeks desinformatsiooni levitamine ja töökohtade kadumine. Kas peaksime looma tehisintellekte (mitmuses) keda on rohkem, kes on targemad ja kes võivad meid asendada? Kas võime riskida tsivilisatsiooni arengu üle kontrolli kaotamisega? 

Desinformatsioon on kindlasti üheks suuremaks probleemiks momendil, sest peagi on väga raske või isegi võimatu eristada arvuti poolt genereeritud teksti (tõest või väära) inimese loodust, samas on arvuti võimeline väljastama meeletut hulka teksti. Trolliarmeed on minevik, selle töö teeb arvuti palju efektiivsemalt.

Töökohtade kadumise koha pealt olen pigem positiivne. Uue tehnoloogiaga on läbi aegade töökohad kadunud kuid alati asendunud uute ja enamasti palju kergemate ning rahuldustpakkuvamatega. Erinevuseks, et seni on masinad asendanud füüsilist või monotoonset tööd, nüüd kipuvad ka loova töö kallale. Samas poleks mul miskit selle vastu kui töökohtade garanteerimise nimel muudetakse töönädal kolmepäevaseks ja/või tööpäev neljatunniseks😉 

Võimsaid AI süsteeme tuleks arendada vaid siis kui oleme kindlad et nende mõjud on positiivsed ja riskid kontrolli all. Mingi moment on arendustegevuse juures vajalik sõltumatu kontroll - kirja autorite arvates on see moment kätte jõudnud. 

Ei kujuta ette, et ühegi uue tehnoloogiaga saab olla täiesti kindel tolle positiivsetes mõjudes ja riskide kontrolli all olemises. Kuidas sõltumatu kontroll peaks välja nägema???

Seega kutsutakse üles 6 kuusele pausile GPT-4 süsteemidest võimekamate mudelite arendamisel. Pausi tuleks kasutada ohutustehnika ja regulatsioonide väljatöötamiseks. Uurimistegevus ja arendus tuleks fokuseerida AI süsteemide muutmisele täpsemaks, usaldatavamaks, töökindlamaks, läbipaistvamaks, arusaadavamaks ja lojaalsemaks.

6 kuulise pausiga on probleemiks sunnivahendite puudumine (kuidas sa sunnid suurfirmasid või riike arendustegevust peatama). Sõltumatu kontrolliga kaasneb paratamatult bürokraatia ning korruptsioon - kokkuvõttes võimatu ülesanne.

AI arendajad peaks tegema koostööd valitsusorganisatsioonidega loomaks kindlad kontrollimehhanismid, mis hoiavad silma peal nii arendustegevusel kui ka arvutusvõimsuse levikul nii riist kui tarkvara osas. Tuleks luua süsteemid, mis suudavad disinformatsiooni eristada tõesest ja seda tõkestada, vastasel korral satuvad nii vabamajandus kui demokraatia ohtu.

Iseenesest tore mõte aga teades kui aeglane on riigisüsteem, kus kellelgi pole kiiret ja kui mahukas büroraatia, pole mul usku, et mingite tõsiseltvõetavate tulemusteni jõutakse enne kui Üldtehisintellekt loodud. Viimase lausega kutsutakse üles looma Tehisintellekti, mis kontrollib loodavat Tehisintellekti - seeni olete söönud või?

Just märkasin, et vahepeal on välja tulnud samal teemal Lexi uus podcast: "AI ohud ja inimtsivilisatsiooni lõpp". Pole veel jõudnud ise kuulata, tööle minnes hea ajaviide. Video riputan asjast huvitatutele siia üles sellegipoolest.

No comments:

Post a Comment

Kõik kommentaarid ootavad modereerimist!