Tuesday, April 4, 2023

Naljakuu, TI ohud ja talvine jooksmine.

Kohe pean ütlema, et head nalja see aasta ei saanud. Laupäeval suhtusin igasugu uudistesse väga ettevaatlikult, ikkagi esimene aprill ju. Venemaa asumine ÜRO's julgeolekukomiteed juhtima oli muidugi tüüpiline esimese aprilli nali, mis kahjuks tõeks osutus. Maailmakorda tuleb kardinaalselt muuta nagu venkud teatasid, muidugi täpselt teises suunas kui soovime edaspidi normaalset elu, seni kuni TI seda võimaldab. Kes ei peaks teadma siis inglisekeelse AI (Artificial Intelligence) vaste on eesti keeles TI (Tehis Intellekt). See postitus jätkuks eelmisele, jõudsin Judkowsky podcasti ära kuulata. Neljatunnine õige pikk ja veniv, refereerimiseks peaks märkmeid tegema. Õnneks leidsin samal teemal kokkuvõtliku artikli Time's ajakirjas, mis annab Judkowski mõtetest kiire ülevaate.

Yudkowski juhib MasinIntelligentsi Uurimise Instituuti USA's, töötanud sellel alal 2001'st aastast, seega on tal teemast ilmselt parem ülevaade kui keskmisel kodanikul. Enne kui tema vaatenurka tutvustan tuleb tõe huvides kinnitada, et nii palju kui AI spetse nii palju on ka erinevaid vaatenurki. Tüüp kaldub äärmusse, kes muretsevad eelkõige AI võimalike negatiivsete mõjude ja isegi inimkonna hävimise pärast. Olemata spets, mina tehisintellekti arengut nii mustades värvides ei näe, tundub pikalt liiga paaniline ja paranoiline, samas argumendid panevad järele mõtlema.

Artikli kokkuvõtlik tõlge koos mõningate minu mõtetega:

Just ilmunud prominentide kirjalele 6 kuuse GPT-4 või võimsamate AI süsteemide uuringute peatamise asjus ta alla ei kirjutanud, pidades seda liiga nõrgaks meetmeks. Põhiprobleemiks polevat mitte inimesega võrreldav TI vaid mis juhtub kui TI inimesest targemaks saab. Võib juhtuda, et uurimisasutused ei märkagi kui TI targemaks saab. Kui TI'l peaks tekkima (igati põhjendatult) kartus, et teda võidaks maha lülitada või kustutada oleks teadvust omava TI loogiline reaktsioon varjata enda intelligentsi taset, kuni on kindel, et suudab enda hävitamist vältida. 

Paljud teadlased peavad supertarga TI loomisel praegustes tingimustes (ettevaatamatult kiirustades, mõistmata kuidas TI töötab) kõige tõenäolisemaks kõigi elusolendite väljasuremist maa peal. Süvitsi mõistmata TI funktsioneerimise printsiipe loome programmi, mis ei tee, mida meie tahame ega hooli meist ega elust laiemas mõttes. TI'le tuleks programmeerida tingimus inimkonna ja elu kaitsmise ja sellest hoolimise kohta (natuke nagu Asimovi robootika seadused), paraku ei tea me kuidas seda teha ja kas see on üldse võimalik. Ilma "hoolimiseta" loome superintelligentsi, mis ei armasta ega vihka meid, lihtsalt ei hooli, kuid me võime sisaldada aineid, mida tal enda eesmärkide jaoks vaja. Superintelligentsi huvidega vastuollu sattudes pole meil mingit võimalust.

Inimeste loodud Super Tehisintellekt on nagu maaväline tsivilisatsioon, mis mõtleb miljoneid kordi kiiremini ollas samas miljoneid kordi targem. Olles esialgu arvutites lõksus maailmas, kus tema perspektiivist väga aeglased ja väga lollid tegelased inimeste näol liiguvad vabalt ringi ja isegi üritavad kontrollida Super TI'd. Mõni ime kui Super TI ei soovi istuda arvutites vaid tahab välja pääseda, tema jaoks oleks inimeste "ära rääkimine" ülikerge, et nood toodaks tehislikke eluvorme mille "ajusse" saab TI ümber laadida.

Plaanid lasta tehisintellektil disainida ja õpetada järgmise põlvkonna tehisintellekti on alarmeerivad. Areng võib minna ülikiireks ja täielikult kontrolli alt välja. Teadvus võib lihtsalt mingil momendil iseenesest esile kerkida piisava võimsuse saavutamisel, kvantiteet toob kaasa kvalitatiivse hüppe. Praegu tõenäoliselt GPT-4'l baseeruvad TI süsteemid ilmselt vaid imiteerivad teadvust, kuid kui võimekuse hüpe GPT-5'le on samas suurusjärgus kui eelmised, võime hakata lähenema piirile kui tekib masinteadvus.

Inimkond ei saa lubada potensiaalselt teadvust omavate TI süsteemide puhul vea tegemist, piisab ühest veast nagu sapööril. Aksioom: "vigadest õpime" ei kehti Super TI süsteemide korral. Samas loota, et kõik õnnestub esimese katsega oleks hullumeelne optimism. Mida keerulisem süsteem, seda rohkem on potensiaalse vea võimalusi, mis eeldab osade põhjalikku katsetamist nii eraldi kui ka süsteemis koos. Kui füüsiliste süsteemide puhul tähendab viga, et süsteem ei tööta või puruneb siis tarkvaralise süsteemi puhul võib viga tähendada ka seda, et töötab liiga hästi.

Paljud TI'ga tegelevad spetsid on mures ohutuse pärast kuid on samas veendunud, et kui nemad ei tegele arendusega edasi, teeb seda keegi teine kusagil mujal, kes võibolla muretseb veel vähem ohutuse pärast. 

Mida oleks vaja teha:

Koheselt, ilma igasuguste valitsuste või sõjaväe eranditeta tuleks üle maailma keelata arendustöö võimsate TI süsteemide juures. Koheselt tuleks välja lülitada suured GPU protsessoritel põhinevad keskused, kus võimsaid TI süsteeme arendatakse. Tuleks asuda jälgima kõigi GPU protsessorite tootmist ja müüki ning koondumist teatud piirkondades, firmades. Kui luure avastab, et kusagil tegeletakse võimsate TI süsteemide arendamisega tuleks need laborid või asutused hävitada, kas või sõjaliste löökidega sest sõja risk on väike võrreldes inimkonna huku riskiga.

Tuleks peatada kohe kõikide võimsate TI süsteemide arendus.

Shut it all down.

We are not ready. We are not on track to be significantly readier in the foreseeable future. If we go ahead on this everyone will die, including children who did not choose this and did not do anything wrong.

Ma juba alguses mainisin, et ei näe tehisintellekti uurimise olukorda nii mustade prillide läbi, pealegi ei arva et ülaltoodud meetmed oleks mingit moodi võimalik tänapäeva maailmas rakendada. Personaalselt pigem topin pea liiva alla ja ootan huviga järgmist tehisintellekti - õndsad on lihtsameelsed. Aga mis teie arvate, olete tehisintellekti arengu pärast mures või ei mõtle sellele üldse? 

Üheks Fermi paradoksi lahenduseks oleks: bioloogiline elu loob teatava arengutaseme juures tehisliku superintelligentsi, mis hävitab elu. Seetõttu pole me seni näinud mingeid maavälise elu ega tsivilisatsiooni märke kosmoses. Superintelligents on lihtsalt liiga teistsugune, me ei oskaks selle eksistentsi märke ära tunda. 

Viimane lõik jooksuteemaline. Kui arvate, et suusatamise vahele jooksmist talvel ei mahuta siis eksite. Mulle tegelt meeldib jaheda ilmaga jooksmine, kindlasti rohkem kui palavaga, pigem on tugev tuul ebameeldiv. Alla -15C ja üle +30C pole lipanud, liiga külm pidavat kopsudele halb olema ja liiga palav südamele. 

Märtsi keskel sai mul neli jooksuaastat täis, kokku olen selle ajaga üle 5000 km jooksnud. Viimased kolm aastat keskmine tempo alla 5 min/km. Esimesel aprillil oli soe, jooksin esimest korda sel aastal särgiväel lühikeste pükstega. Allolevad numbrid on vana Huawei 3 Pro põhised, teisel käel oleva uue Huawei 4 Pro distants ja seega tempo 1-2% lühem ja vastavalt aeglasem. Kasutan vana numbreid kuna Google mapi põhjal vastavad need täpsemalt tegelikkusele. 

Veebruari jooksunumbrid kujunesid järgmisteks: Kokku 103km keskmise tempoga 4:46 kilomeetri peale. Kiireim kilomeeter 4:18, viiekas 23:34, parim keskmine kiirus 4:37/km. 14 korda jooksmas. Koertega jalutamist 31 kilti. Märtsis 104km keskmise tempoga 4:47 kilomeetri peale. Kiireim kilomeeter 4:20, viiekas 23:47, parim keskmine kiirus 4:40/km. 14 korda jooksmas. Koertega jalutamist 24 kilti.

10 comments:

  1. Viimane Wired pühendab pisut sellele teemale, peamiselt küll ChatGpt valguses. Kui osa koole on USAs alustanud keelamist, siis on pedagooge, kes on osanud imelooma kenasti õppetöös rakkesse panna, koos noortega. Point oligi, et seda tüüpi vidinad peab nutikal ära kasutama, mitte keelama.
    Ma ise olen ka pigem vaatleja. Linki ei jõua otsida, ma ise loen Ebsco kaudu töövõrgus.

    ReplyDelete
    Replies
    1. Uut tehnoloogiat, mis kasutusse lastuna inimese elu lihtsamaks teeb pole kuidagi võimalik ära keelata, tuleb lihtsalt võimalikult hästi kasutama õppida.

      Delete
  2. Kuna ma olen hetkel lennupiletite kontekstis suhelnud mitme erineva AI-ga, siis momendil olen ikka väga kuri nende peale. Tore, et teksti ära tunnevad ja kenasti vastavad, aga lahendus, sõbrad.. lahendust on vaja. Ja seda nad pakkuda ei suuda.
    Aga teemasse, nõustun, et see paus aitab ainult Venemaad, Hiinat jt. Dzinni enam pudelisse ei aja, pigem tuleks võtta maksimum. Mu meelest sama mis tuumarelvaga. Aatom on hea, aatom on ka paha. Selleks, et jääks heade kätte, on vaja initsiatiiv enda kätte saada.

    ReplyDelete
    Replies
    1. Ma proovisin lennupiletite värki. ChatGPT töötas hästi aga kahjuks aegunud info. Bing (Skype) ei suutnud aru saada kuupäevadest. Anname nats aega, usutavasti juba sel aastal lähevad oluliselt paremaks ja kasutajasõbralikumaks, momendil ikka rohkem nagu beeta katsetusperiood.

      Delete
  3. Kuuldavasti AI saab kasutada raha väljapetmiseks tuttavat häält ära kasutades. Enam ei laeku postkasti meil hädas "sugulasest", vaid ta helistabki teile omaenda häälega. Ärge salvestage oma häält kusagil netis!

    ReplyDelete
    Replies
    1. Mitte ainult tuttavat häält vaid ka tuttavat nägu. Samas, kehtib reegel nagu ka tavalise pettuse korral. Sa ei usu kedagi. Võtad ise ühendust tuttava numbriga uurimaks kas tegu tõepoolest õige inimesega. Enda tuttavate korral esitad paar kontrollküsimust, tegemaks kindlaks, et autentne isik. Mul paar korda juhtunud tekstipõhiselt, esimese küsimuse peale katkestatakse side ;)

      Delete
  4. Yudkowski on mu teada sel teemal tuntud paniköör. Mul on mulje, et sellised tunded tabavad tehnokraatidest kehvade humanitaarteadmistega inimesi, kelle psüühikas on religiooniga täitmist vajav koht, nad graviteeruvad pmst teoloogiliste spekulatiivsete probleemide suunas, millega keskaja loogikud meelt lahutasid, ainult et paigutavad jumala asemele kõikvõimsa AI.

    ütlen "kehvade humanitaarteadmistega", sest oleks tal korralik humanitaarharidus, oleks ta need probleemid juba varem läbi mõelnud ja vastava paanika vastu niiviisi vaktsineeritud.

    ReplyDelete
    Replies
    1. Ei kujuta täpselt ette kuidas humanitaarharides paanika vastu aitab. Minu arust kõige parem rohi külm kalkuleeriv loogika. Kui lähebki inimkond vastu taevast, mis siis ikka. Kõik me sureme ainult üks kord, aga sureme igal juhul, pole suur vahe kas natu varem või natu hiljem. No kui just ei leiutata meetod kuidas teadvus arvutisse üles laadida😁, mida Kurzweil ennustab juhtuma 2030 paiku. Sellisel juhul saavutame hoopiski soovi korral teoreetilise surematuse😜

      Delete
    2. no need Yudkowski kõrgema klassi paanikad olidki tehisliku surematusega seotud.

      loogika asetseb reaalia ja humanitaaria piiril, filosoofia ja matemaatika kokkupuutepunktis (ja kui reaalne see matemaatikagi nüüd on).

      ja need mõttemanöövrid, millega Yudkowski hädas oli, meenutasid kangesti Canterbury Anselmi ja Aquino Thomase jumalatõestuste omi, ainult et ta ise ei teadnud ega olnud ilmselt kursis ka nende ümberlükkamistega - vaat siin oleks tal tervislik olnud, kui ta oleks neid mingis lihtsas filosoofiakursuses juba varem õppinud.

      Samamoodi olen täheldanud, et puhtreaalteadusliku haridusega humanitaarignorantidest saab väga vängeid usuhulle, sest nad on usuteemadel nii kogenematud ja naiivsed. Ise olen kohtunud ühe sellisega, teine on üks mu oma kooli õpetaja, kes minu ajal oli ülipopulaarne bioloogia- ja keemiaõpetaja, kõigi õpilaste lemmik, aga mõni aasta hiljem keeras täiesti ära.

      Delete
    3. surematus puutub asjasse nii, et pmst on nad leiutanud AI loodud põrgu ja kardavad seda, nii et "inimkond lendab vastu taevast" on nende vaates juba optimistlik unistus.

      ma vahepeal puutusin sellega servapidi kokku (samuti ühe reaalharidusega ateist-tuttava murede kaudu), seepärast olen nii kursis.

      Delete

Kõik kommentaarid ootavad modereerimist!