Tehisaruga robot biorelva sünteesimas |
Esimese inimtekkelise ohuna tuleb muidugi pähe tuumarelvastus ja sellega kaasnev globaalne tuumasõda. On küll ohtlik ja suure tõenäosusega võimeline hävitama riike ning kehtivat maailmakorda paisates ühiskonna aastakümneid või isegi sajandeid arengus tagasi aga inimest kui liiki suudaks vaevalt hävitada. Minu arust on palju ohtlikum AI abil mikrobioloogia tormilise arenguga seotud bioloogiline relv. Just AI võimaldab tohutult kiirendada igasugu viiruste ja bakterite võimalike mutatsioonide analüüsi, geenitehnoloogia omakorda aitab tehisaru poolt väljamõeldud variante laboris luua ja neid teoreetiliselt katsetada. Eelmise sajandi alguse õudusunenägu keemiarelva pean neist kolmest kõige vähemohtlikumaks ehkki AI abil on ilmselt võimalik nii toksilisust oluliselt tõsta kui vastumürke luua. Inimese kui liigi säilimise koha pealt on siiski neist kõige ohtlikum bioloogiline relv. Kogu planeerimise ja väljatöötamise juures pole võimalik kõike kontrollida, eriti juhuslikke mutatsioone.
Just viimase paari aasta jooksul on tehisaru arendamisega tehtud ülikiireid edusamme. Olemata spets kipun arvama, et tegelikult tuleneb just siit kõige suurem oht. Ma ei arva, et millalgi (kümmekonna aasta jooksul) tekkiv taibukas tehisaru põhineks praegustel LLM mudelitel. Need tunduvad olevat lihtsalt olemasolevat arvutusvõimsust ja infot kasutavad tarkvara programmid mis simuleerivad (suht hästi sealjuures) loogilist mõtlemist, kuid sellele vaatamata puudub neil sisuline arusaamine. Natuke nagu tublid koolilastest oivikud, kes võimelised valemeid, teoreeme ja tõestusi pähe tuupima, kuid kes keeruliste seoste puhul jänni jäävad. Tean küll, et nende esitatud lahenduskäigud on juba praegu päris ilusti põhjendatud kuid aegajalt tekivad isegi suht lihtsate ülesannete puhul sisse elementaarsed vead.
LLM "tarkus" põhineb meeletul infohulgal ja selle läbitöötamisel (treenimisel) leidmaks parimad vasted. Kõige keerulisem tundub olevat treenimiseks kasutatava info kvaliteedi hindamine alates puhttehnilistest aspektidest ja lõpetades faktiga, et suur osa internetis leiduvast on kas rämps või mis veel hullem, osavalt loodud libainfo. Kuidas suudab AI sõklate hulgast tera leida? Tehisaru on just nii tark ja nii kallutatud kui tema treenimiseks kasutatav info - siin tekib huvitav paralleel ajupestud inimesega. Erinevuseks asjaolu, et tehisaru võimalik uue infoga kiirelt ümber treenida samas kui lamemaalast praktiliselt võimatu. Põhjuseks inimese pime usk ja uue info hindamine läbi räigelt kallutatud veendumuste filtri. Selle koha pealt AI eeliseks võime uut infot näha ilma "eelarvamuseta" või vähemalt eelarvamused klahvivajutusega kustutada.
Täiesti lambist pakuksin, et puhtalt infoga (tekst, graafilised ja audiofailid, videod, ...) treenides väga raske või pea võimatu tehisintellekti "oma peaga mõtlema" koolitada. Selleks oleks vaja lisada sensorvõime - mida laiemas diapasoonis (gammakiirgusest raadiolaineteni) seda parem. Inimene on siinkohal väga piiratud oma ülikitsa elektromagnetilise laineriba ja akustilise kuuldesagedusega. Kui puutetundlikkus on AI'le ja robotile oluline siis lõhnameel vähetähtis ja maitsemeel praktiliselt mittevajalik. Massiivne infohulk pluss sensorvõime aitaks tehisarul luua "maailmapildi" mille korrektsuse kontrollimiseks ta saaks kasutada nii enda sensorvõimekust kui tellida katseid. Huvitav muidugi mis tal pähe tuleb kui äkki mõistab, et seesamune intellektuaalsetest imbetsillidest koosnev inimsipelgakari on ta loonud😏
Ehk siis kõige suurem oht inimkonnale on inimene😜 Mõelge kaasa, kes viitsib😉
Just lugesin, haakub teemaga: https://tartu.postimees.ee/8015845/intervjuu-marju-lauristin-inimene-peab-tehisarule-vastuseismiseks-metsa-minema
ReplyDeleteMaksumüüri taga teine, mul vaid delfi ligipääs.
DeleteSuurt ohtu inimkonnale kujutavad need tegelased https://youtu.be/z85L4Iy4N1Y?si=uUgH7Q9q6hgzs36Z
ReplyDelete