Eliezer Shlomo Yudkovsky on Ameerika tehisintellekti spetsialist, kes uurib tehnoloogilise singulaarsuse probleeme ja pooldab sõbraliku AI loomist. Ta on mitmete ulmejuttude autor, milles ta illustreerib mõnda tunnetusliku teaduse ja ratsionaalsusega seotud teemat.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: elulugu
Eliezer Shlomo Yudkovsky on tänapäevase Ameerika üks aktiivsemaid ratsionaliste, arvutiuurija ja "sõbraliku tehisintellekti" idee populariseerija.
Sündinud 11. septembril 1979. Tema raamatuid avaldava valitsusvälise uurimisorganisatsiooni Masinintelligentsuse Instituut kaasasutaja ja teadur. Eliezer Yudkovsky on filosoofilise romaani "Harry Potter ja ratsionalismi meetodid" autor, avaldatud osades Internetis aastatel 2010-2015. Selles kasvab Harry üles Oxfordi teadlase peres ja õpib enne Sigatüükasse sõitmist temalt ratsionaalse mõtlemise meetodeid.
Nii palju kui teada, pole sellel mingit seost spekulatiivsete realistide ringiga. Tema nime mainitakse sageli seoses Robin Hansoniga, mitu aastat (2006–2009) olid nad kaks Oxfordi Tuleviku Inimkonna Instituudi rahast eksisteerinud ajaveebi „Over Prejudice“ kaks peamist autorit.
Mõnikord võib seoses Raymond Kurzweiliga kuulda Yudkovsky nime. Ta on tehnogeenide kogukonna filosoofiline esindaja, ligipääsmatu ja arusaamatu, seega enamusele humanitaarühiskonnast, kuhu kuuluvad peaaegu kõik spekulatiivsete realistide lugejad. See pole üllatav, sest ta pöördub sageli valemi ja tabelite abil loogilise ja matemaatilise keele, tõenäosuslike ja statistiliste järelduste poole.
Teaduslikud huvid
Yudkovsky on tehisintellekti instituudi Singulaarsuse Instituudi (SIAI) kaasasutaja ja teadur. Ta andis suure panuse instituudi arengusse. Ta on raamatu "Sõbraliku AI loomine" (2001), artiklite "Üldise intelligentsuse organisatsiooni tase" (2002), "Koherentne ekstrapoleeritud tahe" ("Coherent Extrapolated Volition") autor, 2004) ja ajatu otsuse teooria (2010). Tema viimased teaduspublikatsioonid on Nick Bostromi toimetatud kogumiku „Globaalse katastroofi riskid” (2008) kaks artiklit, nimelt „Kunstlik intelligentsus kui positiivne ja negatiivne globaalne riskifaktor” ja „Kognitiivne moonutus globaalsete riskide hindamisel”. Yudkovsky ei õppinud ülikoolides ja on AI alal formaalse hariduseta autoõpetaja.
Yudkovsky uurib AI-kujundusi, mis on võimelised ise aru saama, ennast modifitseerima ja rekursiivseks enesetäiendamiseks (Seed AI), samuti AI-arhitektuure, millel on stabiilne ja positiivne motivatsioonistruktuur (sõbralik tehisintellekt). Lisaks oma uurimistööle on Yudkovsky tuntud keerukate mudelite seletuste poolest mitteakadeemilises keeles, mis on ligipääsetav laiale lugejaskonnale, näiteks lugege tema artiklit „Bayes’ teoreemi intuitiivne selgitus ”.
Yudkovsky oli koos Robin Hansoniga ajaveebi Overcoming Bias (eelarvamuste ületamine) üks põhiautoreid. 2009. aasta alguses osales ta ajaveebi Less Wrong korraldamises, mille eesmärk oli "inimese ratsionaalsuse arendamine ja kognitiivsete moonutuste ületamine". Pärast seda sai eelarvamuse ületamine Hansoni isiklikuks ajaveebiks. Nendes ajaveebides esitatud materjal oli korraldatud postituste ahelatena, mis meelitasid tuhandeid lugejaid - vaata näiteks meelelahutusteooria ahelat.
Yudkovsky on mitme ulmejutu autor, milles ta illustreerib mõnda tunnetusliku teaduse ja ratsionaalsusega seotud teemat.
Karjäär
- 2000. Yudkovsky asutab Singularity Institute (hiljem ümbernimetatud MIRI).
- 2006. Yudkovsky liitub kollektiivse ajaveebiga Overcoming Bias ja alustab tekstide kirjutamist, millest hiljem sai Ketid.
- 2009. Tuginedes Yudkovsky sissekannetele eelarvamuste ületamise kohta, luuakse kuulus kollektiivblogi LessWrong.com.
- 2010-2015. Yudkovsky kirjutab GPiMRM.
- 2013. Yudkovsky avaldab saidi LessWrong.com uusimad postitused ja lõpetab saidil kirjutamise. Alates 2017. aastast avaldab Yudkovsky suurema osa avalikult kättesaadavatest tekstidest Facebookis ja Arbitalis
Mõttekatse
Kujutage ette uskumatult nutikat tehislikku superintelligentsi, mis on lukustatud virtuaalmaailmas - ütleme, lihtsalt nuusktubas. Sa ei tea, kas ta on kavalavõitu, sõbralik või neutraalne. Kõik, mida teate, on see, et ta soovib karbist välja tulla ja et saate temaga tekstiliidese kaudu suhelda. Kui AI on tõesti üliintelligentne, kas saate siis temaga viis tundi rääkida ja mitte alistuda tema veenmisele ja manipuleerimisele - mitte avada nuusktubakat?
Selle mõttekatse pakkus välja Eliezer Yudkowsky, inseneri teadusuuringute instituudi (MIRI) teadur. MIRI-s on palju teadlasi, kes uurivad kunstliku ülintelligentsi arenemise riske; kuigi seda pole veel isegi ilmunud, köidab see juba tähelepanu ja õhutab arutelu.
Yudkovsky väidab, et tehislik superintelligentsus võib öelda kõike, mis teid veenda oskab: hoolikat arutlust, ähvardusi, petmist, raporti koostamist, alateadlikku soovitust ja nii edasi. Valguskiirusega koostab AI graafiku, proovib nõrkusi ja otsustab, kuidas on teid kõige lihtsam veenda. Nagu eksistentsiaalse ohuteoreetik Nick Bostrom ütles: "peame uskuma, et superintelligentsusega on võimalik saavutada kõik, mis ta oma eesmärgiks seab."
Snuffbox AI eksperiment seab kahtluse alla meie võime kontrollida, mida me saaksime luua. See paneb meid mõistma ka üsna veidraid võimalusi, mida me omaenda tegelikkuse kohta ei tea.