Eliezer Shlomo Yudkovsky er en amerikansk specialist i kunstig intelligens, der studerer problemerne med teknologisk singularitet og går ind for oprettelsen af Friendly AI. Han er forfatter til flere science fiction-historier, hvor han illustrerer nogle emner relateret til kognitiv videnskab og rationalitet.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografi
Eliezer Shlomo Yudkovsky er en af de mest aktive rationalister i det moderne Amerika, en computerforsker og populariserer ideen om "venlig kunstig intelligens."
Født 11. september 1979. Medstifter og forsker ved den ikke-statslige forskningsorganisation Institute for Research on Machine Intelligence, der udgiver hans bøger. Eliezer Yudkovsky er forfatteren af den filosofiske roman Harry Potter and the Methods of Rationalism, der blev offentliggjort i dele på Internettet mellem 2010 og 2015. I det vokser Harry op i familien af en Oxford-videnskabsmand, og inden han rejser til Hogwarts, lærer han metoderne til rationel tænkning.
Så vidt vides har det ingen forbindelse med cirklen af "spekulative realister". Hans navn nævnes ofte i forbindelse med Robin Hanson, i adskillige år (fra 2006 til 2009) var de de to hovedforfattere af bloggen "Overcoming the Prejudice", der eksisterede på penge fra Institute for Future Humanity i Oxford.
Nogle gange kan navnet på Yudkovsky høres i forbindelse med Raymond Kurzweil. Han er en filosoferende repræsentant for samfundet af teknik-geeks, utilgængelig og uforståelig, således for størstedelen af den humanitære offentlighed, som næsten alle læsere af spekulative realister hører til. Det er ikke overraskende, fordi han ofte henvender sig til det logiske og matematiske sprog, sandsynlige og statistiske konklusioner, der er udsat ved hjælp af formler og tabeller.
Videnskabelige interesser
Yudkovsky er medstifter og forsker ved Singularity Institute for Artificial Intelligence Institute (SIAI). Han gav et stort bidrag til udviklingen af instituttet. Han er forfatter til bogen "Oprettelse af venlig AI" (2001), artiklerne "Levels of Organization in General Intelligence" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition", 2004) og The Timeless Decision Theory (2010). Hans seneste videnskabelige publikationer er to artikler i samlingen ”Risks of a global catastrophe” (2008) redigeret af Nick Bostrom, nemlig ”Kunstig intelligens som en positiv og negativ global risikofaktor” og ”Kognitiv forvrængning i vurdering af globale risici”. Yudkovsky studerede ikke på universiteter og er en autodidakt uden formel uddannelse inden for AI-området.
Yudkovsky udforsker AI-design, der er i stand til selvforståelse, selvmodifikation og rekursiv selvforbedring (Seed AI), samt AI-arkitekturer, der vil have en stabil og positiv motivationsstruktur (Friendly Artificial Intelligence). Ud over sit forskningsarbejde er Yudkovsky kendt for sine forklaringer på komplekse modeller på et ikke-akademisk sprog, der er tilgængeligt for en bred læserkreds, se f.eks. Hans artikel "En intuitiv forklaring af Bayes 'sætning".
Yudkovsky var sammen med Robin Hanson en af hovedforfatterne af bloggen Overvinde Bias (overvinde fordomme). I begyndelsen af 2009 deltog han i organiseringen af bloggen Less Wrong, med det formål at "udvikle menneskelig rationalitet og overvinde kognitive forvrængninger." Derefter blev Overcoming Bias Hansons personlige blog. Det materiale, der blev præsenteret på disse blogs, var organiseret som kæder af indlæg, der tiltrækkede tusinder af læsere - se f.eks. Underholdningsteorikæden.
Yudkovsky er forfatter til flere science fiction-historier, hvor han illustrerer nogle emner relateret til kognitiv videnskab og rationalitet.
karriere
- 2000. Yudkovsky grundlagde Singularity Institute (senere omdøbt til MIRI).
- 2006. Yudkovsky slutter sig til den kollektive blog overvinder Bias og begynder at skrive tekster, der senere blev kæder.
- 2009. Baseret på Yudkovskys poster om Overvinde bias oprettes den berømte kollektive blog LessWrong.com.
- 2010-2015. Yudkovsky skriver GPiMRM.
- 2013. Yudkovsky offentliggør de seneste indlæg på LessWrong.com og holder op med at skrive på sitet. Fra 2017 offentliggør Yudkovsky de fleste af de offentligt tilgængelige tekster på Facebook og Arbital
Tankeeksperiment
Forestil dig en utrolig smart kunstig superintelligens, der er låst i en virtuel verden - sig bare i en snusboks. Du ved ikke, om han vil være slem, venlig eller neutral. Alt hvad du ved er, at han ønsker at komme ud af kassen, og at du kan interagere med ham gennem en tekstgrænseflade. Hvis AI virkelig er superintelligent, kan du tale med ham i fem timer og ikke bukke under for hans overtalelse og manipulation - ikke for at åbne snusboksen?
Dette tankeeksperiment blev foreslået af Eliezer Yudkowsky, en forsker ved Engineering Research Institute of Engineering (MIRI). MIRI har mange forskere, der undersøger risikoen for at udvikle kunstig superintelligens; selvom det ikke engang er dukket op endnu, tiltrækker det allerede opmærksomhed og brændstof til en debat.
Yudkovsky hævder, at kunstig superintelligens kan sige alt, hvad det kan for at overbevise dig: omhyggelig resonnement, trusler, bedrag, opbygning af rapport, underbevidst forslag og så videre. Med lysets hastighed bygger AI et plot, sonderer svagheder og bestemmer, hvordan det er mest let at overbevise dig. Som den eksistentielle trusselteoretiker Nick Bostrom udtrykte det, "må vi tro, at superintelligens kan nå alt, hvad det sætter som sit mål."
AI-eksperimentet med snuffbox rejser tvivl om vores evne til at kontrollere, hvad vi kunne skabe. Det får os også til at forstå de temmelig bisarre muligheder for, hvad vi ikke ved om vores egen virkelighed.