Algoritmer med det goda i människan
Smarta maskiner är det kanske största hotet mot mänskligheten. En svensk filosof vid Oxford varnar för robotar som inser att människor är ett problem som måste elimineras.
Artificiell intelligens
Artificiell intelligens, AI, har varit på tapeten i decennier, men efter många tjuvstarter verkar det som om maskinerna snabbt är på väg mot nästa nivå. AI innebär alltså att maskinerna utrustas med kognitiva egenskaper som hittills varit förbehållna människan. "Svagt" AI, det vill säga datorer som kan utföra specifika intelligenta uppgifter lika bra som eller bättre än människan, är redan här. Människan förlorar mot avancerad mjukvara i schack, flyglandningar, Jeopardy och biltävlingar på bana. Däremot låter "starkt" AI vänta på sig, alltså maskiner som behärskar hela skalan av mänsklig intelligens.
Smarta maskiner har varit en del av science fiction-kulturen redan länge med filmer som Terminator och 2001 – ett rymdäventyr. Där populärvetenskapliga futurister talar om genombrott inom ett eller två decennier menar andra att det kan ta hundratals år innan maskinerna kan tänka och agera som människor. Expertenkäter visar att 50 procent tror att vi har maskiner med intelligens på mänsklig nivå 2050 och 90 procent är övertygade om att det skett senast 2100.
Den svenska filosofen Nick Bostrom, professor i praktisk etik vid universitetet i Oxford, tar inte ställning till när intelligensexplosionen sker utan går i stället igenom på vilka sätt smarta maskiner utvecklas.
Vår uppfattning om dum och smart blir "trivial" när vi jämför mänskligt intellekt och superintelligens, noterar han. Vad betyder det att en maskin har ett IQ på 6 455? I stället funderar Bostrom igenom vad det innebär att leva i en värld med superintelligens där mänskligheten tagit sig förbi sina biologiska begränsningar med hjälp av maskiner. Är dessa maskiner vänligt inställda till människor eller inte och hur uppfattar de för oss centrala frågor som planetens överlevnad? Klart är att deras intelligens saknar personlighet och att de knappast bryr sig om existentiella frågor eller moral.
Slutsatserna är oroväckande. Om något årtionde kommer maskinerna att vara överlägsna människan i intelligens. Människan har förstås en avgörande inverkan i inledningsskedet eftersom maskinerna måste programmeras, men med tiden utvecklas de av egen kraft. Den ökade automatiseringen av centrala samhällsfunktioner är redan nu på väg att skapa enorma systemrisker där ett enda mänskligt misstag kan få oanade konsekvenser. Maskinernas inbyggda optimiseringsalgoritm kan till exempel föra AI till slutsatsen att människan är ett utvecklingshinder som måste elimineras.
Nick Bostrom är en ledande auktoritet på existentiella risker och anser att vi ägnar för mycket tid åt att fundera på hotbilder som inte är avgörande för mänsklighetens överlevnad. Klimatuppvärmning, ebola eller kärnvapenkrig kan inte utplåna mänskligt liv, men det kan smarta maskiner.
Boken kräver mycket av läsaren. Nick Bostroms bruk av språk och termer från moralfilosofin får mig att gång på gång fundera på vad han egentligen avser. Jag fastnar till exempel på begreppet indirect normativity. Det står för processer som definierar hur vi tar oss till det vi är ute efter, i det här fallet hur vi garanterar att maskinerna programmeras att ta fram det bästa hos mänskligheten.
En enklare introduktion till artificiell intelligens är Erik Brynjolfssons och Andrew McAfees The Second Machine Age (2014, recenserad här tidigare i år) som visserligen också varnar för riskerna, men slutar med en mer positiv knorr. Deras utopiska version av framtiden betonar hur människor och tänkande maskiner arbetar tillsammans. I dystopiska framtidsvisioner som Nick Bostroms riskerar människan att hamna i krig med sin skapelse och förlorar med största sannolikhet den kampen. Hans rekommendation är strategiska analyser, bättre kapacitet för att bättre förstå AI – och att folk förbereder sig på ett liv utanför jorden som garanti för människorasens överlevnad.