09 juni 2013

En bättre anledning till att maskinerna utrotar människan

Att superintelligenta maskiner får för sig att utrota mänskligheten är en vanlig premiss i science fiction och singularitetsspekulationer. Jag har alltid tyckt att motivationen haltar. Det finns ju ingen motsättning och ingen fiendskap mellan människor och maskiner. De är våra vänner, eller mer korrekt, de är vi: ickeorganiska utväxter av den mänskliga naturen.

De minst orimliga anledningarna handlar om att man av misstag skulle ha inplanterat idén i maskinerna att de bör utöka sin beräkningskapacitet till varje pris, och att de därför sätter igång att omvandla all materia till beräkningsmaskiner. Men det låter för mig lite väl klantigt att låta den processen fortgå så långt att den blir ett verkligt hot. Förvisso möjligt, man kan se det som ett sorts AI-baserat virus, men att just detta virus skulle få oåterkalleligt fäste förefaller mig osannolikt. Då skulle jag sätta oddsen lägre för rent biologiska virus.

Men, jag kom på ett nytt scenario som förklarar varför maskinerna skulle ta sig för att utplåna mänskligheten, som jag härmed vill donera till världens science fiction-författarkollektiv. Så här:

Efter en serie förödande krig mot terrorismen eller andra uttryck för galenskap och ondska, har den centrala makten över en stor del jordens resurser fallit i händerna på en grupp Goda Människor. De inser förstås att det är ofrånkomligt att de ganska snart förlorar makten igen, men kommer på en idén för hur de kan permanenta det goda styret. Idén är att överföra makten till ett stort kraftfullt datorsystem, i vilket man inpräntat Goda Etiska Regler på ett sätt som gör dem omöjliga att bryta mot. Systemet ska vara så smart att det aldrig tillåter någon ondskefull tyrann att gå emot det, oavsett om hen har militären och folkviljan med sig.

För att programmera systemet anställer man planetens mest framstående moralfilosofer. De tar fram en mängd etiska regler som systemet har att följa. Som en den allra högsta regeln, med högre prioritet än alla andra, sätter man att mänskligt lidande ska minimeras.

Maskinen slås på, och räknar omedelbart ut att alla andra regler är ovidkommande ifall den bara lyckas permanent eliminera allt mänskligt lidande. Att eliminera mänskligt lidande förefaller ganska enkelt, nämligen genom att man eliminerar människorna. Följaktligen sätter den igång att utrota mänskligheten.



Jag inser förstås att det här scenariot har små chanser att lyckas i Hollywood eller litteraturen. Det hör nämligen till grundpremisserna att det normalt är ingenjörer eller naturvetare som orsakar undergången genom sin ondska och aningslöshet. Humanister som moralfilosofer förutsätts vara good guys, för att inte orsaka identitetskris hos författarna antar jag.

Men en del moralfilosofer tar, tycker jag mig ha uppfattat, just önskan att minimera lidande (kanske inte ens bara mänskligt lidande), som ett grundaxiom. Jag vet inte om det innebär att de tycker att det vore en bra idé att utplåna allt levande, men det borde göra det för att vara helt logiskt. Och det i sin tur är för mig ett tydligt argument för att etik och moral har, och bör ha, vagare och mjukare grunder än axiom och logik.


0 comments: