ESSÄ. Artificiell intelligens utlovar utopier – men kan leda till en dystopisk framtid med mördarrobotar och arbetslöshet. Den tekniska utvecklingen borde präglas mer av försiktighet än av hallelujastämning, menar statistikprofessorn Olle Häggström.
På Chalmers tekniska högskola, där jag arbetar, hölls i juni i år ett halvdagsmöte som samlade runt 150 av högskolans medarbetare från åtminstone ett dussin av dess olika institutioner och avdelningar. Temat var artificiell intelligens (AI), och de många och stora satsningar Chalmers nu står i begrepp att dra i gång, med hjälp av såväl egna medel som ett antal rikligt tilltagna externa anslag.
Sammanlagt handlade det om hundratals miljoner kronor, och vi som samlats i lokalen lyssnade andäktigt på den ena föredragningen efter den andra om de olika satsningarna: nya utbildningsprogram, rekrytering av såväl doktorander och forskarassistenter som internationella storstjärnor, och en ny struktur för att säkerställa att våra forskningsresultat så snabbt och smidigt som möjligt kan omsättas i nya kommersiella produkter. Väldigt lite konkret sades om vilka dessa produkter skulle kunna vara, men det gjorde inte så mycket, för alla verkade vara överens om att oavsett det så var det viktigt att vi gör så mycket som möjligt och så snabbt som möjligt.
Att påstå att en hallelujastämning rådde i lokalen vore måhända att ta till överord, men atmosfären var mycket positiv och optimistisk. Visserligen hade Sverige beklagligt nog kommit att halka efter både USA och Storbritannien och inte minst Kina i AI-utvecklingen, men nu minsann, med alla dessa satsningar, var tiden kommen för oss att ta igen förlorad mark och på allvar hävda oss i den globala kapplöpningen mot de allra bästa och kraftfullaste AI-innovationerna. Kapplöpningsmetaforen ska jag för övrigt återkomma till.
Chalmers är på intet vis något unikum i detta sammanhang. Att överblicka den globala utvecklingen är inte lätt, men det är knappast någon vågad gissning att liknande möten ägt rum eller inom kort planeras på många lärosäten – kanske hundratals – världen över. Lägg härtill det som sker i näringslivet, i allt från små startuppföretag uppbyggda kring en enskild forskningsidé till giganter som Google, Amazon och Facebook, och man kan ana att något stort är i görningen.
Jag var lite brydd över bristen på konkretion på Chalmersmötet vad gäller vilka slags framsteg och innovationer vi främst borde sikta på. AI-utvecklingens enorma samhällspotential står utom allt tvivel, och förutom tusentals nya och allt bättre appar till våra mobiltelefoner, och kraftfulla beslutsstöd inom medicinsk diagnostisering och många andra områden, kan den också komma att leda till en automatiseringsvåg som revolutionerar bransch efter bransch.
De förhoppningar som ställs till att AI-innovationer ska generera en betydande del av den förväntade ekonomiska tillväxten under det kommande årtiondet eller två är enligt min mening berättigade. Men just för att de potentiella framstegen är så mångfasetterade och kan ha så olikartade konsekvenser, så tycker jag att det är olyckligt att så lite i allmänhet sägs om vilka slags innovationer och genombrott som kan väntas berika våra liv mest och ha den största samhällsnyttan, och vilka inriktningar av AI-forskningen vi därför borde prioritera.
Vi behöver ta några djupa andetag och fundera över vilken slags framtid vi vill att AI-utvecklingen ska bidra till.
Saken ställs på sin spets av att AI-utvecklingen har potential inte bara att göra världen bättre, utan också att göra den sämre, och i värsta fall orsaka katastrof. Jag ser därför framför mig ett abstrakt landskap av möjliga framtida AI-framsteg, där det bland guld och gröna skogar även finns blindskär och livsfarliga minor (för att nu ohämmat blanda metaforer). Den anda av att vi snabbast möjligt bör göra så stora teknikframsteg som möjligt, vilken präglade såväl det Chalmersmöte jag här berättat om som den mesta annan AI-diskussion vi ser i dag, är liktydig med att blint rusa rakt fram i detta minfält, eller att köra bil med gasen i botten och ögonen enbart på hastighetsmätaren utan en tanke på vilka hinder och andra farligheter som kan finnas där ute.
Detta duger inte. Vi behöver ta några djupa andetag och fundera över vilken slags framtid vi vill att AI-utvecklingen ska bidra till, vilka riskerna är, och hur vi bör agera för att skörda de största frukterna där ute samtidigt som vi undviker de farligaste minorna.
Det här är på tok för svåra och komplexa frågor för att jag i dagsläget ska kunna ge några bestämda svar, men låt mig, i syfte att understryka situationens allvar, ägna återstoden av denna essä åt att skissera några riskscenarier. Det kommer att bli ett brett svep, från en uppsättning risker som vi står inför redan i dag och hela vägen fram till den yttersta frågeställningen: kan vi behålla kontrollen den dag AI-utvecklingen frambringat en maskin som överträffar oss människor i alla de förmågor vi förknippar med mänsklig intelligens?
Autonoma vapen är idealiska för lönnmord, folkförtryck, destabilisering av nationer och selektivt dödande av etniska grupper.
Den kanske mest uppenbara AI-risk som redan i dag står och knackar på vår dörr har att göra med utvecklingen av så kallade autonoma vapen – eller, med den något mindre artiga term jag föredrar att använda, mördarrobotar. Hur farlig denna teknikutveckling kan bli framgår av det öppna brev från 2015 med rubriken ”Autonomous Weapons: An Open Letter from AI and Robotics Researchers” som tusentals forskare världen över (även jag) skrev under, och som uppmanar till moratorium för utveckling av autonoma vapen:
Om någon av de stora militärmakterna väljer att satsa på utveckling av AI-vapen så uppstår oundvikligen en global kapprustning vars teknologiska slutpunkt är uppenbar: autonoma vapen kommer att bli framtidens kalasjnikovar. Till skillnad mot kärnvapen kräver inte dessa några kostsamma eller svårtillgängliga råvaror, och de kommer därför att bli rikligt förekommande och lätta för alla någorlunda stora länder att massproducera. Det blir bara en tidsfråga innan de dyker upp på den svarta marknaden och i händerna på terrorister, diktatorer som vill öka kontrollen över den egna befolkningen, krigsherrar med avsikt att genomföra etnisk rensning etc. Autonoma vapen är idealiska för lönnmord, folkförtryck, destabilisering av nationer och det selektiva dödandet av någon viss etnisk grupp. Vi tror av dessa skäl att en militär AI-kapprustning inte vore till gagn för mänskligheten.
Den sista meningen är givetvis en kraftig underdrift. Ändå träffar man ibland på någon som gör allt för att tona ner dessa risker. Ett exempel är kognitionsvetaren Steven Pinker, i en paneldiskussion i EU-parlamentet i Bryssel 2017 som vi båda deltog i. Han framhöll att det skulle krävas en galning för att konstruera något så hemskt som ”en svärm av robotinsekter avsedd att attackera enskilda människor baserat på ansiktsigenkänning”, och att det i dag inte längre finns utrymme för sådana enstaka galningar eftersom alla betydande ingenjörsprojekt numera genomförs i stora samarbeten.
Pinkers optimism på denna punkt är dess värre grundlös, då han ju helt ignorerar den inre logiken i kapprustningar och det militärindustriella komplexet. Han förbiser också att minst lika hemska massförstörelsevapen har utvecklats i över 70 års tid – inte av ensamma galningar, utan just i stora samarbetsprojekt (varav Manhattanprojektet är det mest kända). Varför skulle allt sådant utvecklingsarbete plötsligt upphöra av sig självt? Faran med en militär AI-kapprustning är verklig och något vi behöver förhålla oss till.
Problemet kompliceras av att många av de teknikframsteg som är aktuella på detta område handlar om så kallade dual-use technologies – tekniker som går att använda både för att berika våra liv och för att skapa död och förintelse. Hur är det exempelvis med postorderjätten Amazons projekt att utveckla ett system för drönarbaserad leverans av bokpaket? Det är inte helt uppenbart att det går att utveckla en sådan teknik med egenskapen att den inte enkelt kan omprogrammeras för att till en given adress leverera bomber i stället för bokpaket. Om det inte går att förhindra sådan omprogrammering finns risken att tekniken får katastrofala samhällskonsekvenser.
Det finns också risker med helt andra slags AI-teknologier. Ett exempel är AI-baserad bildbehandling, som redan i dag är av stort värde inom exempelvis filmindustrin. Att denna teknik också har en baksida stod klart i slutet av 2017 då en internetanvändare med pseudonymen Deepfakes publicerade en uppsättning pornografiska videoklipp som felaktigt men mycket realistiskt gav intryck av att visa några av världens mest kända skådespelerskor. Klippen var gjorda med AI-teknik för så kallad face swap, där en persons ansikte kan bytas mot en annans. I början av 2018 släpptes en app som låter vem som helst göra samma sak, och det återstår att se om följden blir en våg av hämndporr och andra skadliga tillämpningar.
Artificiell intelligens kan leda till teknologisk arbetslöshet.
Den som vill blunda för problemet kan här anföra att det nog löser sig självt då ju teknikens tillgänglighet gör att den som utsätts för hämndporr kan hävda att det rör sig om förfalskningar. Men om det är riktigt, hur går det då med videobevis i rättegångar? Och vad gör tekniken med vår förmåga att mönstra ut fake news från nyhetsrapportering? Problemen hopar sig.
Ett problem som troligen är av något mer långsiktig karaktär rör AI-utvecklingens konsekvenser för arbetsmarknad och ekonomisk ojämlikhet. Frågan aktualiseras av att en stor del av de AI-framsteg som kan väntas handlar om att skapa maskiner som kan ta över arbetsuppgifter från oss människor och utföra dem snabbare, bättre och billigare än vi själva förmår. Ett sådant övertagande innebär att löneinkomster (för den som tidigare gjorde arbetet) ersätts med avkastning på kapital (för den som äger maskinen), och eftersom kapitalinkomster är ojämnare fördelade än löneinkomster kan detta väntas driva på den ekonomiska ojämlikheten.
Nära relaterad är frågan om huruvida AI-utvecklingen kan väntas leda till så kallad teknologisk arbetslöshet, alltså arbetslöshet orsakad av rationalisering till följd av tekniska framsteg. Att människors arbetsuppgifter övergår till maskiner är förvisso inget nytt fenomen och vi kan ta det svenska jordbruket som exempel: till följd av teknikdriven effektivisering har dess andel av den svenska arbetskraften minskat från cirka 75 procent vid mitten av 1800-talet till cirka 3 procent i dag. De 72 procent som lämnade jordbruket hamnade dock inte alla i arbetslöshet, utan de gick mestadels till andra sektorer (inledningsvis främst industrisektorn, därefter allt mer till tjänstesektorn).
Exemplet illustrerar att arbetslösheten, även om den varierat i takt med ekonomins konjunktursvängningar, över längre tidsperioder inte skenat, trots teknikutvecklingen. Huruvida detta – att arbetskraften hittar anställningar i nya sektorer i ungefär samma takt som de rationaliseras bort från gamla – kommer att bestå är inte alls givet. Vi står nämligen inför ett antal nya omständigheter, som att det i dag inte längre bara är fysiska och manuella arbetsuppgifter som automatiseras bort, utan även intellektuella (ett ofta citerat exempel är automatiserad journalistik). Att vi i evighet ska kunna hitta nya arbetsuppgifter där den mänskliga förmågan överstiger maskinernas är på intet vis självklart.
Ibland påstås att vår räddning från att bli utkonkurrerade skulle bestå i att kombinationen människa plus maskin alltid är bättre än maskinen ensam. Den tankegången håller dess värre inte, ty om maskinens överlägsenhet på något område blir tillräckligt stor blir människans bidrag betydelselöst. Som min matematikerkollega Johan Wästlund påpekat: ett X2000-tåg blir inte märkbart snabbare om en människa med handkraft hjälper till att putta på.
Ett samhälle med 100 procent arbetslöshet är i viss mening jämlikt, men hur ska ett sådant samhälle organiseras?
Man kan givetvis ifrågasätta om den teknologiska arbetslösheten i grunden är något dåligt. Lönearbete kanske trots allt inte är livets mening? Det går att hävda att det vore bra om vi befriades från detta, för att i stället ägna oss åt konst, kultur, kärlek och förströelse. Ett samhälle med 100 procent arbetslöshet är i viss mening jämlikt, men svåra frågor uppstår om hur ett sådant samhälle kan organiseras. Om det är dit vi vill så behöver vi också ha en fungerande plan för vägen dit, vilken rimligtvis går via arbetslöshetsnivåer på 20 procent, 50 procent och 90 procent. Hur kan vi passera sådana övergångsstadier utan att vidga de ekonomiska klyftorna ofantligt och utan att skapa social instabilitet? Medborgarlön kan tänkas vara med som en del av lösningen, men som helhet har vi inte några tydliga svar i dag.
Det vore troligen förhastat att betrakta dagens arbetslöshetssiffror som början på en eskalerande teknologisk arbetslöshet. Läget kan dock komma att förändras snabbt. Utvecklingen av självkörande bilar kan på bara ett par decenniers sikt väntas leda till en strukturomvandling där många miljoner buss-, taxi- och lastbilschaufförer världen över förlorar sina arbeten i något som kan bli en närmast fullständig utradering av en hel arbetsmarknadssektor.
Liknande omställningar kan komma snabbt i en rad andra sektorer, varav textilindustrin är en. Den har hittills varit mycket personalintensiv till följd av att det varit svårt att utveckla industrirobotar som förmår hantera mjuka material, något som AI-metoder de allra senaste åren dock kommit att ändra på. Följden kan komma att bli en snabb automatisering av textilindustrin, så att de ekonomiska incitamenten för klädföretag i väst att förlägga produktionen till låglöneländer försvinner. Om den då flyttas hem blir konsekvenserna svåra för en rad länders ekonomier.
AI-forskningens ultimata vision: skapandet av en artificiell generell intelligens (AGI)
Jag har sparat AI-forskningens ultimata vision till sist – skapandet av en artificiell generell intelligens (AGI), det vill säga en maskin vars intelligens matchar eller överstiger människans över hela spektret av relevanta kognitiva förmågor inklusive kreativitet och förmåga att tänka utanför boxen. Den stora merparten av all AI-forskning i dag handlar om att skapa AI avsedd att lösa någon snävt avgränsad specifik uppgift, som att vinna i schack eller att på ett säkert vis framföra en bil i tät stadstrafik, men vid sidan om sådan specialiserad AI finns också en rad projekt vars långsiktiga syfte är att skapa AGI.
Oenigheten bland AI-forskare angående när – om någonsin – ett AGI-genombrott är att vänta är stor. De undersökningar som gjorts visar att de sprider sina uppskattningar relativt jämnt över hela det innevarande århundradet och en del tror att ett genombrott kommer att dröja ännu längre tid, medan åter andra hävdar att det aldrig kommer att gå. I ett sådant läge gör vi klokt i att bereda oss på alla möjligheter.
Oenigheten är stor också vad gäller följderna av ett sådant genombrott, men en ganska vanlig uppfattning bland AI-futurologer är att ett AGI-genombrott snabbt kan trigga i gång en accelererande självförbättringsspiral som mycket snabbt leder till en AGI med superintelligens, i betydelsen en intelligens som lämnat människans långt bakom sig i fråga om samtliga relevanta kognitiva förmågor. Denna snabba (men än så länge hypotetiska) dynamik har omväxlande benämnts singularitet och intelligensexplosion.
I en klassisk uppsats från 1951 diskuterade datavetenskapens fader Alan Turing på fullt allvar möjligheten av en framtida superintelligent maskin. Det skulle dock dröja ända till 2005 och Silicon Valley-visionären Ray Kurzweils bok The Singularity is Near innan tanken vann någorlunda brett intresse inte bara i science fiction-litteraturen, utan också bland forskare. Den starkt optimistiske Kurzweil beskriver genombrottet för superintelligens som det avgörande steg som ska hjälpa oss människor att befria oss från våra skröpliga kroppar och ge oss allt vi kan önska, inklusive erövrandet av världsrymden.
Därefter har diskussionen till stor del kommit att skifta karaktär – bort från Kurzweils evangeliska tonfall och mot en mer balanserad syn och ökad medvetenhet om att ett AI-genombrott kan ha betydande risker, inklusive risk för total utplåning av mänskligheten.
Denna kapplöpningslogik kan leda till att AGI-genombrott resulterar i global katastrof.
Redan Turing insåg att när väl en superintelligent AGI är på plats och vi människor alltså inte längre är de intelligentaste varelserna på vår planet så kommer vi antagligen inte längre att kunna behålla kontrollen. Vårt öde kommer därför att vila i maskinernas händer och allt hänger då på vilka drivkrafter och mål maskinerna har.
Ett lite karikatyrartat men ofta citerat exempel är det så kallade Paperclip Armageddon, där det stora AGI-genombrott som triggar intelligensexplosionen sker med en maskin som är satt att sköta en gemfabrik och som därför har maximering av gemproduktion som mål. När maskinen nått superintelligensnivå skrider den raskt till verket med att omvandla all materia på vår planet – inklusive oss människor – till en jättelik hög med gem.
Det huvudsakliga sätt som föreslagits för att säkerställa att ett AGI-genombrott får goda konsekvenser är att på något vis se till att den första superintelligenta AGI:n har värderingar och mål som prioriterar mänsklig välfärd och även i övrigt är i samklang med goda mänskliga värderingar – vad som nu menas med sådana. Detta projekt har tidigare kallats friendly AI men benämns numera AI alignment. Det anses av flera skäl vara mycket svårt.
Ett skäl är det som alla programmerare känner till: när vi programmerar tenderar vi att göra fel, och när en diskrepans föreligger mellan vad vi programmerat och vad vi egentligen menade så blir det förstnämnda styrande. Ett annat skäl ligger i den grundläggande instabilitet som verkar föreligga, och som innebär att till synes små avvikelser från de mål vi avser kan ha katastrofala konsekvenser.
Det gäller också att vara noggrann med valet av mål: ett förmånligt klingande mål som ”maximera mängden välbefinnande minus lidande i världen” skulle måhända få i någon mening gynnsamma konsekvenser för universum, men skulle troligen också leda till mänsklighetens utplåning, då ju våra kroppar och hjärnor rimligtvis är mycket långt ifrån optimala när det gäller att maximera mängden välbefinnande per kilogram materia.
Vi behöver tagga ner en smula.
Och som om inte dessa svårigheter vore nog, kan situationen förvärras av det slags kapplöpningstänkande som präglade det Chalmersmöte jag berättade om i början av denna text och som är så vanligt i retoriken kring AI-satsningar. Om två eller flera intressenter (företag eller nationer) tävlar om att bli först med att skapa en superintelligens, så kommer den som väljer att försöka lösa både superintelligens- och AI alignment-problemen att stå inför en svårare uppgift än den som nöjer sig med att enbart skapa en superintelligens, och kan därför hamna på efterkälken.
Denna kapplöpningslogik riskerar därmed att leda till att AI alignment nedprioriteras och därmed till en ökad risk att ett AGI-genombrott resulterar i global katastrof. Vi behöver tagga ner en smula, tänka mer långsiktigt och agera med en högre grad av ansvarstagande än vad som hittills varit brukligt på AI-området.
***
Följ Arena Essä på Facebook
Följ Dagens Arena på Facebook och Twitter, och prenumerera på vårt nyhetsbrev för att ta del av granskande journalistik, nyheter, opinion och fördjupning.