Artificiell intelligens har snabbt gått från fluffig dröm till konkreta verktyg i vår vardag. Kanske alltför snabbt. Riskerna är stora om vi ger världens största företag fria tyglar i kapplöpningen om vem som kan tjäna mest pengar på AI, skriver German Bender.
Vilket är det bästa sättet att utveckla artificiell intelligens? Den frågan har länge varit teoretisk, men håller nu snabbt på att bli högst konkret. Vi ser i realtid hur två helt olika mekanismer utspelar sig framför våra ögon.
Den ena är kapplöpningen mellan globala techjättar som inleddes med lanseringen av det Microsoft-finansierade ChatGPT och nu i dagarna bemötts med utlovade lanseringar av liknande system från Google och kinesiska Baidu. I det här fallet är marknaden den mekanism som driver företagen att snabbt utveckla teknik och fatta beslut som de kanske borde – och helst skulle vilja – vänta med.
Den andra är EU:s pågående process för att reglera artificiell intelligens, framför allt genom det omfattande lagstiftningspaketet AI Act och därtill kopplade standarder som ska reglera AI-system enligt fyra risknivåer: oacceptabla, hög risk, begränsad risk och minimal eller ingen risk. Här är mekanismen politisk och uttrycks genom lagstiftning och andra former av reglering.
Systemet är åtkomligt från hela världen och kommer sannolikt att spridas snabbt
I det större perspektivet har marknaden hittills varit den klart dominerande mekanismen (visserligen ofta understödd av statliga investeringar och stöd till forskning och företagande). AI utvecklas snabbt och det är svårt för länders demokratiska institutioner att hänga med. Dessutom har reglering av AI visat sig vara oerhört svårt, både juridiskt och tekniskt.
Frågan är dessutom hur stort inflytande enskilda länder kan ha, därför är förhoppningen att en snabbt framtagen EU-reglering skulle kunna få en normerande effekt på världsmarknaden. Men det är högst osäkert om så är fallet.
Exemplet med ChatGPT illustrerar några av svårigheterna – och riskerna.
Systemet är åtkomligt från hela världen och kommer sannolikt att spridas snabbt när Microsoft implementerar det i sina många produkter och dessutom låter andra företag göra detsamma. Liknande spridningseffekter följer sannolikt av Googles och Baidus system.
I det senare fallet tillkommer dessutom ytterligare en svårighet, nämligen den kinesiska regeringens tydliga ambition att använda AI-teknik för repression och övervakning. Att man skulle anpassa sig efter EU-regler är vare sig troligt eller nödvändigt, den inhemska marknaden i landet är stor nog för att kinesisk AI ska kunna utvecklas snabbt och enligt helt andra regler.
Även riskerna är stora. I Baidus fall är den mest uppenbara att tekniken kan användas av Kinas totalitära stat. När det gäller ChatGPT är risken att marknadskrafterna bidrar till att för tidigt och för snabbt sprida en teknik som företagen själva förstår väldigt lite av och berättar väldigt lite om.
Dessutom förändras tekniken ständigt. ChatGPT kunde vid lanseringen uttrycka sig på mänsklig nivå i skrift, men knappt räkna på lågstadienivå. Den förmågan har blivit avsevärt förbättrad. I början kunde ChatGPT kommunicera (förvånande väl) på svenska, men i skrivande stund meddelar systemet att det inte längre har den förmågan. Möjligen kan den nu, när du läser detta, återigen uttrycka sig på svenska.
Sedan lanseringen har det också förekommit mängder av exempel på hur användare lyckats “lura” ChatGPT att ge svar som det först meddelar att det inte är kapabel till, till exempel ge recept på tillverkning av droger eller sprängmedel, eller att uttrycka sig rasistiskt.
Varför uppvisar ChatGPT detta oförutsedda och motsägelsefulla “beteende”? Ingen vet och bolaget bakom tekniken, OpenAI, är knappast så öppna med information som deras namn antyder. Om man frågar systemet svarar det kryptiskt att “som en AI-modell tränad av OpenAI är jag ständigt under utveckling och förbättring”.
Personligen tror jag att vi behöver en kombination av marknad och reglering
Det tycks alltså mycket svårt till och med för systemets skapare att reglera dess användning och funktionssätt. Och därmed potentiellt riskabelt att släppa det lös på marknaden. Detsamma gäller förmodligen andra lika – eller mer – komplexa system med potentiellt allvarligare konsekvenser som vi inte kan förutse.
Vissa forskare har pekat på riskerna med en okontrollerad och alltför snabb AI-utveckling. Den amerikanske nobelpristippade ekonomen Daron Acemoglu har varnat för att en alltför snabb utveckling utan en rad motvägande välfärds- och arbetsmarknadsreformer kan spä på ojämlikhet, urholka demokratin och leda till ökad polarisering.
Den svenske matematikern och framtidsforskaren Olle Häggström har länge skrivit om de så kallade existentiella riskerna med artificiell intelligens, som rör alltifrån autonoma vapensystem till övervakning och en framtid där maskinerna kort och gott tar över världen. Han tycks inte heller vara särskilt förtjust över lanseringen av ChatGPT, även om han mest tycks se det som varnande exempel på hur svår det kommer bli att kontrollera ännu mer kapabla system.
Andra debattörer menar att reglering av AI riskerar att hämma teknisk utveckling och lämna EU på efterkälken när USA och Kina kan ta snabbare kliv genom att vara mindre nogräknade med lagstiftning, industristandarder och etiska riktlinjer.
Personligen tror jag att vi behöver en kombination av marknad och reglering, men i dagsläget förefaller det uppenbart att vi länge haft för mycket av det första och för lite av det andra. Marknadsmekanismerna motverkar inte så kallade negativa externaliteter i tillräckligt hög grad, de klarar inte att fördela värdet som tekniken skapar på ett jämlikt sätt, de beaktar inte andra värden än rent ekonomiska, och de bidrar alltför sällan till tekniska lösningar som gynnar samhället i vid mening.
Kanske behöver vi under en tid helt stoppa vissa typer av system, tills vi bättre förstått dem. Det skulle troligen kräva omfattande kommunikationsinsatser och demokratisk förankring, för att människor inte ska betrakta EU som en byråkratisk koloss som gör det svårare för dem att använda internet (precis detta hände med GDPR, en i huvudsak bespottad lag som i själva verket har väldigt många positiva sidor).
Det kan låta hopplöst, men EU:s inflytande ska inte underskattas; en marknad bestående av 500 miljoner människor med relativt sett hyggliga inkomster är inte obetydlig. EU:s initiativ har varit en bidragande orsak till att det runtom i världen – även i USA – nu finns en mängd exempel på processer för att på olika sätt reglera AI.
Om vi ska få mer och bättre AI behöver vi mer och bättre reglering.
German Bender
Följ Dagens Arena på Facebook och Twitter, och prenumerera på vårt nyhetsbrev för att ta del av granskande journalistik, nyheter, opinion och fördjupning.