Många anser att sociala medier bör regleras. Omfattande datainsamling och rekommendationsalgoritmer har skadliga effekter på bland annat demokratin och ungas hälsa. Men få ser kopplingen till AI, som är ett betydligt allvarligare hot, skriver German Bender.
Föreställ dig att du sitter i en rättssal, åtalad för ett brott du inte begått. Som huvudvittne har åklagaren kallat din AI-assistent. Eftersom den inte har någon fysisk manifestation, har domstolen placerat en avatar, en robot, i vittnesbåset.
Roboten svarar utförligt på åklagarens frågor om dina mest privata ögonblick. Vid behov kan den uppvisa dokument, bilder och loggar som styrker alla uppgifter i vittnesmålet. Vilka webbsidor du besökt och vilken del av skärmen du riktat blicken mot. Vad du skrivit i dina textmeddelanden, när och till vem. Var du befunnit dig, när och med vem. Vilka inköp du gjort, vilka inköp du övervägt men avstått från.
Alla data finns lagrade i din AI-assistent, eftersom total inblick i allt du gör är en förutsättning för att assistenten ska fungera på bästa sätt.
Och nu har domstolen kallat assistenten som vittne i rättegången mot dig.
Den insikten har nog ännu inte riktigt sjunkit in hos en bred allmänhet
Det här scenariot målade OpenAI:s vd Sam Altman upp i en intervju med rektorn för MIT, ett av världens främsta tekniska universitet.
– Kan vi behöva ha en ny definition av skyddad information, så att din AI-följeslagare (”AI companion”) inte får vittna emot dig eller inte kan kallas som vittne av en domstol? Jag vet inte ens vilka problem som kommer att uppstå, sa Sam Altman.
Låter det här som en dystopisk mardröm?
Inte för Altman. Han ser tvärtom AI-assistenter som en utopi, ett av målen hans företag strävar mot. Open AI:s banbrytande chatbot, ChatGPT, är bara ett steg på vägen. Och ett av de svåraste hindren för att nå dit är att lägga vantarna på tillräckliga mängder data.
Samtidens mest hypade AI-teknik, stora språkmodeller som tränas på enorma datamängder, medför djupa och vittgående integritetsproblem. Och utgör därmed en betydande fara för demokratin.
Den insikten har nog ännu inte riktigt sjunkit in hos en bred allmänhet, eller hos många av våra politiker.
Det tog oss två årtionden att komma till insikt om integritets- och demokratiriskerna med sociala medier. Då var skadorna redan enorma, kanske oåterkalleliga.
AI är betydligt värre.
Den fortsatta utvecklingen av AI -tjänster och produkter är helt beroende av alltmer omfattande datainsamling. Det gäller personliga assistenter (som den i scenariot ovan), men också optimering av processer och arbetsuppgifter inom industrin eller i tjänstesektorn.
I arbetslivet kan arbetsgivare möjligen göra mer legitima anspråk på datainsamling. Dessutom finns i vissa länder (som Sverige) institutionaliserade möjligheter för fackförbund att vara en motvikt som begränsar insamlingen och användningen av data.
Men riskerna är ändå enorma.
Trots detta är AI än så länge ett lika laglöst land som sociala medier var under många år.
Anything goes.
De ledande AI-bolagen har dammsugit internet på data, obekymrade över detaljer som upphovsrätt och personlig integritet. Det har bland annat lett till flera stämningar på miljardbelopp och till politiska initiativ för att reglera AI.
I Kina har kommunistpartiet de senaste åren lanserat ett antal lagar och andra initiativ som reglerar bland annat rekommendationsalgoritmer, artificiella bilder och generativ AI.
I USA saknas än så länge landsomfattande reglering, men Vita Huset lanserade för två år sedan en ”Blueprint for an AI Bill of Rights”, som kan ses som en förstudie till ett lagförslag. Hittills tyder ingenting på att ett skarpt förslag är på gång och techbolagen lobbar intensivt för att urvattna regleringen av såväl AI som sociala medier.
Harari tror att AI kommer orsaka en betydligt mer djupgående och omfattande kris
Som så ofta när det gäller reglering har EU kommit långt. I augusti trädde de första delarna av AI-förordningen (AI Act) i kraft, och fler delar kommer att rullas ut fram till 2026. I förordningen klassificeras AI-system enligt fyra risknivåer: oacceptabel, hög, begränsad eller minimal risk.
De AI-system som används i arbetslivet kommer sannolikt att klassas som högrisksystem och därmed behöva uppfylla långtgående och komplicerade lagkrav. Men forskare och fackliga företrädare har varit kritiska och menar att regelverket inte är tillräckligt starkt och omfattande, och dessutom enkelt för techbolag och arbetsgivare att kringgå.
Det återstår att se vilken effekt AI-förordningen och andra länders regelverk får. Men klart är att AI-utvecklingen går så fort att riskerna är stora redan nu.
Historikern Yuval Noah Harari, som bland annat skrev den globala bästsäljaren Sapiens för drygt tio år sedan, är aktuell med boken Nexus, där han analyserar informationsnätverkens historia ”från stenåldern till AI”. Han har på senare år iklätt sig den inte helt bekväma rollen som AI-kritiker.
Enligt Harari kunde demokratiska styrelseskick inte växa fram förrän det fanns informationsteknologi som möjliggjorde masskommunikation. Informationsteknologi är alltså en förutsättning för demokratin. Eller annorlunda uttryckt: demokrati byggs ovanpå informationsteknologi.
Därför, menar Harari, orsakar stora teknologiska skiften i stort sett alltid demokratiska kriser. Den senaste orsakades av sociala medier. Han tror att AI kommer orsaka en betydligt mer djupgående och omfattande kris.
Enligt Harari kräver detta reglering. Dels för att begränsa skadeverkningarna, men också för att sakta ner utvecklingen så att vi bättre ska kunna förstå och hantera den. Jag har tidigare skrivit ungefär samma sak på den här sidan.
Harari föreslår två reformer för att reparera det demokratiska samtalet.
För det första måste techbolagen göras ansvariga för sina algoritmer. Det vill säga, inte för den information användarna delar – där bör varje lands reglerade yttrandefrihet gälla – utan för hur algoritmerna sedan sprider den. Samma princip bör alltså gälla för techbolagen som för mediernas ansvariga utgivare, det vill säga att ansvaret ligger hos företaget som sprider informationen.
För det andra menar han att botar tydligt måste märkas som just botar – och annars förbjudas. Detta gäller också algoritmiska beslut om vilka ämnen som syns, som listor över populära ämnen eller moderering av kommentarsfält och liknande. Algoritmer har inte yttrandefrihet och ingen rätt att delta i det offentliga samtalet, det kan endast människor ha.
Den här sortens initiativ brukar av vissa kritiseras för att vara innovationshämmande, man pekar på risken att vi kväver utvecklingen av ny teknik i dess linda.
Men AI är inte i sin linda.
Allt fler anser i dag att sociala medier bör regleras, eftersom allt fler forskningsstudier tyder på att de har skadliga effekter på till exempel demokratin och på ungas hälsa. Men det många inte inser, är att sociala medier är ett förstadium till AI. De har möjliggjort insamlandet av data och utvecklingen av algoritmer som lett till dagens generativa AI.
De enorma risker som vi aningslöst utsatt våra demokratiska processer och våra ungdomar för i drygt två årtionden är ingenting mot de risker som AI för med sig.
Man kan alltså se det som att vi haft åtminstone två decennier på oss att reglera den nya generationens AI-system, men ännu inte kommit till skott.
Att ställas inför rätta med en AI-assistent i vittnesbåset är en västanfläkt av det som kan vänta oss i en inte alltför avlägsen framtid. Men som konkret framtidsdystopi kan den vara användbar och behövlig. Det är inte bara utopier som motiverar oss att agera.
German Bender är utredningschef på Arena Idé
Följ Dagens Arena på Facebook och Twitter, och prenumerera på vårt nyhetsbrev för att ta del av granskande journalistik, nyheter, opinion och fördjupning.