Foto Carl von Schele

Krönika Med den nya AI-lagen gör EU ett viktigt renhållningsjobb för att skydda medborgarna från oreglerat, oetiskt datainsamlande. Att detta skulle göra att Europa förvandlas till ett digitalt rostbälte är en larvig argumentation. Det skriver Liv Beckström. 

EU:s nya AI-lag är världens första och började gälla i augusti. Lagen utgår från AI-teknikens risk för fysisk eller psykisk skada och nivån avgör om tekniken förbjuds eller regleras. Techföretagen ska också tala om hur de samlat in och tränat sina data.

 

Avgörande gränssättning

AI-regleringarna har förstås mötts av protester från techjättar, som lobbar hårt emot dem. »Fortsätter Europa på nuvarande kurs missas en chans som bara kommer en gång per generation« skrev Spotifys Daniel Ek och Facebooks Mark Zuckerberg i en artikel i the Economist. (DN 21 september). De båda miljardärerna är sura över att ny AI-teknik inte får lanseras oreglerat. Sånt där som att allt fler unga blir ledsna, får jämförelseångest, triggas till anorexi och radikaliseras finns inte på deras pengastinna planet. Inte heller de enorma koldioxidavtryck tekniken åstadkommer. 

AI-lagen är en avgörande gränssättning mot techjättarnas ensidiga makt. I veckan tillsatte regeringen en utredning om hur den ska anpassas till Sverige med det storslagna målet »att göra Sverige till en ledande nation inom användning av säker och tillförlitlig AI«.

Går inte att verifiera

Men det är just det som är haken:  Den AI-variant av maskininlärning som lett till det enorma intresset är varken säker eller tillförlitlig, visar Inga Strümke, som forskar och undervisar i ämnet på Norges tekniska och naturvetenskapliga universitet. I den hyllade boken Maskiner som tänker (Polaris) avmystifierar hon tekniken och tar ner den från sin piedestal med kärva fakta:

De självinstruerande nätverk som skapat dagens hajp kan inte förklara hur de kommer fram till sina resultat. 

Inte ens de skickligaste forskare kan klura ut det eftersom de ingående parametrarna och lagren är för komplexa. Maskininlärning går alltså inte att verifiera och behöver regleras för att inte vara en fara för demokratin, främst genom sin förmåga att manipulera. 

Säkra är systemen inte heller, utan mer ett listigt inbrottsverktyg: 

»Fram till idag är det bokstavligt talat omöjligt att säkra sig mot bakdörrar i maskininlärningsmodeller man inte har skapat själv», skriver Strümke och exemplifierar just med ett hus där systemet lovat att bara behöriga får komma in, men upphovsmannen har en hemlig extranyckel kvar.

Algoritmisk orättvisa

Har de tusentals miljarder som investerats i AI-teknik gjort nytta i förhållande till de enorma satsningarna? undrar den ansedda ekonomiprofessorn Daron Acemoglu, och svarar nej.

Acemoglus kalkyl visar att generativ AI de närmaste åren kommer att bidra med någon enstaka promille per år till tillväxten. Än värre: De storslagna planerna har varit för ensidigt inriktade på att ersätta, snarare än hjälpa människor. DN (18 september)

Tekniken används till att låta maskiner bemöta människor med små resurser och låg förmåga, medan människor med mycket resurser och god (betalnings)förmåga alltid kan räkna med personlig service.

En annan fråga: Vad händer med yrkesrollen för socionomer och sjuksköterskor om en algoritm tar beslut åt en kommun eller ger farliga råd i en sjukvårdschatt? När offentlig sektor använder maskiner istället för människor, så kallat automatiserat beslutsfattande, skiljs befogenhet från ansvar på ett kusligt sätt. Vem ska man klaga hos ifall beslutet är fel?

Den algoritmiska orättvisan fick Göteborgs kommuninvånare prova på 2020 när en AI-algoritm (en instruktion till systemet) placerade ett stort antal skolbarn långt hemifrån efter att ha utgått från kartans fågelväg och missat att Göta Älv går tvärs igenom stan. Här användes AI-teknik som kunde felsökas, men ett stort antal barn fick ändå inte byta.

Redan för fyra år sedan larmade Akademikerförbundet SSR om automatiserat beslutsfattande som en »rättsosäker experimentverkstad utan insyn – som drabbar grupper i samhället med sämst möjligheter att ifrågasätta eller syna algoritmens beslut« och föreslog en algoritmombudsman för att ta tillvara medborgarnas frågor och klagomål. En sådan har ännu inte synts till.

Höga förväntningar

Inga Strümkes prognos, liksom Acemoglus, är att AI-förväntningarna är högre än vad teknologin klarar av. Maskinerna har blivit för bra eller smarta utan att vi kan använda dem till att göra världen bättre, snarare tvärtom.

»Hur etiskt försvarbart är det att släppa ut enorma mängder koldioxid för att träna upp den ena språkmodellen efter den andra bara för att vi ska ha en kul chattbot att pladdra med?«

Hon tror hajpen nått sin topp och att en »AI-vinter« kan vara »bland de tryggaste nödutgångarna vi har« om teknikens problem inte kan lösas.

Kanske har hon rätt. Men det kan också vara tvärtom, att kommersiella intressen fortsätter styra politiken.

Till slut kokar det ner till att lägga en massa miljarder på att träna elektriska maskiner som slukar energi, och som får människor att bli beroende, arga, ledsna och osäkra på sig själva.

Vill vi ha det så?

Med EU:s regelverk sätts människans rättigheter framför maskinernas och ger oss åtminstone en chans till en mer etisk AI-utveckling.

Liv Beckström