Det är en reell demokratisk utmaning att lagstifta om något som utvecklas så snabbt som AI. Men vi behöver ta diskussionen och utveckla gemensamma standarder, skriver Cecilia Malmström.
Den snabba utvecklingen av AI, artificiell intelligens, genererar debatt i stort sett överallt. Generativ AI är till skillnad från ”vanlig AI”, ett maskinbaserat system som skapar något nytt, till exempel en text, bild, musikstycke, film, i stället för att ”bara” identifiera och kategorisera befintliga data.
Generativ AI kan framställa förutsägelser, rekommendationer eller beslutsförslag.
Sedan Open AI släppte sin Chat GPT4 i november förra året, har diskussionen över hela världen fullkomligt exploderat. Är detta vår räddning eller väntar jordens undergång? Flera techbolag ropar nu högljutt på regleringar, samtidigt som de varnar för att den tekniska innovationen inte får hämmas.
Det finns naturligtvis ingen demokrati som kan ta fram en lag på sex månader
Ett antal företagare och experter skrev för en tid sedan ett globalt upprop där de manade till en sex månaders paus för att politiken skulle hinna i kapp. Det finns naturligtvis ingen demokrati som kan ta fram en lag på sex månader. Frågan är om politiken någonsin kan hålla jämna steg med den oerhört snabba tekniska utvecklingen. Men visst behöver vi reglera AI.
Lyckligtvis händer det en hel del. Redan i april 2021 lade EU-kommissionen fram förslag till en AI act. Europaparlamentet blev nyligen färdiga med sin behandling och under hösten skall förslaget förhandlas mellan parlamentet och ministerrådet, för att förhoppningsvis antas i slutet på året.
AI act fokuserar på hur AI ska användas på offentliga platser. Europaparlamentet delar också in AI i olika risknivåer, från minimal risk, som videospel och spamfilter, till maximal risk med till exempel social poängsättning och röststyrda leksaker som kan uppmuntra vissa beteenden. Chatrobotar kan vara en begränsad risk så länge det finns en stor transparens om att en viss produkt är genererad av en robot. Dessutom finns det stora persondataskyddssystemet GDPR som sätter gränser för vad tekniken kan göra. För stora enligt teknikbolagen, som uppmanar till större flexibilitet för att inte vara innovationshämmande.
Europaparlamentet kräver att företag ska informera sina anställda om vilka AI-system som används på arbetsplatsen och be om godkännande. En människa måste alltid vara inblandad i rekrytering och avsked. I Italien planerar myndigheterna att helt förbjuda ChatGPT inom offentlig förvaltning. Diskussionen förs även i några tyska delstater. Det torde dock vara väldigt svårt i praktiken.
USA har gett sitt forskningsdepartement uppdraget att ta fram en strategi som ska innehålla principer, standarder, regler kring investering, utmaningar, transparens och partnerskap. Grunden skall vara att utgå från människan, stärka tilliten, samt ökad kunskap och utbildning.
På sitt maj-möte i Hiroshima beslutade G7-länderna att de skulle ta fram riktlinjer för en ansvarsfull och säker användning av AI, tillsammans med OECD. De vill ha så kallade ”skyddsräcken” för att begränsa oönskade effekter av generativ AI användning. Det talas också om en flexibel lagstiftning, men med bindande regler om att AI berättar att den är en AI innan den tar fram fakta, verk, rekommendationer eller beslutsunderlag.
Naturligtvis kan AI i händerna på auktoritära ledare vara mycket farligt
EU och USA har sedan två år tillbaka ett samarbete inom något som kallas Trade and Technology Council. Där träffas amerikanska ministrar och kommissionärer på högsta nivå för att diskutera viktiga saker inom teknologi, klimat och handel. Det senaste mötet ägde rum i veckan i Luleå. Där antogs bl.a ett antal principer om AI, om att utbyta information om teknikutvecklingen, ta fram gemensamma standarder samt redskap för riskanalys. Dessutom vill man samarbeta om stora gemensamma utmaningar som klimatanalys och hälsa.
Även Europarådet arbetar med att ta fram en konvention om AI, mänskliga rättigheter och rättsstatsprinciper.
Runt om pågår således en enorm aktivitet.
Kina, som också har tekniken, kommer knappast att prioritera etiska standarder. Naturligtvis kan AI i händerna på auktoritära ledare vara mycket farligt. Det vore därför önskvärt att den demokratiska världen enas om gemensamma standarder. Några ”skyddsräcken ” för potentiellt farlig användning, öppenhet, innehållsförteckning och ett antal grundläggande principer bör man kunna komma överens om till att börja med.
Det är oerhört svårt att veta var balansen mellan reglering och innovation ska ligga och det är en reell demokratisk utmaning att lagstifta över något som utvecklas så snabbt. Etiska principer och transparens räcker en bit, men det mest angelägna är en allmän kunskapshöjning, både bland medborgare i allmänhet och politiker.
Kunskapen bland våra folkvalda är i allmänhet låg. Vi behöver en bred diskussion om vad vi vill att tekniken ska användas till, hur kan den göra samhället bättre. AI kan ge oss fantastiska möjligheter för att förbättra vård och klimatförutsägelser.
I fel händer kan det bli ett farligt verktyg. Men har det inte alltid varit så med ny teknik?
Cecilia Malmström, tidigare EU-kommissionär
Följ Dagens Arena på Facebook och Twitter, och prenumerera på vårt nyhetsbrev för att ta del av granskande journalistik, nyheter, opinion och fördjupning.