Facebook noscript imagevon Seth: Desarmera AI-desinformationen innan det är för sent
August von Seth
Krönikörer
von Seth: Desarmera AI-desinformationen innan det är för sent
Jared Andersen från Microsoft demonstrerar ett nytt verktyg för bildskapande med artificiell intelligens på en mässa i New York i september. Foto: Cora Lewis/AP/TT
Jared Andersen från Microsoft demonstrerar ett nytt verktyg för bildskapande med artificiell intelligens på en mässa i New York i september. Foto: Cora Lewis/AP/TT

Allt fler internetanvändare stöter på innehåll genererat av AI-verktyg som finns tillgängliga för varenda människa med betalkort och uppkoppling. Det rör sig om texter, bilder och videor, vars realism ser ut att öka för varje dag som går. Artificiell intelligens är här för att stanna, och den heliga skiljelinjen mellan sant och falskt riskerar att vittra sönder om inte ambitiösa, genomtänkta åtgärder vidtas på samhällsnivå för att bekämpa genomslaget av förfalskat innehåll.

Nyligen fick en fejkad video på Expressen-ankaret Lisah Silfwer stor spridning på Tiktok. I en krönika från tidigare denna månad beskriver Silfwer förvåningen när hon möttes av sin egen digitala “klon” som ser ut som hon, rör sig som hon, och i stort sett låter som hon. Videon hade publicerats av ett tidigare okänt konto som önskade marknadsföra ägarens personliga webbshop – ett själviskt men föga samhällsskadligt bruk av AI-teknologi.

Fenomenet “klonad nyhetsuppläsare”, som Silfwer kallar det, är i själva verket mycket större i omfattning. AI-verktyg som framställer offentliga personers röster och simulerar deras rörelser ligger bakom en hel genre av innehåll på sociala medier, där exempelvis före detta amerikanska presidenter skildras i ovanliga, humoristiska situationer. Många uppskattar detta innehåll, inklusive undertecknad, samt utvecklingen som ligger till grund för det: demokratiseringen av artificiell intelligens. Den ökade tillgången till avancerade AI-verktyg har öppnat upp för kreativitet på en oerhört stor skala.

Ofrånkomligt är dock faktumet att riskerna ökar i takt med den ständigt ökade åtkomsten. Vem som helst med basal teknisk förmåga kan skapa innehåll med övertygande realism, oaktat etiska riktlinjer.

EU-kommissionens ordförande Ursula von der Leyens förhållningssätt till AI är därför tämligen sund och balanserad. På G20-konferensen i New Delhi beskrev hon unionens position i frågan med orden “AI medför risker men erbjuder också enorma möjligheter”. Att prioritera behandlingen av riskerna med teknologin framstår som klokt. Kommissionen har föreslagit ett globalt ramverk och ett expertråd vars uppgift ska vara att granska den artificiella intelligensens utveckling över hela världen.

von der Leyen talade också om vikten av att i lag reglera AI, vilket EU:s snart ikraftträdande AI-förordning tar sikte på. Kortfattat förordar lagen klassificering och registrering av teknik och algoritmer som nyttjar denna teknologi i en rad sektorer. En allmän kartläggning av dess användning inom offentlig och privat sektor ämnas sjösättas med start 2024. Varje gång en internetanvändare kommer i kontakt med en tjänst som brukat AI, måste detta uttryckligen klargöras. Vissa typer av AI som bedöms vara “oacceptabla risker” förbjuds, exempelvis algoritmer som tilldelar medborgare en social ranking eller specialiserar sig på ansiktsigenkänning på allmän plats i realtid.

Det är hårda, sannolikt nödvändiga tag. Jag anser emellertid att EU:s AI-planer går för långt på en punkt. Kommissionen har utöver lagförslaget tillkännagett att man avser införa krav på att allt innehåll där AI bidragit ska synligt markeras – i syfte att motverka desinformation.

Förslaget efterliknar Kinas lagar om artificiell intelligens på pricken. Den kinesiska statens grepp om informationsflödet skärps ytterligare till följd av de auktoritära bestämmelserna i Deep Synthesis Regulation, som utmärkt kompletterar landets stora antal internetlagar vars mål är att inskränka medborgares rätt till information och fritt yttrande så långt det går. Auktoritära ingrepp på innovativa marknader är till för länder som Kina och Ryssland, som båda förbjudit den textbaserade tjänsten ChatGPT.

Att visuellt “markera” allt innehåll som ens delvis skapats med hjälp av AI är inte bara auktoritärt. Det är även en ineffektiv åtgärd som angriper desinformationen från fel håll. Förutom den demoraliserande effekten det skulle få på allt harmlöst, kreativt AI-innehåll på internet, föreligger stora problem i frågan om implementeringen. Vattenmärken kan lätt kringgås. Det räcker med att ta en skärmbild, sudda ut eller skära ut det, och sedan reproducera innehållet på annat håll. Människor hittar alltid sätt att undvika totalförbud.

Djupgående marknadsregleringar av produkter eller tjänster som produceras, tillhandahålls och konsumeras på individnivå är krångliga. Istället för att ägna sig åt förbud och angripa dess bruk borde det offentliga upprätta lagliga vägar som möjliggör etisk användning. Givet AI-teknologins snabba innovationstakt borde det göras med driv i stegen.

Det finns ett antal åtgärder som faller i linje med den ambitionen. Upprättande av offentligt tillgängliga “profiler”, ett register där varje offentlig person eller kreatör kan publicera allt text- och videoinnehåll denne någonsin har skapat. Är man osäker på om ett klipp eller en skärmbild faktiskt är autentisk, är det bara att dubbelkolla med sidan. Eller varför inte ta fram en högkvalitativ, offentlig tjänst kapabel till att generera konstgjord röst och bild? Samtliga bilder och filmer ska registreras. Om någon förslagsvis undrar om en video man påträffat är skapad med verktyget, ska det vara busenkelt att kolla. På så sätt kan man bygga förtroende för fakta – genom att ge människor etiska vägar att själva ta reda på sanningen.

Poängen med det andra förslaget är att tjänsten ska vara så bra att den naturligt blir den dominerande källan av syntetiskt material, så att det mesta AI-innehållet kommer därifrån. Beroende på hur villig man är att respektera enskilda företags integritet kan staten förbehålla sig rätten att upprätta ett register över material genererat av deras tjänster också.

Givetvis bör bruket av artificiell intelligens hos myndigheter och företag regleras hårt för att motverka maktmissbruk och otillbörliga affärsmetoder. Materian blir dock mer komplex när det gäller desinformation och individuella rättigheter på den fria marknaden. Man ska vara försiktig med förbud.

Det går faktiskt att upprätthålla förtroendet för informationsflödet i ett samhälle där syntetiskt material florerar om offentligheten ger individen lätthanterliga verktyg för att hålla reda på sant och falskt. Utan att införa klumpigt auktoritära internetlagar.

August von Seth

Oberoende konservativ samhällsdebattör
X: @augustvonseth