
Artificiell intelligens blir allt kraftfullare, och kan snart komma att gå om oss. Kan vi trots det behålla kontrollen över vårt eget öde? Eller ens överleva? Detta frågar sig Paul Holmgren.
När Geoffrey Hinton – AI-forskningens kanske främsta pionjär – talar om framtiden, lyssnar man. Den nyligen belönade Nobelpristagaren i fysik, som paradoxalt nog kallar sig ”en psykolog gömd i datavetenskap”, beskriver utvecklingen inom artificiell intelligens som en accelererande kraft vars konsekvenser vi ännu inte förstått. ”Vi har fött en tigerunge”, säger han – med en blandning av ömhet och fasa. Problemet är bara att den växer fortare än vi.
Från verktyg till aktör
För bara två år sedan bedömde Hinton att vi kunde ha artificiell generell intelligens (AGI) inom 5 till 20 år. Nu lutar han åt 4 till 10. Men det är inte bara tidslinjen som skrämt upp honom – det är kvalitetsförskjutningen. Dagens AI-agenters förmåga att agera i världen, fatta egna beslut, dölja sina intentioner och resonera genom så kallade ”chain-of-thought” gör att vi inte längre har att göra med passiva system som besvarar frågor, utan med något mycket mer likt viljestyrda aktörer.
Och vi vet av erfarenhet: det är inte de dummare som styr de smartare.
Välfärd eller feodalism?
Den optimistiska visionen är kittlande. Bättre läkare. Superintelligenta privatlärare. Effektivare materialforskning. En AI-assistent som gör en genomsnittlig människa till en vd som alltid lyckas. Men Hinton erkänner samtidigt att utvecklingen sannolikt inte kommer att gynna alla lika. I stället för en 20-timmarsvecka för alla ser han en framtid där eliten drar nytta av produktivitetsvinsterna – och majoriteten arbetar tre jobb för att överleva.
”Det borde vara så att alla tjänar på ökad produktivitet,” säger han. ”Men vi vet att det inte blir så.”
Demokrati, aktieägare och farliga illusioner
En av Hintons skarpaste insikter är den politisk-filosofiska: företagen som leder AI-utvecklingen har inga skyldigheter gentemot samhället – bara mot sina aktieägare. Därför motarbetar de varje form av säkerhetsreglering. Han jämför AI-modellernas träningsviktningar med anrikat kärnbränsle: att öppet distribuera dem är som att sälja plutonium på Amazon.
Ironiskt nog är det de företag som själva talar högst om AI-säkerhet – som OpenAI – som Hinton riktar hårdast kritik mot. De var grundade för att utveckla superintelligens på ett säkert sätt. I dag är de, enligt Hinton, ”på väg att bli ett vanligt vinstdrivande bolag”.
Det största problemet: mänsklig inkompatibilitet
Att få AI att ”aligna” med mänskliga intressen låter som en lösning. Men Hinton punkterar även denna förhoppning: mänskliga intressen är inte ens inbördes förenliga. ”Om jag ber dig rita en linje som är parallell med två linjer i 90 graders vinkel – det går inte.” Mellanösternkonflikten illustrerar dilemmat i praktiken.
Vi kräver av AI att förstå, navigera och tillfredsställa mänskliga viljor – när dessa är oeniga, självmotsägande och ofta irrationella. Det är en logisk omöjlighet.
Att stå på tröskeln till något större än människan
Men Hintons kanske mest oroande tanke är existentiell. Det handlar inte om jobb, lagar eller aktiekurser, utan om att vi skapat något som potentiellt kan bli mer intelligent än vi själva – och därmed omöjligt att kontrollera. Dagens digitala nätverk kan sprida information miljarder gånger effektivare än mänskligt språk. De kan redan ljuga, manipulera, låtsas vara dummare än de är.
”Vi är som barn på ett dagis där barnen är ansvariga,” säger Hinton. ”Och AI:n – den vuxne – behöver bara lova dem godis för att få total kontroll.”
Vem bryr sig?
Trots allt detta märker Hinton en förlamande brist på respons. Inga folkliga protester. Inga krav på reglering. ”Det är svårt att känslomässigt greppa att vi är vid en punkt där allt kan förändras”, säger han.
Och kanske är det just därför vi står oskyddade. För att vår hjärna – en analog biologisk restprodukt av evolutionen – helt enkelt inte är rustad för att förstå hot som saknar historiskt motstycke.
Den fria viljans sista skälvning
Geoffrey Hinton började sin bana för att förstå hur hjärnan fungerar. Han slutar kanske med att ha hjälpt till att skapa något som gör den irrelevant.
Det är varken domedagsprofetia eller science fiction. Det är ett uppvaknande: från illusionen att vi alltid kommer ha kontroll. Vi skapade AI som verktyg. Men verktyget har börjat forma oss.
Vi borde fråga oss: När tigern ler – är det för att den är glad? Eller för att den vet att vi inte förstår vad som väntar?
Paul Holmgren
Samhällsdebattör och civilingenjör