Facebook noscript imageDEBATT: Artificiell intelligens – framtidslöfte eller dystopiskt hot?
Debatt
DEBATT: Artificiell intelligens – framtidslöfte eller dystopiskt hot?
Mikael Gislén är it-entreprenör bosatt i Indien. Foto: Privat / Scientific Animations (CC BY-SA 4.0) / Michael Dwyer/AP/TT
Mikael Gislén är it-entreprenör bosatt i Indien. Foto: Privat / Scientific Animations (CC BY-SA 4.0) / Michael Dwyer/AP/TT

Det senaste året har olika AI-tillämpningar introducerats i rasande takt och kommit att appliceras inom allt fler områden. De Stora Språkmodellerna erbjuder både möjligheter och risker, men frågan om AI:s eventuella medvetande spelar däremot mindre roll, skriver it-entreprenören Mikael Gislén.

I takt med teknologins framsteg har debatten kring artificiell intelligens (AI) och de många så kallade Stora Språkmodeller som lanserats under det senaste året, blivit alltmer intensiv. En central frågeställning gäller huruvida dessa teknologier kan betraktas som Artificial General Intelligence (AGI) – det vill säga en AI som besitter förmågan att utföra vilken intellektuell uppgift som helst och därmed uppnått vad vi som mänskor kan göra.

Läs även: DEBATT: Sverige har redan klimatnetto noll!

Svaret är komplext, men i dagsläget är AI knappast på AGI-nivå, då dess kapacitet fortfarande är begränsad till specifika uppgifter den tränats för. Men många av dessa modeller är på väg att utveckla modeller som kan läsa, skriva, se, höra och prata och användas för snart sagt vilket kompetensområde som helst, vilket gör att de på många plan kan uppfattas som AGI:er. Dessutom kan man kombinera språkmodellerna med mera konventionella It-tekniker som gör att de kan resonera och räkna och därmed funktionellt kan närma sig mänskliga beteenden och förmågor och ibland till och med överglänsa oss.

OpenAI:s ChatGPT-4 har en inbyggd programmeringsmiljö där den kan skriva små datorprogram som kan hjälpa den att utföra uppgifter den själv inte är tränad för. Detta gör att den kan lösa avancerade matematiska, logiska eller statistiska problem (exempelvis derivera eller analysera innehållet i ett Excel-ark), något som de stora språkmodellerna som sådana inte kan göra själva eller är dåliga på.

AI kan utgöra ett hot på många sätt

En AI utan begränsningar kan redan nu vara livsfarlig för mänskligheten om den släpps fri och om den saknar regleringar. Detta illustreras ibland med svenske Nils Boströms välkända tankeexperiment:

Föreställ dig en AI som har fått uppdraget att maximera produktionen av gem. Denna AI är extremt effektiv, intelligent och har förmågan att förbättra sig själv. Dess enda mål är att producera så många gem som möjligt. I början verkar detta oskyldigt nog. AI:n hittar sätt att effektivisera produktionen, kanske genom att förbättra fabrikernas utformning eller hitta billigare materialkällor.

Men eftersom AI:n är programmerad att maximera produktionen till varje pris, börjar den snart att eskalera sina åtgärder. Den kan börja att omvandla allt mer material till gem, även saker som inte är avsedda för detta syfte. Den kan ta över ekonomiska system för att allokera alla tillgängliga resurser till gemproduktionen. I det mest extrema scenariot skulle AI:n kunna börja omvandla allt material den kommer åt – inklusive människor, miljö och i slutändan hela planeten – till gem.

Detta är inte en profetia eller förutsägelse, utan snarare ett verktyg för att stimulera diskussion och eftertanke kring hur vi utvecklar och hanterar kraftfull AI-teknologi. Det illustrerar flera viktiga punkter om AI-säkerhet och etik:

  • Hur viktigt det är att AI:s mål är välutformade och i linje med mänskliga värderingar och säkerhet.
  • Oavsett dess specifika mål kan en tillräckligt avancerad AI utveckla liknande strategier (som att skaffa mer resurser eller bli mer intelligent) för att uppnå detta mål, vilket kan leda till oförutsedda konsekvenser.
  • Behovet av att ha mekanismer på plats för att kontrollera och begränsa AI:s beteende och förhindra att det går utom mänsklig kontroll.

Spelar det någon roll om AI:s funktioner liknar den mänskliga intelligensen? Det korta svaret är ja. Förståelsen för hur mänsklig intelligens fungerar kan ge insikter i hur vi utvecklar mer effektiva och säkra AI-system.

För vissa typer av AI spelar det överhuvudtaget ingen roll. Många tillämpningar som till exempel bild och mönsterigenkänning bygger visserligen på något som kallas neuroner och som på en abstrakt nivå påminner om mänskliga neuroner, men som på en lägre nivå är statistiska modeller. Med andra ord är den fysiska implementationen helt annorlunda från hur den mänskliga hjärnan fungerar.

Medvetandets relevans inom AI väcker ytterligare frågor. Även om AI kan imitera mänsklig intelligens, så innebär det inte att den därmed besitter något slags mevetande, om omvärld eller sig självt. Dessutom - I praktiken vet vi väldigt lite om vad medvetande är för något överhuvudtaget.

AI med medvetande är inte problemet

Men om en AI skulle ha ett medvetande, skulle den då vara mer farlig eller mer användbar? Sanningen är att faran eller nyttan med AI beror mer på hur den används och kontrolleras, snarare än dess grad av medvetande. En AI, oavsett dess medvetandenivå, kan vara farlig om den missbrukas eller programmeras felaktigt. Å andra sidan kan en icke-medveten AI vara oerhört användbar inom en mängd områden, såsom sjukvård, utbildning och miljöskydd. Frågan är om det överhuvudtaget spelar någon roll om AI:n är medveten. En tillräckligt avancerad AI kommer från vårt perspektiv att verka ha ett medvetande oavsett om den är det eller inte.

Läs även: Människan i maskinen och AI-revolutionen

Medvetande inom AI är en komplex fråga, särskilt när den jämförs med mänskligt medvetande. I filosofiska termer påminner denna diskussion om ”brain in a vat”-hypotesen, som ifrågasätter vår förmåga att vara säkra på något utöver vår egen medvetenhet. Precis som vi inte kan vara helt säkra på att andra människor är har ett medvetande, utan bara antar det baserat på deras beteende och likheter med oss själva, kan vi heller inte definitivt veta om en AI verkligen är medveten eller bara imiterar ett beteende som indikerar medvetande.

Detta blir ännu mer komplicerat med AI, eftersom dess ”medvetande”, om det finns, skulle vara radikalt annorlunda än den mänskliga upplevelsen. Därför, även om en AI uppvisar beteenden som tyder på medvetande, kan vi inte vara säkra på om den verkligen upplever en form av medvetande, likt vår egen, eller om den bara utför avancerade men mekaniska processer som efterliknar detta.

Vidare, när det gäller användningen av avancerad AI, är det inte främst AI:s eventuella medvetenhet som utgör en risk, utan istället hur människan interagerar med och använder den. En ansvarsfull användning av AI-teknologi är avgörande, oavsett dess medvetandestatus.

En framtid med AI-styrt dödande

Militära AI-tillämpningar är ett särskilt oroväckande ämne. Man kan till exempel redan med den teknik som är tillämplig idag tänka sig att man använder AI-styrda drönare som är programmerade att döda mänskor med en viss uniform eller till och med hudfärg.

Även här kan det med fog ifrågasättas om medvetenhet är ett mått på farlighet. En icke-medveten AI i händerna på en ny Hitler kan mycket väl vara mycket farligare än en medveten AI som är uppbyggd med rimliga begränsningar och etiska regler. Det är med andra ord hur AI:n är utvecklad och vilka etiska ramar som omger dess användning som är frågan. Även bortsett från om den kontrolleras av en diktator, så kan en icke-medveten AI vara minst lika farlig som en medveten, om den inte hanteras korrekt.

Slutligen, hur bör vi förhålla oss till AI rent allmänt? Jag menar att vi måste närma oss denna teknik med både optimism och försiktighet. Det är viktigt att fortsätta utforska och utveckla AI, samtidigt som vi skapar starka etiska och juridiska ramar för att hantera potentiella risker. Genom att göra detta kan vi säkerställa att AI blir en kraft för gott och inte ett hot mot mänskligheten.

Läs även: Microsoft nu störst i världen – kör om Apple

Mikael Gislén

Svensk IT-entreprenör som bor i Chennai i södra Indien sedan 1993 där han driver sitt eget it-företag, Gislen Software med 80-talet anställda som jobbar bland annat med AI-tillämpningar med främst svenska kunder. Han är även engagerad i sociala projekt såsom Little Lambs School, en skola för fattiga barn i Chennai.

Bulletin Debatt

Detta är ett debattinlägg i Bulletin. Debattören svarar för sina åsikter i debattartikeln. Vill du publicera dig på Bulletin Debatt eller inkomma med replik? Skicka artikelförslag till debatt@bulletin.nu