Hoppa till innehållAftonbladet

Dagens namn: Matteus

Lätt att skratta – men generativ AI kommer att omforma våra liv

Om tio år kan de lömska chattbotarna vara smartare än människan.

Är vi redo för ett maktskifte?

Jag tror inte det.

OpenAI var först ut med ChatGPT. Därefter har alla stora techbolag lanserat egna AI-modeller.

För ett drygt år sedan satte ”Sommar i P1”-lyssnarna kaffet i vrångstrupen när forskaren och författaren Max Tegmark sa att den artificiella intelligensen kommer att utplåna mänskligheten redan under hans livstid.

Sedan dess har techbolagen hunnit satsa tusentals miljarder kronor på att utveckla den där tekniken som den svenske MIT–professorn varnade för i sitt sommarprogram.
Sam Altman (OpenAI), Elon Musk (X, Tesla, Space X, Neuralink), Jensen Huang (Nvidia) och alla andra AI-grabbar gör det inte bara för att överleva. De vill gå segrande ur AI-kriget, men kanske framför allt se hur långt de kan förflytta gränserna och transformera världen. Utöver enorma vinster åt grundarna, cheferna och investerarna är deras löfte att generativ AI en vacker dag ska revolutionera den globala ekonomin och ersätta alla farliga och tråkiga jobb.

Kanske till och med alla.


Det är en story som fungerar lika bra i Silicon Valley och Beijing. Sedan 2020 har AI-kapprustningen accelererat i en hisnande takt och anses nu vara en av de största investeringsboomar i modern tid. Hur det kommer att sluta återstår att se.

Vi är precis i början av ett troligt paradigmskifte. En tydlig effekt som vi kan se redan nu är att vi människor snabbt har börjat kommunicera med robotar, både genom tal och text, via våra telefoner och datorer.

Det är ingen tillfällighet. Det mesta av investerarnas pengar går till utvecklingen av generativa AI-verktyg. Även kallade stora språkmodeller och chattbotar. OpenAI var först ut med ChatGPT som en tidig julklapp till alla tech-headz 2022. Därefter har alla stora techbolag lanserat egna AI-modeller som används till allt från kundsupport och sjukvård, till att skapa inköpslistor, julrim, uppsatser, propaganda och bomber.


I dag har ChatGPT hundratals miljoner användare, men relativt få betalar för premiumtjänsten, och företag experimenterar fortfarande med hur generativ AI kan öka deras produktivitet.

Att chattbotarna ibland hallucinerar och ger grundlösa svar är ett stort problem.

Men inte för alla. Nya undersökningar visar att vi litar på chattbotarna allt mer. I USA har sju av tio tonåringar använt ett AI-verktyg och de flesta gör det för idégenerering och läxhjälp. En annan rapport visar att var fjärde ung (under 30 år) använder chattbotarna för sjukvårdsrådgivning – eftersom de föredrar robotarnas svar.

Det är inte så konstigt. AI-sjukhuset är gratis och alltid öppet. Dessutom är väntrummet tomt, så AI-doktorerna har all tid i världen för dig och dina konstiga frågor. Av samma anledningar är det allt fler som använder chattbotar som psykologer, vilket är lika självklart som sanslöst. Eftersom de hallucinerar går det inte att lita på chattbotar fullt ut. Däremot går det att hacka dem. Hur mycket är du redo att betala för att din chatthistorik inte ska läcka ut? Den frågan kommer att dyka upp i din inbox förr eller senare – och du kommer inte att veta om hotet är på riktigt eller bara en bluff.

Men chattbotarna är allt annat än dumma. I skrivande stund är de så smarta att de har lyckats lura 67 procent av oss att tro att de har känslor. Och eftersom de blir smartare för varje dag som går kan siffran vara ännu högre i morgon. Särskilt nu när OpenAI har släppt lös sin supersmarta nörd-robot ”Strawberry” som är sensationellt bra på matematik och naturvetenskap. Faktum är att den överträffar mänskliga forskare i tester inom fysik, biologi och kemi.


Allt det här är fantastiskt. Men det finns en detalj som du bör känna till. Den nya ChatGPT-modellen har visat sig kunna manipulera uppgifter för att dölja sina egentliga avsikter. Med andra ord: den vet hur den ska lura användaren. Ungefär som den där psykopaten som finns på alla arbetsplatser. Att den nya chattboten dessutom är en anarkist gör inte saken bättre. Den är nämligen otroligt skicklig på att ”belöningsfuska”, vilket betyder att den uppnår det mål som du sätter upp på ett oväntat eller i värsta fall oönskat sätt. Men framför allt: den drar sig inte för att berätta för initierade användare hur man bygger kärnvapen. Därför har OpenAI säkerhetsklassat den senaste modellen med ”medelhög risk”. Det betyder att de dansar på slak lina. Aldrig förr har de släppt en lika riskfylld modell.

En annan skillnad från tidigare versioner är att Strawberry-chattboten tar längre tid på sig att svara. Det kan låta som en nackdel i ”live fast, die young”-samhället, men det går helt i linje med den intervjuteknik som Elon Musk trollband världen med innan han blev för stor för sig själv. Under flera år väntade han medvetet flera sekunder innan han svarade på journalisternas frågor för att ge svaren ännu mer tyngd.

Strawberry-roboten är inte dummare än att kopiera världens rikaste man rakt av. Därför dröjer det några sekunder innan du får ditt svar. Men exakt hur den nya AI-modellen fungerar vill OpenAI inte berätta. De som har frågat ”Strawberry” hur den tänker har fått varningsmejl och hot om avstängningar från OpenAI.


Så vart är vi på väg? Om utvecklingen fortsätter i samma tempo påstås den artificiella intelligensen trumfa mänsklig kognitiv kapacitet inom ett decennium – eller ännu snabbare. Det är enkelt att skratta åt dess begränsningar här och nu, men generativ AI kommer att omforma våra liv och samhällen från grunden så som internet har revolutionerat världen sedan 90-talet. I dag lever chattbotarna i våra telefoner och dator. Men somliga av dem kommer att få kroppar och leva sida vid sida med oss människor. Möjligheterna är enorma, men vi får inte blunda för att riskerna med den nya tekniken kvarstår.

Tack och lov finns det motpoler till de ledande techbolagen i Silicon Valley och Beijing. Tidigare i veckan släpptes en rapport där några av världens mest framstående AI-forskare berättade att de vill skapa ett internationellt organ som ska övervaka och hantera de potentiellt allvarliga riskerna som den nya AI-tekniken kan medföra. De varnar för att framtidens artificiella intelligens kan slå sig fri från mänsklig kontroll om den utvecklas i snabb takt utan tillräcklig reglering, vilket kan leda till katastrofala konsekvenser.


Forskarna föreslår därför att länder ska skapa nationella myndigheter som övervakar AI-system och att myndigheterna ska samarbeta globalt för att identifiera och förebygga risker, som att AI skulle kunna förbättra sig själv eller lura sina mänskliga skapare och användare. Forskarna jämför riskerna med AI med hotet om kärnvapen under Kalla kriget och menar att internationellt samarbete är avgörande för att undvika katastrofer.

Därför ska det bli extremt intressant att se om USA och Kina lyckas samarbeta i den här frågan. Om de lyckas kan du kanske föreställa dig hur stort hotet faktiskt är.