Medan jag skrev om Max Tegmarks bok Liv 3.0 för ett tag försökte jag också hänga med åtminstone lite i diskussionen kring AI och etik i allmänhet. Bland annat snubblade jag över en artikel i The Guardian om hur AI-forskare, utvecklare och andra behöver en egen version av läkarnas Hippokratiska ed (om man letar lite inser man raskt att det finns fler som haft liknande idéer). Även Tegmarks bok innehåller om inte en Hippokratisk ed så väl en samling principer för AI-forskning som utarbetades gemensamt av ett stort antal deltagare på den av Future of Life Institute (FLI) arrangerade AI-konferensen i Asilomar 2017. Så vad innehåller de hör regelsamlingarna?
FLI:s AI-principer gäller sådant som forskningsmål och forskningskultur, men också ambitioner om säkra, transparenta AI-system som respekterar mänsklig värdighet och mänskliga rättigheter. Vissa av dem berör ett scenario med superintelligent AI, där man manar till försiktighet, riskmedvetenhet och att eventuell
superintelligens bara bör utvecklas om det är till hela mänsklighetens
gagn och inte enbart till nytta för en enskild stat eller organisation.
De andra försök till riktlinjer för AI-forskning och -utveckling som jag har sett verkar snarare vara en reaktion på de senaste årens insikter i hur de algoritmer som styr sociala medier påverkar oss, samt delvis på utvecklingen inom autonoma fordon. De delar en del teman med FLI-princinciperna, som t.ex. principer om att det ska gå att förstå varför AI-system fattar de beslut de fattar, men lägger större fokus på sådant som personlig integritet och arbete mot diskriminering. FLI-principerna innehåller också mycket fler inslag som anknyter direkt till den politiska sfären, t.ex. när det gäller forskningsanslag och vikten av forskningssamarbeten men också i ambitionen att den ekonomiska nyttan med AI ska fördelas "brett, för att gagna hela mänskligheten."
De flesta av de här principerna är lätta att hålla med om, åminstone för mig - det låter väldigt bra att undvika kapprustning med militära AI-system och att hindra att AI-systemen förstärker diskriminerande strukturer med sina beslut. Frågan är kanske snarare vad det har för effekt att man utarbetar sådana här riktlinjer, och hur man kan se till att de får genomslag när det inte finns någon organisation som kan se till att de efterlevs, åtminstone inte på global nivå.
En aspekt av detta är att hänvisningarna till läkarnas Hippokratiska ed är lite malplacerade. Även om det är en lockande tanke att AI-utvecklare skulle behöva gå ed på att de inte ska göra någon skada så är läkaryrket på de flesta ställen i världen ett rätt väl reglerat skrå och något man utbildar sig till på ett begränsat antal lärosäten. Det gör att en sammanhållen yrkesetik kan få genomslag och att man kan bestraffa de som bryter mot den. AI-utveckling, å andra sidan, kan man gå gratiskurser i på nätet och många, även bland de som arbetar professionellt med AI, är mer eller mindre självlärda. Det gör att gruppen av människor som forskar på och utvecklar AI är mycket mindre sammanhållen och svårare att kontrollera. Därmed inte sagt att etik inte borde vara en del av utbildningar i AI - så borde det definitivt vara - men jag skulle tro att man behöver en annan modell för hur det ska få genomslag.
Ändå finns det en chans att samlingar av
nedskrivna regler eller principer har en normerande effekt bara genom
att de finns och uppmärksammas. Att de finns innebär ju förhoppningsvis att en grupp människor satt sig ner och tänkt igenom och diskuterat vilka regler som skulle behöva gälla, och det kan fungera som en utgångspunkt för fler diskussioner. Eventuellt kan de också bli ett verktyg för att sätta press på företag och makthavare, som riskerar dålig PR om de bryter mot kända och brett accepterade principer för AI-utveckling.
Trots att FLI:s principer för AI-forskning blickar långt fram i tiden, mot superintelligent AI, känns diskussionen om AI-relaterade problem som är aktuella idag rätt yrvaken. Jag hoppas att den kommer att fortsätta, utan att överskuggas för mycket av de mer medialt tilltalande riskerna med superintelligens. Jag skulle också gärna se en diskussion kring människors inställning till maskininlärnings- och AI-system, t.ex. att vår tendens att se maskiner som opartiska kan leda oss fel om maskininlärningen utförts med skev eller icke-representativ data. Det kanske kommer att behövas en uppsättning principer för användare av AI-system också.
söndag 29 september 2019
måndag 2 september 2019
AI, etik och meningen med livet: funderingar kring Liv 3.0
För att programmera en vänlig AI måste vi fastställa meningen med livet.
-- Max Tegmark, Liv 3.0
Vilken typ av utmaningar kommer vi att möta när maskininlärning blir vanligare inom sjukvård, rättsväsende och krigföring? Hur gör vi livet drägligt och meningsfullt om AI tar över alla jobb? Och vad skulle hända om någon utvecklade en AI med generell intelligens på mänsklig nivå - eller högre?
Den här typen av frågor tas upp i fysikern Max Tegmarks bok Liv 3.0, som kom ut på svenska 2017 men som jag inte kommit mig för att läsa förrän nu. Den omfattar åtta kapitel med ämnen som hur fysiska föremål kan byggas för att kunna minnas och utföra beräkningar, nära förestående utmaningar inom AI, intelligensexplosion med tillhörande framtidscenari
er, samt människors och maskiners målsättningar och frågan om hur man vet att någon är medveten. Boken ger en bred översikt över både artificiell intelligens och ett antal andra frågor som hänger ihop med AI och dess effekter. Tegmark lyckas också nyansera mediebilden av AI i flera avseenden och han är hela tiden noga med att påpeka när ledande experter är oense i någon fråga (som t.ex. hur lång tid det kommer att ta för oss att utveckla en artificiell intelligens som överträffar oss själva).
Ett avgörande syfte med boken är att lyfta diskussionen om de etiska, praktiska och samhälleliga problem som utvecklingen inom AI kan ställa oss inför. Tegmark tar upp frågor som dyker upp både på kort sikt, som AI-styrda vapen, medellång sikt (några tusen år), och riktigt lång sikt (miljarder år). Diskussionen förs mestadels utifrån attityden att generell artificiell intelligens på mänsklig nivå är något som kan utvecklas, och antagligen kommer att utvecklas inom överskådlig framtid (generell artificiell intelligens syftar här på ett system som flexibelt kan ta sig an många olika typer av problem, till skillnad från specialiserade AI:n som bara är bra på att spela go eller köra bil, medan "superintelligens" syftar på generell AI över mänsklig nivå). Även när det gäller våra nuvarande specialiserade AI, som AlphaGo eller algoritmer för självkörande bilar, är Tegmark tydligt imponerad. Just när det gäller självkörande bilar skriver han om dem som om de redan var verklighet, vilket jag tycker är lite väl optimistikt med tanke på hur begränsade dagens autonoma fordon ändå är. Även när det gäller maskinöversättningar med Google translate är han betydligt mer positiv än jag själv, fast det kan ju också bero på hur petig man är med språket.
Jag misstänker att Tegmark ser AI som en mer eller mindre naturlig fortsättning av livets utveckling. Namnet på boken pekar också i den riktningen, eftersom det syftar på Tegmarks klassificering av olika typer av liv som förklaras i första kapitlet. Liv 1.0 är organismer där både kropp och förmågor (som Tegmark jämför med hårdvara och mjukvara) är helt bestämda av genetiska förutsättningar och inte förändras under organismens livstid, medan liv 2.0 är organismer vars fysiska form är genetiskt bestämd men som kan lära sig nya förmågor och beteenden (exempelvis vi själva, som kan lära oss flera språk, att spela instrument och så vidare). Liv 3.0 är då liv som kan ändra både hårdvara och mjukvara, som ett AI som både kan lära sig nya saker och installera sig själv i en bil, ett flygplan eller nån mer avancerad robot alltefter behov.
En annan sak som har stor påverkan på hur de här frågorna läggs fram i boken är Tegmarks övertygelse, framlagd redan i första kapitlet, att medvetande är det som ger mening åt universum och att ett universum utan medvetna varelser är meningslöst. Ett scenario där AI aldrig lyckas utveckla medvetande blir då ett klart sämre scenario än ett där medvetna, intelligenta maskiner utforskar världsrymden långt bortom de gränser som sätts av vad den mänskliga kroppen tål. Det skulle kunna vara en kombination av synen på AI som nästa utvecklingssteg och synen på medvetande som meningsskapande som gör att kapitel 6, det om de riktigt långa tidsperspektiven, upptas så mycket av hur våra hypotetiska AI-ättlingar skulle kunna utvinna energi ur svarta hål och kommunicera över avståndet mellan galaxerna. (Om du ska läsa boken och inte tycker att just detta tema verkar intressant så går det alldeles utmärkt att hoppa över kapitel 6 och gå rakt på diskussionen om mål i kapitel 7. Är du däremot fascinerad av Dysonsfärer och liknande är det högintressant.)
Synen på medvetande slår också igenom i de sista två kapitlen, som handlar om vilka mål AI borde ha och hur man ser till att de har rätt mål respektive hur vi egentligen kan avgöra ifall ett AI (eller något annat synbart intelligent system) är medvetet eller ej. Det är här Tegmark drar slutsatsen att vi innan vi utvecklar superintelligent AI skulle behöva lösa några små filosofiska bryderier som vi tampats med sen före Sokrates: Otvetydiga definitioner av sådant som "mening" och "liv", klarhet i vad som egentligen är "det yttersta etiska imperativet" och naturligtvis frågan om vad medvetande egentligen är.
Jag skulle tro att den sistnämnda frågan är den vi har bäst möjligheter att göra framsteg med - eftersom medvetande är något som existerar är det åtminstone teoretiskt möjligt att vi kan hitta ett sätt att observera det och reda ut vad som krävs för att det ska uppstå. Etiska imperativ är det värre med, framför allt om man som Tegmark vill att de ska uttryckas i "fysiska kvantiteter såsom partikelarrangemang, energi och entropi". Tegmark medger visserligen att vi inte egentligen har någon anledning att tro att våra önskningar när det t.ex. gäller mänsklighetens överlevnad är förenliga med den typen av väldefinierade mål, men han har helt klart inte gett upp. För egen del anser jag att om vi måste veta vad livets mening är för att inte bli utrotade av superintelligent AI så är det ett av de bästa argument jag hört för att inte utveckla AI med superintelligens. (Jag hoppas återkomma till vissa saker som tas upp i de här kapitlen, samt delvis i epilogen, i en senare text.)
Liv 3.0 är en intressant och läsvärd bok, men beroende på hur mycket man delar författarens uppfattning om meningen med universum kan vissa delar kännas lite onödiga. Personligen är jag, även efter att ha läst den, mer bekymrad över vad vi människor kan åstadkomma med AI som inte är smartare än vi själva än över vad superintelligent AI kan ställa till med, men jag är glad att det finns sådana här böcker som lyfter frågorna och bidrar till bättre kunskap om vilka problem som skulle kunna uppstå.
Prenumerera på:
Inlägg (Atom)