söndag 29 september 2019

Osvuret är bäst? AI, principer och Hippokrates

Medan jag skrev om Max Tegmarks bok Liv 3.0 för ett tag försökte jag också hänga med åtminstone lite i diskussionen kring AI och etik i allmänhet. Bland annat snubblade jag över en artikel i The Guardian om hur AI-forskare, utvecklare och andra behöver en egen version av läkarnas Hippokratiska ed (om man letar lite inser man raskt att det finns fler som haft liknande idéer). Även Tegmarks bok innehåller om inte en Hippokratisk ed så väl en samling principer för AI-forskning som utarbetades gemensamt av ett stort antal deltagare på den av Future of Life Institute (FLI) arrangerade AI-konferensen i Asilomar 2017. Så vad innehåller de hör regelsamlingarna?

FLI:s AI-principer gäller sådant som forskningsmål och forskningskultur, men också ambitioner om säkra, transparenta AI-system som respekterar mänsklig värdighet och mänskliga rättigheter. Vissa av dem berör ett scenario med superintelligent AI, där man manar till försiktighet, riskmedvetenhet och att eventuell superintelligens bara bör utvecklas om det är till hela mänsklighetens gagn och inte enbart till nytta för en enskild stat eller organisation.

De andra försök till riktlinjer för AI-forskning och -utveckling som jag har sett verkar snarare vara en reaktion på de senaste årens insikter i hur de algoritmer som styr sociala medier påverkar oss, samt delvis på utvecklingen inom autonoma fordon. De delar en del teman med FLI-princinciperna, som t.ex. principer om att det ska gå att förstå varför AI-system fattar de beslut de fattar, men lägger större fokus på sådant som personlig integritet och arbete mot diskriminering. FLI-principerna innehåller också mycket fler inslag som anknyter direkt till den politiska sfären, t.ex. när det gäller forskningsanslag och vikten av forskningssamarbeten men också i ambitionen att den ekonomiska nyttan med AI ska fördelas "brett, för att gagna hela mänskligheten."

De flesta av de här principerna är lätta att hålla med om, åminstone för mig - det låter väldigt bra att undvika kapprustning med militära AI-system och att hindra att AI-systemen förstärker diskriminerande strukturer med sina beslut. Frågan är kanske snarare vad det har för effekt att man utarbetar sådana här riktlinjer, och hur man kan se till att de får genomslag när det inte finns någon organisation som kan se till att de efterlevs, åtminstone inte på global nivå.

En aspekt av detta är att hänvisningarna till läkarnas Hippokratiska ed är lite malplacerade. Även om det är en lockande tanke att AI-utvecklare skulle behöva gå ed på att de inte ska göra någon skada så är läkaryrket på de flesta ställen i världen ett rätt väl reglerat skrå och något man utbildar sig till på ett begränsat antal lärosäten. Det gör att en sammanhållen yrkesetik kan få genomslag och att man kan bestraffa de som bryter mot den. AI-utveckling, å andra sidan, kan man gå gratiskurser i på nätet och många, även bland de som arbetar professionellt med AI, är mer eller mindre självlärda. Det gör att gruppen av människor som forskar på och utvecklar AI är mycket mindre sammanhållen och svårare att kontrollera. Därmed inte sagt att etik inte borde vara en del av utbildningar i AI - så borde det definitivt vara - men jag skulle tro att man behöver en annan modell för hur det ska få genomslag.

Ändå finns det en chans att samlingar av nedskrivna regler eller principer har en normerande effekt bara genom att de finns och uppmärksammas. Att de finns innebär ju förhoppningsvis att en grupp människor satt sig ner och tänkt igenom och diskuterat vilka regler som skulle behöva gälla, och det kan fungera som en utgångspunkt för fler diskussioner. Eventuellt kan de också bli ett verktyg för att sätta press på företag och makthavare, som riskerar dålig PR om de bryter mot kända och brett accepterade principer för AI-utveckling.

Trots att FLI:s principer för AI-forskning blickar långt fram i tiden, mot superintelligent AI, känns diskussionen om AI-relaterade problem som är aktuella idag rätt yrvaken. Jag hoppas att den kommer att fortsätta, utan att överskuggas för mycket av de mer medialt tilltalande riskerna med superintelligens. Jag skulle också gärna se en diskussion kring människors inställning till maskininlärnings- och AI-system, t.ex. att vår tendens att se maskiner som opartiska kan leda oss fel om maskininlärningen utförts med skev eller icke-representativ data. Det kanske kommer att behövas en uppsättning principer för användare av AI-system också.

Inga kommentarer:

Skicka en kommentar