söndag 22 december 2019

En vandrande plastbit och betingning

Det har av olika anledningar dröjt lite längre än vanligt sen det förra inlägget på den här bloggen. Jag hade tänkt kompensera för uppehållet med en ordentlig djupdykning i tekniken bakom så kallad carbon capture and storage, men så fick jag syn på en video av en vandrande plastbit på svt.se. Tydligen handlar det om ett plastmaterial som normalt sett böjer sig när man hettar upp det, men enligt artikeltexten har forskarna "lärt" det att istället reagera på ljus och det kan därför dra sig framåt som en mätarlarv om man med jämna mellanrum lyser på det.

Så hur i hela världen lär man en plastbit reagera på ljus?

Forskningsarbetet som det hela härrör från har också presenterats i en artikel i tidskriften Matter, en artikel som lyckligtvis är tillgänglig gratis (kudos!). I artikeln framgår det att plastbiten är något som kallas ett "liquid crystal polymer network", alltså ett nätverk av vätskekristaller och andra polymerer. Polymerer är långa molekyler som består av mindre, identiska bitar som upprepar sig  - cellulosa till exempel är en polymer som består av långa kedjor av identiska druvsockermolekyler (glukos). Plastmaterial är i regel polymerer, som polyeten (långa kedjor av etenmolekyler) och polystyren (långa kedjor av styrenmolekyler - "poly" betyder, här som på andra områden, "flera" eller "många").

Vätskekristaller är också långa molekyler, vissa av dem är även polymerer. Det speciella med dem är att de beter sig lite som en vätska, t.ex. att de kan flöda från en behållare till en annan och ändra form, och lite som det forskare menar när de talar om kristaller, d.v.s. att de atomer och molekyler som ingår är arrangerade i regelbundna mönster. Vätskekristaller har en hel rad intressanta egenskaper, här på bloggen har vi t.ex. tidigare skrivit om deras optiska egenskaper och vilka konsekvenser det kan få för lidarsensorer.

Det finns många tidigare studier som visar på hur man binda ihop ett polymernätverk, som ger struktur och stadga, med vätskekristall-molekyler (det finns t.ex. en översiktsartikel här, men den är rätt teknisk). Detta kan till exempel leda till material som böjer sig på ett bestämt sätt när det blir varmt. Det beror på att de annars så välordnade vätskekristallmolekylerna hamnar i oordning när temperaturen ökar. Om de från början ligger som i en rad kan de ta upp mindre plats när de hamnar i oordning, så den delen av materialet drar ihop sig. Om de istället ligger bredvid varandra tar de upp mer plats när de hamnar i oordning, och materialet expanderar. Materialet som används i artikeln har vätskekristaller liggade i rader på ena sidan och vätskekristaller bredvid varandra på den andra, så medan den ena sidan drar ihop sig expanderar den andra. Det gör att materialet börjer sig kraftigt åt ena hållet när det värms upp.


Så redan från början har vi alltså ett plastmaterial som böjs på ett visst sätt när det blir ordentligt varmt. Hur har man då fått det att reagera på ljus istället? I artikeln skriver forskarna att de på ena sidan av plastbiten placerade ett färgämne som absorberar ljus av en viss våglängd. Det absorberade ljuset gör att färgämnet värms upp och avger värme till plastmaterialet, men när det bara ligger i ett skikt på ytan av materialet blir temperaturökningen inte tillräckligt stor för att böja plastmaterialet. Istället utsatte forskara materialet för både ljus och värme samtidigt. Värmen ledde både till att plasten böjde sig och till att färgämnet började sprida sig in i plasten. Ju längre in i plasten färgämnet kom desto mer effektivt kunde plastmaterialet ta upp värmen som färgämnet avgav, vilket ytterligare ökade temperaturen i plasten. När färgämnet till sist var utspritt i hela plastbiten var värmeöverföringen så effektiv att när materialet hade svalnat och rätats ut igen räckte det att bara lysa på materialet för att det skulle bli tillräckligt varmt för att böja sig.

Så på vilket sätt innebär det här att man har lärt plastbiten något? Forskarna själva jämför processen med betingning och drar paralleller till Pavlovs hundar. Pavlovs experiment på hundar visade att hundarna, som normalt började dregla när de fick mat, också kunde fås att börja dregla när man ringde i en klocka, förutsatt att man först flera gånger ringde i klockan samtidigt som hundarna fick mat. Forskarna jämställer här värmen som får plastbiten att böja sig med maten, ljuset med klockan och den samtidiga exponeringen med betingningsfasen.


De medger också själva att jämförelsen haltar en hel del och att plastbiten är ett oerhört mycket enklare system. En viktig skillnad är att Pavlovs hundar reagerade även i total frånvaro av mat, medan plastbiten egentligen inte böjs i avsaknad av värme - värmen tillförs bara genom en annan mekanism. En annan skillnad är att plastbiten inte spontant kan "glömma" sin "betingning" - färgämnet sitter där det sitter. Man hade också lika gärna kunnat hoppa över "betingningen" och introducera färgämnet när man tillverkade plasten, eller få det att sprida sig i plasten bara genom att hetta upp alltihop (d.v.s. utan att exponera det för både ljus och värme samtidigt) och få samma effekt. Om det här egentligen kan beskrivas som en form av betingning, och därmed inlärning, är därför högst tveksamt. Kanske kan den här forskningen ge upphov till en enkel modell för inlärning i material, men det är väldigt långt kvar till en levande organisms nivå.

söndag 13 oktober 2019

Efter att man tämjt litium...

Normalt sett brukar jag inte skriva så mycket om Nobelprisen. De är ju minst sagt uppmärksammade, och därmed presenteras det nästan alltid bra populärvetenskapliga förklaringar av dem någonstans i ett medieflöde nära dig. I år kan jag emellertid inte låta bli att åtminstone reflektera lite över, inte fysikpriset (även om exoplaneter är rätt spännande), utan kemipriset.  (Apropå populärvetenskapliga presentationer så hittar ni KVA:s här.)

Kemipriset i år gick till M. Stanley Whittingham, John B. Goodenough och Akira Yoshino för deras arbete med litiumbatterier. De har inte arbetat i samma forskargrupp eller lab, men deras respektive arbeten bygger vidare på varandra och markerar viktiga milstolpar på vägen mot de litiumbatterier vi har idag.

Som jag nämnt tidigare (lustigt nog i ett inlägg som handlade om en av Goodenoughs artiklar) består batterier i grunden av två elektroder, en positiv och en negativ, åtskilda av en elektrolyt. När man använder batteriet strömmar elektroner och joner (laddade atomer - i det här fallet atomer som gett ifrån sig elektroner och därför är positivt laddade) från den negativa elektroden till den positiva, jonerna genom elektrolyten och elektronerna genom vad det nu är för elektronik man vill använda batteriet till att driva. När man laddar man batteriet igen lagrar det energi genom att tvinga tillbaka elektroner och joner till den negativa elektroden. För att ett uppladdningsbart batteri ska fungera bra behöver alltså båda elektroderna kunna ta upp och ge ifrån sig joner upprepade gånger utan att börja fungera sämre, ändra form eller förstöras. Man måste också se till att litiumjonerna har högre energi när de sitter i den negativa elektroden än i den positiva, eftersom det är den skillnaden man använder för att lagra energi i batteriet.

I litiumbatterier löser man i regel det här med ett poröst kolmaterial, som grafit, i den negativa elektroden (en av Akira Yoshinos upptäckter, för övrigt) och en metalloxid i den positiva. I båda materialen kan litiumjonerna lagras i hålrum eller luckor i materialet, där de binder tillräckligt svagt till atomerna runt omkring för att lätt kunna lämna materialet igen vid urladdning eller uppladdning. För att oxiden i den positiva elektroden ska kunna behålla sin struktur under urladdningen är det vanligt att den innehåller kobolt.

Kobolt är ett problemmaterial i de här sammanhangen. Det framställs på få platser som en biprodukt av utvinningen av andra metaller, t.ex. koppar och nickel. Nånstans runt hälften av världens totala produktion verkar ske i Demokratiska Republiken Kongo, under usla förhållanden. Samtidigt har det visat sig svårt att ersätta helt, trots idoga försök. Man kan minska mängden kobolt man använder genom att istället använda mer nickel och aluminium, men det sänker batteriets kapacitet en aning och under vissa förhållanden kan det vara mindre säkert.

Det här med att en användbar teknik som har positiva effekter för många kräver problematiska råvaror är något som nästan alltid kommer upp när det handlar om energikällor, energilagring och energianvändning. Bensinmotorer kräver, tja, oljeutvinning (och dessutom många andra välkända nackdelar, som låg verkningsgrad och koldioxidutsläpp). Bränsleceller, åtminstone sådanan som fungerar vid någorlunda rimliga temperaturer, har sina katalysatorer av dyr och sällsynt platina. Vindkraftverk har neodyn.

Vi kan inte undvika att all framställning, lagrning och användning av energi har effekter på vår omgivning. Vi borde kunna undvika de mest horribla lokala konsekvenserna av mineralbrytning, och vi borde kunna ta vara på den kobolt, litium etc. som vi redan tagit fram genom bättre återvinning (notera att länken bara är ett exempel - det verkar finnas många som jobbar med detta). Tyvärr är just återvinning nåt som ofta släpar efter resten av teknikutvecklingen och som bara får verkligt genomslag när priserna på nya råvaror skjuter i höjden.

Och så kan vi ju också fortsätta hoppas på att nån kommer på ett sätt att ersätta kobolt i litiumbatterier. Jag har hört att den 97-årigen professor Goodenough inte känner sig färdig för pension riktigt än.

söndag 29 september 2019

Osvuret är bäst? AI, principer och Hippokrates

Medan jag skrev om Max Tegmarks bok Liv 3.0 för ett tag försökte jag också hänga med åtminstone lite i diskussionen kring AI och etik i allmänhet. Bland annat snubblade jag över en artikel i The Guardian om hur AI-forskare, utvecklare och andra behöver en egen version av läkarnas Hippokratiska ed (om man letar lite inser man raskt att det finns fler som haft liknande idéer). Även Tegmarks bok innehåller om inte en Hippokratisk ed så väl en samling principer för AI-forskning som utarbetades gemensamt av ett stort antal deltagare på den av Future of Life Institute (FLI) arrangerade AI-konferensen i Asilomar 2017. Så vad innehåller de hör regelsamlingarna?

FLI:s AI-principer gäller sådant som forskningsmål och forskningskultur, men också ambitioner om säkra, transparenta AI-system som respekterar mänsklig värdighet och mänskliga rättigheter. Vissa av dem berör ett scenario med superintelligent AI, där man manar till försiktighet, riskmedvetenhet och att eventuell superintelligens bara bör utvecklas om det är till hela mänsklighetens gagn och inte enbart till nytta för en enskild stat eller organisation.

De andra försök till riktlinjer för AI-forskning och -utveckling som jag har sett verkar snarare vara en reaktion på de senaste årens insikter i hur de algoritmer som styr sociala medier påverkar oss, samt delvis på utvecklingen inom autonoma fordon. De delar en del teman med FLI-princinciperna, som t.ex. principer om att det ska gå att förstå varför AI-system fattar de beslut de fattar, men lägger större fokus på sådant som personlig integritet och arbete mot diskriminering. FLI-principerna innehåller också mycket fler inslag som anknyter direkt till den politiska sfären, t.ex. när det gäller forskningsanslag och vikten av forskningssamarbeten men också i ambitionen att den ekonomiska nyttan med AI ska fördelas "brett, för att gagna hela mänskligheten."

De flesta av de här principerna är lätta att hålla med om, åminstone för mig - det låter väldigt bra att undvika kapprustning med militära AI-system och att hindra att AI-systemen förstärker diskriminerande strukturer med sina beslut. Frågan är kanske snarare vad det har för effekt att man utarbetar sådana här riktlinjer, och hur man kan se till att de får genomslag när det inte finns någon organisation som kan se till att de efterlevs, åtminstone inte på global nivå.

En aspekt av detta är att hänvisningarna till läkarnas Hippokratiska ed är lite malplacerade. Även om det är en lockande tanke att AI-utvecklare skulle behöva gå ed på att de inte ska göra någon skada så är läkaryrket på de flesta ställen i världen ett rätt väl reglerat skrå och något man utbildar sig till på ett begränsat antal lärosäten. Det gör att en sammanhållen yrkesetik kan få genomslag och att man kan bestraffa de som bryter mot den. AI-utveckling, å andra sidan, kan man gå gratiskurser i på nätet och många, även bland de som arbetar professionellt med AI, är mer eller mindre självlärda. Det gör att gruppen av människor som forskar på och utvecklar AI är mycket mindre sammanhållen och svårare att kontrollera. Därmed inte sagt att etik inte borde vara en del av utbildningar i AI - så borde det definitivt vara - men jag skulle tro att man behöver en annan modell för hur det ska få genomslag.

Ändå finns det en chans att samlingar av nedskrivna regler eller principer har en normerande effekt bara genom att de finns och uppmärksammas. Att de finns innebär ju förhoppningsvis att en grupp människor satt sig ner och tänkt igenom och diskuterat vilka regler som skulle behöva gälla, och det kan fungera som en utgångspunkt för fler diskussioner. Eventuellt kan de också bli ett verktyg för att sätta press på företag och makthavare, som riskerar dålig PR om de bryter mot kända och brett accepterade principer för AI-utveckling.

Trots att FLI:s principer för AI-forskning blickar långt fram i tiden, mot superintelligent AI, känns diskussionen om AI-relaterade problem som är aktuella idag rätt yrvaken. Jag hoppas att den kommer att fortsätta, utan att överskuggas för mycket av de mer medialt tilltalande riskerna med superintelligens. Jag skulle också gärna se en diskussion kring människors inställning till maskininlärnings- och AI-system, t.ex. att vår tendens att se maskiner som opartiska kan leda oss fel om maskininlärningen utförts med skev eller icke-representativ data. Det kanske kommer att behövas en uppsättning principer för användare av AI-system också.

måndag 2 september 2019

AI, etik och meningen med livet: funderingar kring Liv 3.0



För att programmera en vänlig AI måste vi fastställa meningen med livet.
                                                              -- Max Tegmark, Liv 3.0 

Vilken typ av utmaningar kommer vi att möta när maskininlärning blir vanligare inom sjukvård, rättsväsende och krigföring? Hur gör vi livet drägligt och meningsfullt om AI tar över alla jobb? Och vad skulle hända om någon utvecklade en AI med generell intelligens på mänsklig nivå - eller högre?

Den här typen av frågor tas upp i fysikern Max Tegmarks bok Liv 3.0, som kom ut på svenska 2017 men som jag inte kommit mig för att läsa förrän nu. Den omfattar åtta kapitel med ämnen som hur fysiska föremål kan byggas för att kunna minnas och utföra beräkningar, nära förestående utmaningar inom AI, intelligensexplosion med tillhörande framtidscenari
er, samt människors och maskiners målsättningar och frågan om hur man vet att någon är medveten. Boken ger en bred översikt över både artificiell intelligens och ett antal andra frågor som hänger ihop med AI och dess effekter. Tegmark lyckas också nyansera mediebilden av AI i flera avseenden och han är hela tiden noga med att påpeka när ledande experter är oense i någon fråga (som t.ex. hur lång tid det kommer att ta för oss att utveckla en artificiell intelligens som överträffar oss själva).

Ett avgörande syfte med boken är att lyfta diskussionen om de etiska, praktiska och samhälleliga problem som utvecklingen inom AI kan ställa oss inför. Tegmark tar upp frågor som dyker upp både på kort sikt, som AI-styrda vapen, medellång sikt (några tusen år), och riktigt lång sikt (miljarder år). Diskussionen förs mestadels utifrån attityden att generell artificiell intelligens på mänsklig nivå är något som kan utvecklas, och antagligen kommer att utvecklas inom överskådlig framtid (generell artificiell intelligens syftar här på ett system som flexibelt kan ta sig an många olika typer av problem, till skillnad från specialiserade AI:n som bara är bra på att spela go eller köra bil, medan "superintelligens" syftar på generell AI över mänsklig nivå). Även när det gäller våra nuvarande specialiserade AI, som AlphaGo eller algoritmer för självkörande bilar, är Tegmark tydligt imponerad. Just när det gäller självkörande bilar skriver han om dem som om de redan var verklighet, vilket jag tycker är lite väl optimistikt med tanke på hur begränsade dagens autonoma fordon ändå är. Även när det gäller maskinöversättningar med Google translate är han betydligt mer positiv än jag själv, fast det kan ju också bero på hur petig man är med språket.

Jag misstänker att Tegmark ser AI som en mer eller mindre naturlig fortsättning av livets utveckling. Namnet på boken pekar också i den riktningen, eftersom det syftar på Tegmarks klassificering av olika typer av liv som förklaras i första kapitlet. Liv 1.0 är organismer där både kropp och förmågor (som Tegmark jämför med hårdvara och mjukvara) är helt bestämda av genetiska förutsättningar och inte förändras under organismens livstid, medan liv 2.0 är organismer vars fysiska form är genetiskt bestämd men som kan lära sig nya förmågor och beteenden (exempelvis vi själva, som kan lära oss flera språk, att spela instrument och så vidare). Liv 3.0 är då liv som kan ändra både hårdvara och mjukvara, som ett AI som både kan lära sig nya saker och installera sig själv i en bil, ett flygplan eller nån mer avancerad robot alltefter behov.

En annan sak som har stor påverkan på hur de här frågorna läggs fram i boken är Tegmarks övertygelse, framlagd redan i första kapitlet, att medvetande är det som ger mening åt universum och att ett universum utan medvetna varelser är meningslöst. Ett scenario där AI aldrig lyckas utveckla medvetande blir då ett klart sämre scenario än ett där medvetna, intelligenta maskiner utforskar världsrymden långt bortom de gränser som sätts av vad den mänskliga kroppen tål. Det skulle kunna vara en kombination av synen på AI som nästa utvecklingssteg och synen på medvetande som meningsskapande som gör att kapitel 6, det om de riktigt långa tidsperspektiven, upptas så mycket av hur våra hypotetiska AI-ättlingar skulle kunna utvinna energi ur svarta hål och kommunicera över avståndet mellan galaxerna. (Om du ska läsa boken och inte tycker att just detta tema verkar intressant så går det alldeles utmärkt att hoppa över kapitel 6 och gå rakt på diskussionen om mål i kapitel 7. Är du däremot fascinerad av Dysonsfärer och liknande är det högintressant.)

Synen på medvetande slår också igenom i de sista två kapitlen, som handlar om vilka mål AI borde ha och hur man ser till att de har rätt mål respektive hur vi egentligen kan avgöra ifall ett AI (eller något annat synbart intelligent system) är medvetet eller ej. Det är här Tegmark drar slutsatsen att vi innan vi utvecklar superintelligent AI skulle behöva lösa några små filosofiska bryderier som vi tampats med sen före Sokrates: Otvetydiga definitioner av sådant som "mening" och "liv", klarhet i vad som egentligen är "det yttersta etiska imperativet" och naturligtvis frågan om vad medvetande egentligen är.

Jag skulle tro att den sistnämnda frågan är den vi har bäst möjligheter att göra framsteg med - eftersom medvetande är något som existerar är det åtminstone teoretiskt möjligt att vi kan hitta ett sätt att observera det och reda ut vad som krävs för att det ska uppstå. Etiska imperativ är det värre med, framför allt om man som Tegmark vill att de ska uttryckas i "fysiska kvantiteter såsom partikelarrangemang, energi och entropi". Tegmark medger visserligen att vi inte egentligen har någon anledning att tro att våra önskningar när det t.ex. gäller mänsklighetens överlevnad är förenliga med den typen av väldefinierade mål, men han har helt klart inte gett upp. För egen del anser jag att om vi måste veta vad livets mening är för att inte bli utrotade av superintelligent AI så är det ett av de bästa argument jag hört för att inte utveckla AI med superintelligens. (Jag hoppas återkomma till vissa saker som tas upp i de här kapitlen, samt delvis i epilogen, i en senare text.)

Liv 3.0 är en intressant och läsvärd bok, men beroende på hur mycket man delar författarens uppfattning om meningen med universum kan vissa delar kännas lite onödiga. Personligen är jag, även efter att ha läst den, mer bekymrad över vad vi människor kan åstadkomma med AI som inte är smartare än vi själva än över vad superintelligent AI kan ställa till med, men jag är glad att det finns sådana här böcker som lyfter frågorna och bidrar till bättre kunskap om vilka problem som skulle kunna uppstå.

tisdag 16 juli 2019

Om vätskekristaller och LIDAR

När företag försöker utveckla självkörande bilar har de en tendens att utrusta sina testfordon med ett stort antal sensorer av olika slag. En populär typ av sensor är lidar, en sensor som sänder ut korta pulser av laserljus (i regel infrarött) och mäter tiden det tar för pulsen att reflekteras av något i omgivningen och återvända till sensorn. Från informationen om hur lång tid som passerat och vilken riktning lasern pekade i är det lätt att ta reda på positionen för föremålet som reflekterade pulsen. Om man sedan sveper med lasern över olika vinklar får man en serie mätningar som ger avstånet till närmaste föremål för varje vinkel (bra att veta om man vill undvika att krocka med något). Detta ger en översikt över omgivningen i två dimensioner, och vill man så kan man placera flera lasrar ovanför varandra för att få en tredimensionell uppmätning av omgivningen. En lidar kan ge relativt högupplöst information om hur omgivningen ser ut upp till drygt hundra meters avstånd, så det är inte konstigt att de är populära bland de som samlar in data till algoritmer för autonom körning.

Å andra sidan finns det ju de som föredrar att inte använda lidar, som Elon Musks Tesla till exempel. Lidartekniken har ett antal nackndelar, till exempel att varje enskild lidarenhet är rätt dyr och att de har en tendens att gå sönder ofta på grund av att de innehåller så många rörliga delar. Vissa lidarsensorer har lasrar som helt enklet snurrar 360 grader, andra förlitar sig på mindre rörelser med speglar och olika mikroelektromekaniska element, men de verkar alla behöva rörliga delar som slits fort.

Nu finns det några som påstår sig ha löst det problemet, nämligen det amerikanska företaget Lumotive som i mars i år tillkännagav de att de har en metod för att slippa de rörliga delarna helt. Enligt IEEE Spectrum har de lyckats med detta genom att använda ett metamaterial med vätskekristaller för att sakta ner valda delar av laserstrålen relativt andra delar. Detta betyder att vågtoppar och vågdalar hos den elektromagnetiska vågen kommer att uppträda på olika ställen för olika delar av laserstrålen, vilket gör att de förstärker varandra i vissa riktningar och släcker ut varandra i andra riktningar. Genom att kontrollera vilka delar av strålen som saktas ner är det därför möjligt att kontrollera riktningen på strålen (detta är samma sak som det jag försökte beskriva när jag skrev om Radar och den snurrande grejen, fast nu gäller det infrarött istället för millimetervågor).

Om det här visar sig funka kommer det att bli väldigt användbart, men vad menas egentligen med ett metamaterial med vätskekristaller? Vi vet att ett metamaterial är ett artificiellt material som är konstruerat av små bitar eller komponenter gjorda av vanliga material och att de ofta designas för att ha rätt exotiska egenskaper. Så vad det gäller bör då vara ett artificiellt material där en av komponenterna är vätskekristaller.

Vätskekristaller är material, oftast bestående av väldigt långa molekyler, som beter sig lite som vätskor och lite som kristaller. (Här handlar det om den vetenskapliga betydelsen av kristall, d.v.s. att atomer och molekyler sitter ordnade i ett regelbundet tredimensionellt mönster, eller kristallgitter). Till exempel så kan vätskekristaller i regel flyta ut och ändra form som en vätska, men molekylerna håller sig ändå i ett någorlunda välordnat kristallgitter. Både Lumotives lidar och den mer välkända tillämpningen av vätskekristaller, alltså vätskekristallskärmar (LCD), använder sig av att det är lätt att ändra molekylernas riktning (eftersom det är en vätska) i kombination med de speciella optiska egenskaper som följer av kristallstrukturen.

Eftersom vätskekristaller oftast består av avlånga molekyler har de en tendens att vara väldigt anisotropa, det vill säga egenskaperna hos vätskekristallen är annorlunda om du betraktar den i en riktning längs med molekylerna jämfört med i en riktning som går på tvärs mot dem. När det gäller optiska egenskaper innebär detta att den hastighet som ljuset rör sig med i materialet, och därmed också materialets brytningsindex, är olika för ljus som rör sig längs molekylerna och för ljus som rör sig på tvärs mot molekylerna. Effekten är också beroende av hur molekylernas riktning förhåller sig till ljusets polarisation, på ett sätt som gör att vätskekristaller kan ändra polarisationsriktningen hos ljus som passerar igenom dem.

Den här förmågan att ändra polarisationsriktningen hos ljus är vad man använder sig av i LCD-skärmar. Påverkan på polarisationen är som sagt beroende av hur molekylerna är ordnade, och det kan man ändra på genom att utsätta dem för ett elektriskt fält. Genom att placera vätskekristall mellan polarisationsfilter och sedan justera orienteringen av molekylerna i vätskekristallen kan man antingen få mycket ljus att passera igenom, genom att se till att polarisationen på ljuset stämmer med båda polarisationsfiltren, eller få väldigt lite ljus att passera genom att se till att ljusets polarisation är vinkelrät mot åtminstone ett av polarisationsfiltren. Det gör att man kan slå av eller på varje enskild pixel med hjälp av de elektriska fält som styr molekylriktningen.

Metamaterialen som används i Lumotives lidarsensorer, å andra sdan, verkar bygga på att använda skillnaden i brytningsindex för olika riktningar i vätskekristallen*. Precis som i LCD-skärmar så kontrolleras riktningen på molekylerna med hjälp av elektriska fält, men med målet att justera brytningsindex till ett specifikt värde istället för att påverka polarisationen. Man kan se det som att man väljer om ljuset ska propagera längs med molekylerna, på tvärs mot dem eller i någon annan vinkel, och att man använder sig av skillnaden i brytningsindex mellan de olika lägena.

Ett metamaterial har av naturliga skäl mer en en komponent. I det här fallet handlar det, förutom vätskekristallen, om en struktur med kiselväggar som bildar så kallade dielektriska resonatorer, där varje resonator är fylld med vätskekristall. När brytningsindex för vätskekristallen ändras betyder det att man ändrar egenskaperna för hela resonatorn. Om en laserstråle reflekteras mot en yta som består av ett stort antal sådana resonatorer så kommer effekten att bli att vissa delar av den inkommande strålen saktas ner innan de reflekteras, precis som vi beskrev ovan. Genom att justera det elektriska fältet som vätskekristallerna utsätts för i de olika resonatorerna kan man därför styra den reflekterade laserstrålen.

Om den här tekniken visar sig fungera bra i verkligheten kan det göra lidar till en mycket billigare, och därför mycket vanligare, sensor. Hur långt det tar oss när det gäller självkörande bilar återstår att se.

* Det här är hämtat från den internationella patentansökan WO2018156688A1, som har Lumotives CTO listad som uppfinnare, men jag kan naturligtvis inte vara säker på att det är exakt den tekniken de använder. 

tisdag 2 juli 2019

Boken Factfulness och trenden med handböcker i tänkande

Boken Factfulness, skriven av Hans Rosling, Anna Rosling Rönnlund och Ola Rosling, är en intressant bok. Den är ett resultat av Hans Roslings decennier av arbete med internationell hälsa, utveckling och folkbildning och den innehåller naturligtvis lättfattliga illustrationer av levnadsstandarden i olika länder, faktafrågor om tillståndet i världen och anekdoter från Roslings händelserika liv. Tio av bokens kapitel avhandlar olika tankefällor, eller "instinkter", som ställer till det för oss när vi försöker begripa oss på den värld vi lever i, som "Gapinstinkten" och "Linjärinstinkten". Varje kapitel avslutas med knep för att känna igen instinkten när man träffar på den i verkligheten och tips på hur man kan tänka för att inte själv hamna i tankefällan. Det elfte kapitlet handlar om factfulness i praktiken, vad man kan göra inom utbildning, näringsliv och media för att främja en mer faktabaserad bild av världen.

Om man bara vill recensera Factfulness kan man egentligen stanna där, vid att det är en tankeväckande och underhållande bok som kan ge nya perspektiv på världen och hjälpa en att få en mer faktabaserad världsbild. Emellertid finns det ett sammanhang, eller en trend, som Roslings bok på sätt och vis är en del av och som jag funderat en del över på den senaste tiden. Jag syftar på trenden med artiklar och böcker som ska lära oss tänka bättre.

Jag kan inte göra anspråk på att ha läst alla texter av det här slaget, men några har jag hunnit med. Förutom Factfulness är det Åsa Wikforss Alternativa Fakta (som jag dessutom recenserat här), Emma Franz Larmrapporten och Mick Wests Escaping the Rabbit Hole, som handlar om konspirationsteorier ( och som jag också recenserat, dock inte på bloggen). De här böckerna handskas alla med våra mindre rationella kognitiva skevheter, tankefällor och instinkter, även om de närmar sig dem från olika perspektiv. Författarna vill hjälpa sina läsare till en världsbild som ligger närmre den observerbara verkligheten, oavsett om det handlar om att veta hur mycket fattigdom det finns i världen, att tolka medias larm eller att genomskåda konspirationsteorier. Böckerna blir därför en sorts handböcker för den som vill skärpa sin förmåga att skilja sant från falskt eller åtminstone rimligt från orimligt.

Det är kanske bäst att jag börjar med att påpeka att jag tycker de här böckerna är bra, jag kan rekommendera dem allihop. Min fundering gäller snarare om trenden kommer att få några effekter på samhället i stort. Det är trots allt inte första gången tankefällor av olika slag är uppe till diskussion i offentligheten, de har t.ex. en framträdande plats i David Kahnemans Thinking, fast and slow från 2011, men det verkar inte vara förrän nu som de riktigt tagit plats i det allmänna medvetandet. Delvis kan detta bero på själva mängden material. Det har kommit rätt många böcker inom loppet av bara några år, samt en strid ström av artiklar, krönikor och faktagransknings-satsningar (senast jag såg en artikel av den här typen var för bara några dagar sedan). Den ökade mängden material ger också trenden en större bredd, med böcker som angriper ämnet från olika perspektiv och antagligen når fler läsare.

En annan skillnad jämfört med tidigare diskussioner är att större vikt läggs vid hur samhället påverkas av t.ex. falska nyheter. Böckerna jag nämnde ovan uppmuntrar läsaren till att påverka sin omgivning. Samtliga innehåller ett eller flera kapitel som handlar om vad man som individ kan göra - för att bli mer "factful", utvärdera information bättre eller avslöja falska nyheter. Samtliga dessa kapitel innefattar tips om hur man diskuterar med meningsmotståndare på ett bra sätt och hur man kan bära sig åt för att ändra någons uppfattning (i Escaping the Rabbit Hole så är detta till och med huvudpoängen). Så vitt jag minns har det inte alls varit lika framträdande i tidigare diskussioner kring tankefel, där har det mest varit en fråga om hur man själv drar nytta av att lära sig tänka bättre. Att problemet med kognitiva skevheter delvis formulerats om till ett gemensamt problem ökar antagligen chanserna till varaktiga effekter, eftersom det gör det lättare att till exempel propagera för mer undervisning om kritiskt tänkande i skolorna eller andra typer av utbildningsinsatser.

Båda de här skillnaderna är delvis konsekvenser av hur den här trenden svarar mot det politiska läget i världen. Flera av de här böckerna (dock inte just Factfulness) och den absoluta majorieten tidningsartiklar och krönikor i ämnet har ganska uppenbart dykt upp just nu på grund av diskussionen kring falska nyheter, som i sin tur hänger ihop med Trump, Brexit och uppgifter om påverkansoperationer mot val och folkomröstningar. Till skillnad från tidigare tillfällen när kognitiva skevheter varit på agendan finns det nu ett tydligt bevis på att stora grupper väljer bort den verklighetsbild som ges t.ex. av etablerade medier till förmån för mindre väl underbyggda källor. Det bidrar till att dessa etablerade medier fått upp ögonen för problemet.

I denna situation finns det en risk att kunskapen om tankefällor och kognitiva skevheter bara blir verktyg för att förstå varför "de andra", som inte håller med en, tänker "fel", trots att det riktigt intressanta vore om folk började vända blicken mot sina egna tankeprocesser och bli mer medvetna om sina egna svagheter. Det hjälper inte direkt att kognitiva skevheter funkar så bra som slagträ i debatter - eftersom de finns hos praktiskt taget alla människor går det alltid att hitta något fel i motståndarens argument som man kan dra fram och triumferande drämma i bordet. Att däremot granska sina egna tankegångar är inte alls lika trevligt.

Det bör sägas att de fyra böcker jag refererar till här alla poängterar att vem som helst kan falla i tankefällor. I just Factfulness illustreras detta både av att författarna redovisar hur vitt skilda grupper konsekvent svarar sämre än slumpen på deras faktafrågor och genom att flera av anekdoterna handlar om hur Hans Rosling själv trillat i tankefällor vid olika tillfällen i sitt liv. Jag hoppas bara att just denna aspekt inte faller bort om de här böckerna faktiskt leder till en attitydförändring i samhället.

För att författarna till de här böckerna hoppas på förändring är tydligt. De hoppas att vi ska bli mer källkritiska, bättre på att analysera information vi får och mer välinformerade om tillståndet i världen. Vissa vill också att journalister och andra med stort medieutrymme ska ge mediekonsumenter bättre vägledning och information för att skilja ut alternativa fakta. Det vore väldigt bra om åtminstone en del av de här sakerna faktiskt besannades.

Ändå kan jag inte låta bli att fundera över grundinställningen att våra kognitiva skevheter är avvikelser som kan korrigeras, eller åtminstone dämpas, om vi bara får mer kunskap. Vi lever i ett samhälle som i stora delar förväntar sig att vi agerar hyfsat rationellt och kan stå emot när någon siktar in sig på våra tankemässiga svaga punkter - med riktade falska nyheter à la Cambridge Analytica eller med annan riktad reklam och propaganda. Det kan visa sig att det i många fall inte är en rimlig förväntan, och då vore det intressant om uppmärksamheten kring tankefällor ledde till en omvärdering av de delar av samhället som förutsätter att vi är mer rationella än vi faktiskt verkar vara.

söndag 2 juni 2019

Mer maskininlärning inom materialfysiken

For those who prefer to read in English, this post is also available on my other blog.

I ett tidigare inlägg kollade vi på en vetenskaplig studie där maskininlärning användes för att bestämma vissa egenskaper hos dopat grafén. En av mina tankar kring detta var att studien var lite otillfredsställande eftersom den visserligen visade att neurala nätverk kan tränas till att bestämma materialegenskaper, men inte innehöll några försök att förstå hur nätverket nådde ett visst resultat - trots att detta hade kunnat lära oss något både om nätverket och om dopat grafén som sådant.

Faktum är att i artikeln om dopat grafén refereras en studie där man har gjort just ett sådant försök, fast för en helt annan forskningsfråga. I artikeln, som är publicerad i Nature Communications, avhandlas problemet med en robust metod för att klassificera kristallstrukturer utan att använda en uppsjö av svårjusterade tröskelvärden och parametrar. Dessutom tillämpar de en metod för att undersöka vad som händer i det neurala nätverket.

Klassificering av kristallstrukturer låter i och för sig inte som det mest spännande problemet i världen, men inom materialvetenskap och kondenserade materiens fysik är det rätt viktigt. Många material är kristallina, d.v.s. de består av grupper av atomer som upprepas på ett regelbundet sätt. Att veta hur de här grupperna av atomer ser ut och vilka typer av symmetrier de uppvisar är viktigt för att kunna förstå, undersöka och modellera material - samt ibland för att ta reda på hur de kan användas och förbättras. Det är också en ganska långdragen process som lätt kan gå fel, exempelvis om det finns störningar i den mätdata man använder. Dessutom innehåller alla verkliga material man kan mäta på defekter, d.v.s. avvikelser från den struktur man försöker känna igen. I studien vi pratar om här är målsättningen att utveckla en robust klassificeringsmetod som kan hantera närvaron av defekter utan att det leder till felaktiga klassificeringar.

Första steget är att bestämma vilken sorts indata man ska använda. Detta är mer komplicerat än man kan tro eftersom det kan påverka klassificeringen - använder man t.ex. atomernas positioner relativt varandra rakt av så kan det leda till en större känslighet för vissa typer av defekter. Istället har man valt att använda diffraktionsmönster, som reducerar informationen om atomers positioner och relativa avstånd till varandra till ett antal prickar i ett bestämt mönster. (Om du minns diffraktionsmönster från fysiklektionerna i gymnasiet så är det här ungefär samma sak, fast med lager av atomer istället för diffraktionsgitter och elektromagnetisk strålning med kortare våglängd än synligt ljus.) Diffraktionsmönstren används som indata i ett convolutional neural network (CNN) med flera lager, som plockar ut karaktäristiska drag ur mönstret och sedan klassificerar det baserat på de karaktäristiska dragen. I den här studien visade tester av nätverket goda resultat även i fall där strukturerna man försökte klassificera inkluderade en stor andel defekter.

Det intressantaste med den här studien är dock hur forskarna valde att utvärdera sitt nätverk. Som vi nämnt i tidigare inlägg så kan man likna första lagret i ett CNN med att man jämför delar av en bild med en annan, mindre bild, och om de matchar varandra får man en positiv output. Output från den första omgången används sedan i ytterligare en jämförelse som plockar ut mer komplicerade drag, och så vidare. När man tränar det neurala nätverket justerar man de mindre "bilderna", även kallade filter, så att de svarar mot drag i inputbilderna som gör det möjligt för nätverket att göra en korrekt klassificering. Om det är nödvändigt att plocka ut igen räta linjer för att klassificera indata korrekt så kommer några filter att motsvara räta linjer, är prickar viktiga kommer några filter att motsvara prickar, och så vidare.

Detta innebär också att när det neurala nätverket är färdigtränat och används för att processa en bild så kommer det, efter många lager av jämförelser, att finnas en del av nätverket som representerar de drag som finns i bilden och som det neurala nätverket har tränats till att plocka ut och klassificera. Den här delen av nätverket skulle kunna visa på vilken information nätverket använder för klassificering av den aktuella bilden, men eftersom stegen innan är såpass komplexa är den också svår att tolka. Det är emellertid möjligt att plocka ut den här representationen av de utvalda dragen och gå igenom alla tidigare steg i nätverket fast baklänges. Denna process genererar en sorts bild som också visar vilka drag nätverket har plockat ut ur den ursprungliga bilden, men på ett sätt som är lättare att tolka. Genom att använda den här metoden kunde forskarna visa att det neurala nätverket automatiskt hade lärt sig att klassificera baserat på drag som människor också använder för att klassificera kristallstrukturer, som avstånd mellan plan av atomer.

Så vad är det som är så intressant med detta? För det första visar det på en metod för att kontrollera att nätverkets klassificering baseras på något som vi skulle anse betydelsefullt, och inte till exempel på någon typ av slumpmässigt brus som är mer vanligt i vissa typer av bilder än andra. För det andra pekar det på att man kan använda neurala nätverk inte bara för att klassificera data utan också för öka vår förståelse för den data vi klassificerar. Det är trots allt möjligt att nätverket kan plocka ut någon skillnad mellan olika data som vi inte omedelbart inser vikten av. Personligen anser jag att det är en bra strategi om man ska tillämpa maskininlärning inom fysik - att inte bara se hur man kan använda neurala nätverk, utan också varför det fungerar.

söndag 19 maj 2019

Utsläppsrätter och målsättningar - en översikt över de politiska partiernas klimatambitioner inför EU-valet

Om en vecka är det val till EU-parlamentet, något som i vanlig ordning inte skapar så mycket rubriker trots tappra försök från både kampanjande politiker och public service. För att ge det lite mer uppmärksamhet kommer här en uppföljare till en artikel jag skrev i Folkvett 18-3, där jag försökte avgöra om riksdagspartiernas förslag på klimatåtgärder faktiskt skulle kunna påverka klimatet åt rätt håll. Här tänkte jag istället kolla på de delar av miljöpolitiken där EU har stort inflytande och vad partierna säger om dessa i sina EU-valplattformar. Eftersom det sitter fler svenska partier i EU-parlamentet än i riksdagen kommer jag också förutom riksdagspartierna att ta med Feministiskt Initiativ, som blev invalt i EU-parlamentet 2014, och Partiet Vändpunkt som fick ett mandat i år genom att en av Miljöpartiets EU-parlamentariker bytte parti.

Vilka delar av klimatpolitiken påverkar EU mest?
Den första frågan man kan ställa sig är vad EU egentligen kan göra på klimatområdet när rätt mycket av de faktiska lagarna fortfarande beslutas på nationell nivå. Går man in på EU-kommissionens hemsida och läser om deras klimatambitioner för 2020, 2030 och 2050 ser man att de lyfter fram tre typer av åtgärder: justeringar i handeln med utsläppsrätter, överenskommelser om utsläppsmål för medlemsstaterna och åtgärder för energieffektivisering. Av de här tre typerna av åtgärder är handeln med utsläppsrätter den som EU-kommissionens egen hemsida framhåller som EU:s nyckelåtgärd. Handeln med utsläppsrätter används för att begränsa och sätta ett pris på utsläpp från energisektorn, tillverkningsindustrin och flyget, med ambitioner att successivt sänka den totala mängden koldioxid som får släppas ut. Andra typer av transporter och sådant som t.ex. jordbruk omfattas inte av handeln med utsläppsrätter, där kan istället medlemsländerna själva sätta in åtgärder för att nå sina utsläppsmål.

Även om handel med utsläppsrätter är nyckelåtgärden så har nog energieffektiviseringen en mer direkt påverkan på enskilda medborgare, eftersom vi bland tidigare åtgärder på området bland annat hittar obligatoriska energieffektivitescertifikat för byggnader och märkning av t.ex. vitvaror för att visa hur energieffektiva de är. En annan sak som kan märkas i vardagen är EU:s satsningar på cirkulär ekonomi, vilket i deras tappning främst handlar om mer omfattande och effektiv materialåtervinning.

När det gäller effekten av de här åtgärderna konstaterade vi i den förra artikeln att handel med utsläppsrätter verkar ha positiv effekt. Att energibesparingar är bra så länge de inte helt äts upp av ökad total konsumtion är också rimligt. Alltså verkar EU göra saker som kan fungera, men det finns ingen garanti för att det är tillräckligt.

Och vad vill de svenska partierna?
Så vad har våra svenska partier för attityder och ambitioner i förhållande till EU och klimatet? I stort verkar man kunna dela in dem i fyra grupper, beroende både på hur höga klimatambitioner de har och om de tror att EU kan nå upp till de ambitionerna.

Grupp 1: de entusiastiska
I den här gruppen hittar vi dem som gillar EU:s nuvarande klimat- och miljöåtgärder och EU som företeelse, men gärna skulle göra mer. Centerpartiet och Liberalerna hamnar här då de båda gillar handeln med utsläppsrätter och utsläppsmål men vill ha högre krav, lägre totala utsläpp och i Liberalernas fall en koldioxidskatt. Båda partierna förespråkar också mer forskning och utveckling av teknik som kan minska utsläppen.
Miljöpartiet hamnar också i den här gruppen. Även om de inte är lika entusiastiska EU-anhängare som de båda andra verkar de öppna för att använda EU i klimatpolitiken, med generellt hårdare krav på utsläppsminskningar, satsning på järnvägar och utfasning av verksamhet som skadar klimatet ur EUs: budget.

De systemkritiska
Den som följt miljörörelsen en längre tid vet att det alltid funnits starka inslag av civilisations- och systemkritik, där konsumtionssamhället och ibland kapitalismen hamnar i skottgluggen som orsaker till inte bara miljöförstöring utan också brist på social hållbarhet. Bland partierna representeras detta framför allt av Feministiskt Initiativ och det nybildade Partiet Vändpunkt , samt i viss mån Vänsterpartiet.

Dessa tre partier kräver alla en omfattande och snabb omställning till ett miljövänligare samhälle, men till skillnad från entusiasterna i den första gruppen förespråkar de större systemförändringar och säger sig vilja motverka att grupper som redan har det besvärligt ekonomiskt får betala priset för omställningen. Av de tre partierna är FI det som i klartext kritiserar idén om fortsatt ekonomisk tillväxt och ökad konsumtion, medan Vändpunkt skjuter in sig på vilka klimatkrav som kan ställas på företag genom EU:s handelsavtal. Vänsterpartiet kritiserar EU-subventioner till klimatskadlig verksamhet och lobbygruppers inflytande på EU:s klimatpolitik, men verkar samtidigt öppna för att använda existerade system, som handel med utsläppsrätter, om kraven på snabba utsläppsminskningar höjs.

De som fortsätter som vanligt
I den här gruppen hittar vi dem som gillar dagens åtgärder och är positiva till EU, men inte nödvändigtvis driver på för att höja klimatkraven rejält. Här hittar vi Socialdemokraterna, som verkar vilja att EU ska vandra vidare på den inslagna klimatvägen och helst höja ambitionerna lite grann, t.ex. genom att sätta ett slutdatum för försäljningen av bensin- och dieseldrivna bilar, men inte går ut lika hårt med krav på sänkta utsläpp och högre målsättningar som L, C och MP. Efter en viss tvekan får vi också placera Moderaterna här, eftersom åtminstone vissa av deras kandidater placerar miljöfrågor högt bland sina prioriteringar. De verkar också vilja att EU:s klimatarbete ska fortsätta som förut, framför allt handeln med utsläppsrätter.

De som prioriterar annat
Med tanke på hur mycket uppmärksamhet klimatfrågan får i samhället som helhet vore det märkligt om något parti helt undvek att nämna den i sin plattform för EU-valet, men det finns ändå två partier som lägger mindre vikt vid att föra fram sin klimatpolitik. De partierna är Kristdemokraterna och Sverigedemokraterna. Kristdemokraterna har i presentationen av sin EU-politik några allmänna skrivningar kring nödvändigheten av att uppdatera klimatmålen efter hand och det positiva i att Sverige föregår med gott exempel i klimatfrågor. Sverigedemokraterna å sin sida sticker ut genom att vilja ta med fler länder, helst hela världen, i systemet för handel med utsläppsrätter. I övrigt har de dock inte mycket att säga om klimatet.

Så vad blir slutsatsen?
Precis som i den nationella klimatpolitiken slår partiernas grundläggande ideologi igenom i klimatpolitiken på EU-nivå, men partiernas inställning till EU som företeelse påverkar också vad de fokuserar på i klimatpolitiken. Den skarpaste skiljelinjen i det avseendet går mellan partier som är EU-entusiaster och har höga klimatambitiner, som C och L, och de som är EU-skeptiska men har höga klimatambitioner, t.ex. V. Samtliga partier har någon form av klimatpolitik kopplad till EU, men det finns väldigt tydliga skillnader mellan de som prioriterar frågan och de som lägger mer vikt vid annat.

Det vara på sin plats att avsluta med en liten spaning på vilka andra miljörelaterade frågor som partierna tar upp i sina valplattformar. EU har rätt strikta regler kring genmodifierade grödor, men bara två av partierna tar upp frågan i sina valmanifest (L och KD, båda förespråkar försiktighetsprincipen). EU har också ett förslag på gång om att förbjuda engångsartiklar i plast, alltså plastmuggar, plastbestick etc. Det förslaget får desto mer uppmärksamhet av partierna, från Liberalernas förhoppning om ett förbud inte bara för engångsartiklar utan för alla typer av icke återvinningsbar plast och Centerpartiets positiva inställning till plastförbud, via Kristdemokraternas försiktiga bifall, till Sverigedemokraterna, som i sin valplattform påpekar att det mesta plastskräpet i världens hav kommer från Asien. Sådant som kan ge omedelbara men relativt små effekter på människors liv är uppenbarligen lättare att diskutera än sådant som kan få stora effekter på lång sikt. Vilket ju på sätt och vis också är klimatpolitikens dilemma.

söndag 5 maj 2019

Maskininlärning i materialfysiken

Härom veckan läste jag ett teknikoptimistiskt blogginlägg på temat maskininlärning av den amerikanske skeptikern Steven Novella. Han skrev bland annat om en amerikansk forskargrupp som lärt ett neuralt nätverk bestämma egenskaper hos dopat grafén, alltså grafén där några av kolatomerna är utbytta mot andra ämnen, utifrån placeringen på dopatomerna. Novella valde att framställa det som att det neurala nätverket utförde decennier av forskning inom loppet av några dagar och skulle kunna ge oss praktiska tillämpningar av grafén betydligt tidigare än om man inte använt maskininlärning.

Naturligtvis var jag tvungen att leta rätt på artikeln och ta reda på vad forskargruppen egentligen hade gjort.

Själva forskningsfrågan
 
Artikeln i fråga är publicerad i npj Computational Materials (den är för övrigt tillgänglig gratis) och enligt titeln handlar den om att förutsäga storleken på det så kallade bandgapet i material som består av en kombination av grafén och bornitrid. Bornitrid är ett material som består av två sorters atomer, bor och kväve, som sitter ihop i ett hexagonalt mönster precis som kolatomerna i grafén. Bornitrid kan också precis som grafén förekomma som ett enda supertunt lager av atomer. De här likheterna mellan de båda materialen är en av anledningarna till att man försöker kombinera dem.

Den andra anledningen är att medan grafén leder elektrisk ström väldigt väl är det svårt att få bornitrid att leda någon ström alls. Den här skillnaden kommer sig av att det krävs rätt lite energi för att få elektronerna i grafén att börja flytta på sig, medan elektronerna i bornitrid behöver ett stort energitillskott för att kunna röra sig alls. Det här energitillskottet som krävs för att elektronerna ska kunna röra sig kallas också bandgap, eftersom det motsvarar ett 'gap' i energi mellan olika tillstånd som elektronerna kan befinna sig i. Grafén har alltså ett extremt litet bandgap, bornitrid ett stort bandgap. Genom att kombinera de två materialen vill man skapa ett hybridmaterial med ett lagom stort bandgap, som man sedan kan använda i t.ex. elektronik.

Emellertid har det visat sig att man inte bara kan ersätta några kolatomer med bor och kväve hur som helst. Hur bor- och kväveatomerna är placerade i förhållande till varandra spelar roll för hur stort bandgapet blir. Vad den amerikanska forskargruppen försökt göra är att förutsäga hur stort bandgapet blir baserat på placeringen av bor- och kväveatomer med hjälp av artificiella neurala nätverk, mer specifikt så kallade CNN (convolutional neural networks - man skulle kunna kalla dem faltningsnätverk på svenska men det skulle antagligen inte göra dem lättare att förstå).

De neurala nätverken
 
CNN är en typ av neurala nätverk som tagits fram för att plocka ut karaktäristiska drag ur bilder och sedan klassificera bilderna utifrån dem - de är till exempel användbara för ansiktsigenkänning och när självkörande bilar ska se skillnad på en fotgängare och en vägskylt. Den grundläggande principen i ett CNN kan liknas vid att jämföra små områden i en bild med mindre, enklare bilder och ge en positiv respons om de liknar varandra. Om du till exempel har en bild av ett hus och den mindre bilden innehåller ett lodrätt streck så kan du få en positiv respons när du kommer till hörnen, fönstren eller dörren eftersom de alla innehåller raka, lodräta partier. I ett CNN måste man dock represenera båda bilderna som matriser av tal, och man har flera 'lager' där resultatet av en jämförelse i sin tur jämförs med fler matriser (detta behövs för att man ska kunna känna igen mer komplicerade former i en bild, t.ex. ansiktsdrag).

För att kunna använda CNN till grafénproblemet ovan valde forskarna att använda datormodeller där par av olika atomer representeras av siffror. När de introducerar bor- och kväveatomer i grafén sitter de ofta i par, med en bor och en kväve bredvid varandra. Detta gör det möjligt att låta ett bor-kvävepar motsvaras av en etta och de vanliga kol-kolparen av nollor, för att på så sätt göra en 'bild' som olika typer av CNN kan hantera. De konstruerade också sina nätverk till att ge storleken på bandgapet som utdata.

Neurala nätverk behöver tränas med relevant data för att funka, vilket oftast innebär att automatiskt jämföra nätverkets utdata med det önskade resultatet, räkna ut avvikelsen och med hjälp av den justera det neurala nätverket till att ge ett bättre svar. För att kunna träna sina neurala nätverk genererade forskarna därför flera tusen möjliga konfigurationer i form av datormodeller och räknade ut bandgapet för varje konfiguration med hjälp av simuleringar. De färdigtränade nätverken användes sedan för att förutsäga bandgapet för ytterligare ett antal konfigurationer som man visste det beräknade bandgapet för men som inte användes i träningen. Resultaten visade sig vara mycket lovande.

Vad man lär sig av detta
 
Så vad blir effekten av den här forskningsstudien? Man har lyckats visa att det går att förutsäga vissa egenskaper hos material med hjälp av neurala nätverk, vilket borde innebära att de som forskar på grafén och andra tvådimensionella material får ytterligare ett verktyg som de kan använda i sin forskning. Det är fortfarande en lång väg från den här studien till elektronik baserad på grafén och bornitrid, men eventuellt kan den göra det enklare att veta vad som är rätt material att satsa på.

En annan intressant sak med den här studien är vad den mellan raderna säger om maskininlärningens begränsningar. För att det alls ska fungera behöver de neurala nätverken få all relevant data i en form som kan behandlas, vilket innebär att det krävs mycket kunskap om grafén och bornitrid för att ens formulera problemet på ett sätt som kan angripas med neurala nätverk. I den här studien har forskarna t.ex. fokuserat helt på var par av bor och kväve befinner sig i förhållade till varandra och skalat bort alla andra drag hos materialet, antagligen baserat på vad man redan vet om de här materialen. 

En annan och rätt välkänd begränsning hos neurala nätverk är att det är svårt att förstå varför de fungerar som de gör, ens när de ger bra resultat. I en sådan här studie hade det varit väldigt intressant att se vad som är gemensamt för konfigurationer som ger lågt respektive högt bandgap, men det är inte information man enkelt kan få från det neurala nätverket och artikelförfattarna verkar inte ha gjort någon ansats att försöka. Jag misstänker starkt att en metod för att förstå vad som händer inne i nätverken är nödvändig om den här typen av studier ska kunna hjälpa oss att förstå materialen man studerar.

Som ni kanske förstår håller jag inte med Steven Novella om att denna enda och egentligen rätt begränsade studie motsvarar decennier av forskning och i sig tar oss betydligt närmre grafén-elektronik, men resultaten i den är ändå intressanta som ett exempel på hur neurala nätverk kan användas inom materialfysiken.

söndag 17 mars 2019

Är den vetenskapliga publikationsprocessen trasig?

I slutet på förra veckan publicerade tidskriften Fokus en krönika (Obs! betalvägg) av Agnes Wold, där hon argumenterar mot den så kallade plan S. Plan S går ut på att forskare som har offentlig finansiering också ska göra sina resultat tillgängliga för den allmänhet som finansierar dem genom att bara publicera i så kallade Open Access-tidskrifter, där artiklarna utan kostnad kan läsas av alla.

En del av Wolds argument mot plan S framstår som rimliga, till exempel att den gör det svårt eller omöjligt att publicera i prestigetidskrifter eller att eftersom open access-tidskrifterna finansieras av publiceringsavgifter har de större incitament till att publicera många artiklar, även om dessa är av lägre kvalitet. Wolds huvudargument verkar dock vara att den vetenskapliga publikationsprocessen i grunden fungerar väl och att man därför inte bör gå in och peta i den, något som är betydligt mer tveksamt.

Wold beskriver i sin krönika hur ett manuskript till en vetenskaplig artikel, när det skickats in till en tidskrift, genomgår en lång process av referentgranskning (eng.: peer review), ändringar och förbättringar innan den slutligen publiceras. Något hon inte nämner, men som ofta diskuteras på andra håll, är att både den initiala bedömningen hos tidskriften och referentgranskning påfallande ofta är gratisarbete utfört av andra forskare inom fältet. Förlagets kostnad för att publicera en artikel är minimal, speciellt för det flertal tidskrifter som bara publiceras på nätet (jag har beskrivit detta tidigare, i detta inlägg från 2016). Det är alltså inte så konstigt om man ifrågasätter varför prenumerationer på vetenskapliga tidskrifter är så dyra.

En närliggande fråga är förlagens maktposition. En forskare behöver ha tillgång till alla relevanta publicerade artiklar för att definiera sina egna forskningsfrågor och hålla sig uppdaterad om vad som händer i fältet. Detta gör det svårt att avstå från prenumerationer på viktiga tidskrifter. Förlag som Elsevier utnyttjar detta genom att paketera ett fåtal högkvalitativa tidskrifter som många vill prenumerera på tillsammans med ett flertal av förlagets sämre tidskrifter och kräva av universitetsbiblioteken att de till ett högre pris prenumererar på hela paketet, istället för på de enskilda tidskrifter som faktiskt är relevanta. Förlagen vet helt enkelt att nästan oavsett vad de sätter för pris kommer de att ha en stabil efterfrågan, och det faktiska priset blir därefter.

Ur detta perspektiv är det inte så konstigt att vissa av de institutioner som står för notan gärna vill styra publiceringsprocessen i en annan riktning. Samtidigt bidrar de till problemet genom att utvärdera forskares meriter i stor utsträckning baserat på antal publicerade artiklar och status (mätt i termer av så kallad impact factor) hos de tidskrifter artiklarna publicerats i. Detta gör både att forskare publicerar fler men kortare (och ofta mindre djuplodande) artiklar och att en publikation i en högstatustidskrift kan få närmast orimligt stor betydelse. Kanske hade sådant som plan S fått mer positiv respons om man också hade förespråkat en mer kvalitativ bedömning av forskares meriter?

lördag 16 februari 2019

Nudging och nyanser: Första numet av Evidens och beslut

Känner ni till Nätverket för Evidensbaserad Policy? Det startades 2015 och har sen dess verkat för att politiska beslut ska bli bättre grundade i kunskap om vad deras konsekvenser kommer att bli, bland annat genom att delta i samhällsdebatten. Sen i slutet på januari har de också en egen tidskrift, Evidens och beslut, varav första numret finns tillgängligt i pdf-form på deras hemsida. Jag har läst det och vill dela med mig av några funderingar.

Enligt den inledande texten i första numret är syftet med tidskriften att skapa en gemensam mötesplats och ett diskussionsforum för den samhällsvetenskapliga evidensrörelsen i Sverige. Den ambitionen är väldigt tydlig i de två efterföljande texterna, där den ena introducerar själva Nätverket för Evidensbaserad Policy och den andra handlar om vad evidensbasering är. Det andra huvudtemat verkar vara nudging, som behandlas i två texter. Andra texter handlar om att reda ut fakta bakom några vanliga missförstånd rörande t.ex. Phineas Gage eller om det verkligen krävs 10000 timmar för att bli expert på något.

Texten om vad evidensbasering innebär är enligt min åsikt en av de mest intressanta. Den börjar med en rejäl bredsida riktad mot forskning som inte baseras på experiment och empiriska observationer av verkligheten utan på diverse skolbildningar och ideologiska ställningstaganden. Istället förespråkas vetenskapliga metoder hämtade från framför allt medicinsk forskning. Texten berör alla möjliga aspekter av evidensrörelsen, från vilka begrepp som är lämpliga att använda till vikten av logik. Olika typer av evidens, och olika metoder för att skaffa evidens, tas upp i de sista styckena. Skribenten nämner frågan om hur olika frågeställningar kräver olika metoder, men går tyvärr inte närmare in på ämnet. Å andra sidan är texten ganska uppenbart en inbjudan till vidare diskussion, så förhoppningsvis kommer man att återkomma till detta i kommande nummer.

Nudging behandlas i två rätt olika texter, en som syftar till att förklara själva företeelsen nudging och vad som räknas som en nudge, och en som handlar om en specifik 'nudge' med syftet att få folk att sluta slänga fimpar på marken. Artikeln som definierar nudging tar upp flera intressanta aspekter, t.ex. hur poängen är att använda mentala genvägar och tankemönster för att ändra folks beteenden till det bättre. men hoppar tråkigt nog över frågan om hur man definierar vad som är ett bättre eller sämre beteende. Den andra artikeln ger en intressant inblick i hur man försöker studera effekterna av nudging och vilka problem man kan träffa på.

Allt som allt är innehållet i det första numret av Evidens och beslut läsvärt, men framtiden får utvisa om kommande nummer kommer att gå mer på djupet i de filosofiska och etiska frågor som hänger ihop med tillämpning av evidensbaserade beslut. Det vore utmärkt om tidskriften faktiskt kunde fungera som ett forum för diskussion av sådana ämnen, men inriktningen av de första två texterna får mig att misstänka att den också kommer fungera som en möjlighet för Nätverket att nyansera bilden av vad de själva menar med evidensbaserad policy. Hur som helst kommer jag antagligen att hålla ögonen på den här tidskriften i fortsättningen.

söndag 20 januari 2019

Termodynamik, fiktion och verklighet

Det verkar som om Dan Brown (han med DaVinci-koden, om nån minns den) har skrivit konstigheter om vetenskap igen, i sin senaste roman Origin. En del av konstigheterna har att göra med att han tar med en verklig forskare, professor Jeremy England från MIT, i sin roman men tillskriver honom uppfattningar han inte delar och påstår att hans forskning visar saker den inte visar. Exempelvis skriver han att Englands forskning skulle vara ett bevis på att det inte finns någon gud, något som England själv senare tagit avstånd från.

Att författare av fiktion inte låter verkligheten stå i vägen för en bra historia är nu inget nytt, speciellt inte när det gäller Dan Brown (Änglar och Demoner, någon?). Ändå är det lätt att bli lite nyfiken. Vad det är i professor Englands forskning som inspirerar till vilda spekulationer om guds existens och syftet med universum?

Jeremy England ägnar sig åt en fascinerande gren av fysiken som enligt min åsikt får alldeles för lite uppskattning, nämligen termodynamik och statistisk fysik. Termodynamiken beskriver hur energi förflyttas och omvandlas. Den har sitt ursprung i studier av ångmaskiner och liknande i början av 1800-talet, men förutom sådana direkta tillämpningar har termodynamiken också lett till fundamentala insikter i hur världen fungerar. Mest kända av dessa är termodynamikens första och andra huvudsats, som säger att energi inte kan skapas eller förstöras utan bara omvandlas och att entropin (ett mått på hur utspridd energin är) måste vara konstant eller öka i ett system som är avskuret från omgivningen.

En sak som termodynamikens lagar kan användas till är att dra gränser för vad som är fysikaliskt möjligt. Det är till exempel relativt lätt att räkna ut en övre gräns för hur effektiv en förbränningsmotor kan bli bara med hjälp av första och andra huvudsatsen. (Termodynamik åberopas av den anledningen också i debatter om hållbarhet, vilket jag skrev om för några år sen.)

Vad Jeremy England gör är att undersöka just sådana gränser, men i betydligt mer komplicerade sammanhang. Hans artiklar utforskar vilka gränser termodynamiken sätter för komplexa kemiska och till och med biologiska system, som molekyler som kan kopiera sig själva (tänk RNA) eller celler som delar sig. Framför allt studerar han vilka gränser termodynamiken sätter för samspelet mellan t.ex. en bakterie i färd med att dela sig och dess omgivning.

Eftersom termodynamik omgärdas av en hel rad med missförstånd kan det vara bra att reda ut en sak här. I termodynamiken arbetar man så ofta som möjligt med antagandet att saker och ting är i, eller mycket nära, termodynamisk jämvikt eftersom flera användbara samband bara är giltiga i jämvikt. Detta har gett upphov till den seglivade myten att termodynamik generellt bara kan appliceras på system som är i jämvikt, vilket inte stämmer. Termodynamisk jämvikt syftar på att föremål som är i kontakt med varandra efter en stund hamnar i liknande tillstånd när det gäller t.ex. temperatur ellet tryck (ett exempel: Ditt kaffe är i termodynamisk jämvikt med omgivningen när det svalnat till rumstemperatur). Levande system jobbar ofta hårt för att inte hamna i jämvikt med omgivningen, så om man i likhet med Jeremy England vill studera sådana behöver man en termodynamik för det som avviker från jämvikt. Vilket är precis vad professor England sysslar med.

Många av Englands nyare artiklar tar upp självorganisering, alltså fenomenet att enkla beståndsdelar spontant kan bilda större, regelbundna strukturer. Ett exempel är vattenmolekyler som bildar snöflingor, ett annat exempel är levande celler. England visar hur självorganisering blir mer sannolik ju mer den leder till ökat energiutbyte med omgivningen. Framför allt verkar det vara fördelaktigt om självorganiseringen leder till att mycket värme dumpas i omgivningen, vilket ökar den totala entropin. Det är det här Dan Brown fått nys om och omvandlat till idén att universum har som syfte att öka sin entropi och att liv, som ju är en form av självorganiserade system, egentligen bara är ett sätt att uppnå entropiökning. Brown gör som sagt en hejdlös övertolkning av resultaten - universums syfte nämns inte i artiklarna och är antagligen inte något man kan härleda ur termodynamikens lagar - men är man intresserad av hur komplexa system uppstår är Englands resultat fascinerande i sig.