lördag 28 oktober 2017

Science on the Verge kap. 3

Vi håller på att avveckla demokratin.
                                             -Håkan Juholt, Sveriges ambassadör på Island

Never late, never lost, never unprepared är den i mitt tycke rätt omotiverade titeln på tredje kapitlet av Science on the Verge (mina kommentarer till kapitel 1 finns här och till kapitel 2 här). Kapitlet är skrivet av Alice Benessia, som disputerat i vetenskap, teknik och juridik och är research fellow vid Interdisciplitary Research Institute for Sustainability, University of Torino; samt Silvio Funtovicz, som också var medförfattare till kapitel 1. Kapitel 3 handlar om skiljelinjerna mellan vetenskap och andra verkamheter, speciellt i relation till politik och legitimering av politiska beslut.

Större delen av kapitlet upptas av en redogörelse ur historiskt perspektiv för hur man gått från att definiera vetenskapen som fundamentalt skiljd från resten av samhället i sin egen "vetenskapsrepublik", via ett hybridtillstånd mellan vetenskap och teknik motiverat av förhoppningar om materiella och ekonomiska framsteg, till dagens system där tal om teknisk innovation ersätter hänvisningar till vetenskapen som källa till kunskap och förståelse. Det är en tankeväckande redogörelse, och jag vet flera inom akademin som skulle nicka igenkännande åt att innovation seglat upp som det primära målet för offentligt finansierad forskning (ofta på bekostnad av mer nyfikenhetsdriven grundforskning).

Emellertid finns här också saker som är svårare att hålla med om. Det mest uppenbara exemplet på en sådan är att det i den här texten finns en tendens att slänga ut barnet med badvattnet när det gäller ambitionen att skilja sökandet efter vetenskapliga resultat från t.ex. ekonomiska intressen. Att separera vetenskapen helt från övriga samhället är visserligen inte möjligt, men är man medveten om hur ekonomiska intressen och ideologiska övertygelser kan påverka forskare så är det i alla fall möjligt att motverka de negativa effekterna på forskningens kvalité. Benessia och Funtovicz väljer istället att avfärda alla ambitioner om att skilja på kunskapsinhämtning och politiska eller affärsmässiga beslut som vilseledande (delusive), ett tämligen värdeladdat ord.

De andra resonemangen jag ställer mig tveksam till dyker upp i de sista två avsnitten, som handlar om ersättandet av vetenskap med innovation i det offentliga samtalet och som kräver lite noggrannare analys. Stycket om innovation börjar bra, med en redogörelse för hur man i policydokumet från EU kan se att denna tekniska innovation förväntas lösa vår tids stora utmaningar, t.ex. klimathot och ekonomiska kriser, ge oss fortsatt hög levnadsstandard och fler jobb. Sagda policydokument framställer innovaton som den enda lösningen på problemet med oändlig ekonomisk tillväxt på en ändlig planet. Efter ett tag tar författarna skuttet över pölen och ut i industrin, till IBMs "Smarter Planet"-satsning. Här presenteras världen och dess problem som ett känsligt men styrbart system, med informationsteknologi och Internet of Things som en förutsättning för att kunna styra detta system till ett långsiktigt hållbart tillstånd.

I Benessia och Funtoviczs analys av den här visionen påpekas att den baseras på tre antaganden: Att interaktionen mellan samhället och tekniska system kan reduceras till en ändlig mängd mätbar information; att relevanta fakta är tillgängliga i form av hanterbar data; samt att kvalitén på beslut som fattas på grund av denna data är oberoende av värderingar. Detta leder, enligt författarna, till en situation
      
        ...in which the normative sphere of politics and decision-making on public policy issue is reduced, hybridized and ultimately supplanted (substituted) by a technoscientific regime of data analysis and management. (p 102)

 Här anser jag att författarna missar att påpeka att värderingar och normer egentligen inte är eliminerade ur beslutsprocessen, utan flyttade till ett tidigare stadium. Datorn Watson tas upp som exempel i texten och beskrivs som ett instrument för beslutsfattande i komplexa och brådskande situationer, som medicinsk diagnostik eller hantering av katastrofer. Detta är områden där våra värderingar är nästan osynliga för oss eftersom det verkar uppenbart vad som är ett bra resultat: Vi vill ha så korrekta och snabba diagnoser som möjligt för att rädda liv och minska lidande, och vi vill hantera katastrofer på ett sådant sätt att så få människor som möjligt kommer till skada. Vill vi använda verktyget Watson till beslutsfattande i situationer där ett bra resultat inte är lika lätt att definiera så borde det rimligtvis leda till att vi först måste bli klara över våra värderingar - om vi inte i stället stirrar oss blinda på själva verktyget.

I det avslutande avsnittet fortsätter Benessia och Funtovicz sin analys av smarta system i allmänhet och Smarter Planet i synnerhet med den långsökta slutsatsen att en tillvaro dominerad av smarta system är en tillvaro där varje minut är styrd och vår effektivitet optimerad, vilket skulle leda till att 'vår relation med det okända tyst elimineras' och att detta 'innefattar att avsäga sig en av de fundamentala källorna till mänsklig kreativitet och lärande'. Jag har läst de sista styckena i den här texten flera gånger och jag har fortfarande ingen aning om hur de kommer till den slutsatsen utifrån de förutsättningar de har presenterat. (Att läsa på om IBMs strategier de senaste decenniet hjälpte inte heller - de verkar mer intresserade av att förbättra infrastruktur. Fast jag kanske läste fel artiklar.) Den här luckan i resonemanget blir extra besvärlig eftersom den dyker upp i stycket där författarna kommer med formuleringen de valt som titel på hela kapitlet: Aldrig försenad, aldrig vilse, aldrig oförberedd. Det pekar på att det här resonemanget är deras huvudpoäng, så det hade varit bra om den hade varit en naturlig följd av tidigare tankegångar. I alla fall föreslår författarna att man borde ha en kollektiv, demokratisk diskussion om huruvida den nuvarande tekniska utvecklingen verkligen är något vi vill ha eller ej.

I likhet med Håkan Juholt verkar Benessia och Funtovicz anse att vi är på väg mot en teknokratisk diktatur, eller rentav en tillvaro styrd av informationsteknologi och algoritmer (om vi nu inte redan är där). Det finns mycket som är avhängigt av värderingar och som är värt att diskutera här, som sårbarheten i ett högteknologiskt samhälle, självkörande bilars etiska prioriteringar, huruvida människor kan manipuleras via sociala medier och om AI lärs upp till att bli fördomsfulla för att vi ger dem skev indata. Tredje kapitlet i Science on the Verge hade kunnat vara en intressant del av en sådan diskussion, om de inte hade lämnat ett gapande hål i sitt resonemang precis innan huvudpoängen. Som det nu är blir jag mest övertygad om att jag inte vill diskutera med författarna till denna text, åtminstone inte förrän de förklarat exakt hur den nuvarande utvecklingen kräver att vi 'överger mångfald, individualitet och relationen till det okända'.

söndag 17 september 2017

Kolelektronik och bandgapets betydelse

Det finns en självuppfyllande profetia som många förmodligen hört talas om, som kallas Moores lag. Den formulerades av Intels grundare Gordon E. Moore och säger att antalet transistorer som får plats på ett chip växer exponentiellt. Det betyder att man kan tillverka mer och mer kraftfulla processorer och därmed också snabbare och bättre datorer. Att jag kallar det en självuppfyllande profetia beror på att både industrin och forskarvärlden jobbat rätt hårt genom åren för att Moores lag ska fortsätta gälla.

På senare tid har det dock börjat gnissla lite i maskineriet, i takt med att man börjar närma sig gränserna för dagens teknik. Transistorerna i dagens datorer är gjorda i halvledarmaterialet kisel, och det finns gränser för hur små kiselkomponenter kan bli innan man börjar få problem med diverse lustiga kvanteffekter. Det är med andra ord hög tid för branschen att hitta på nåt nytt.

Eftersom grundämnet kol finns med i titeln på den här texten kunde man tro att lösningen skulle vara supermaterialet grafen, men grafen är faktiskf inte det mest uppenbara valet om man vill ersätta kisel rakt av. För att förstå varför behöver vi ta oss en närmare titt på vad en transistor gör, och varför det är så viktigt att kisel är en halvledare. 

Först måste vi dock påminna om vad en halvledare är (om man redan har koll på detta kan man hoppa till nästnästa stycke). Många material i vår omgivning är isolatorer som inte leder elektrisk ström alls, som glas och trä till exempel. Det beror på att elektronerna i dessa material sitter fast. Elektroner i ett fast material kan existera i olika energitillstånd, så kallade band. Om ett band blir helt fullt av elektroner kan de elektronerna inte förflytta sig genom materialet. Det är så det ser ut i exempelvis glas: vissa band är helt fulla, andra helt tomma, och om en elektron ska flytta sig från ett fullt band till ett tomt krävs stora mängder energi (ofta så mycket att materialet smälter istället). Å andra sidan har vi också metaller som koppar eller silver, som leder elektrisk ström bra. Det beror på att istället för bara fulla och tomma band har de också ett lite halvfullt band, och elektronerna där kan lätt fara iväg om de känner av ett elektriskt fält (som när du drar en koppartråd mellan polerna på ett batteri till exempel).

Om vi undersöker en halvledare vid låg temperatur (säg i ett bad av flytande kväve) ser de ut som isolatorerna trä och glas, med helt fulla eller helt tomma band. Om vi tar upp dem ur kvävebadet och låter dem nå rumstemperatur ser vi dock att de börjar leda elektrisk ström, inte alls lika bra som metaller men mycket bättre än en genomsnittlig träbit. Det beror på att energiskillnaden mellan de fulla och de tomma banden är tillräckligt liten för att värmeenergin vid rumstemperatur ska kunna knuffa upp några elektroner från de fulla banden till det tomma. Elektronerna som hamnat i de tomma bandet kan då börja förflytta sig, och eftersom de lämnat ett tomt utrymme bakom sig i det tidigare fulla bandet kan elektronerna där också bli rörliga. Energiskillnaden mellan det fulla och det tomma bandet kallas bandgap.

Halvledare är viktiga inom elektronik för att man relativt enkelt kan justera deras ledningsförmåga på olika sätt. Om man till exempel tillsätter små mängder av ett annat grundämne, ofta gallium eller arsenik, till kisel kan man höja ledningsförmågan. Detta kallas att dopa halvledaren och beror på att de andra grundämnena skapar "mellannivåer" mellan det fulla och det tomma bandet. Eftersom de här dopämnena själva har antingen fler eller färre elektroner per atom än den ursprungliga halvledaren får man dock två sorters dopning: Om dopatomen har fler elektroner än halvledaren får man ett överskott av elektroner (n-doping) och har den färre får man ett underskott som leder till nåt som kallas elektron-hål (p-doping).

Man kan också styra ledningsförmågan efter att halvledaren tillverkats. Säg till exempel att du har tre halvledar-bitar, två p-dopade på vardera sidan och en n-dopad i mitten. Den tingesten kommer knappt att leda någon ström alls, vilket beror på att det är svårt för elektronerna att ta sig från ett p-dopat område till ett n-dopat. Om man nu lägger ett elektriskt fält på den n-dopade biten i mitten, på tvärs mot de p-dopade delarna, så kan man få elektronerna att samlas i en del av det n-dopade området. Blir fältet tillräckligt starkt kan det till och med skapa en liten kanal där det är underskott på elektroner, och då börjar hela strukturen leda ström (eftersom vi har underskott på elektroner på båda sidor och i en kanal i mitten kan de ta sig hela vägen igenom). Detta är grundprincipen bakom en fälteffekttransistor, den transistortyp som gör jobbet i din dator, platta eller smartphone.

Men grafen då? Grafen räknas som en halvledare, men har den egenheten att dess bandgap är noll. Det betyder att i transistorsammanhang beter sig grafen nästan som en metall, och går därför inte att använda i transistorer som det är. De som tillverkar transistorer i grafen måste därför försöka öppna upp ett bandgap på något sätt, exempelvis genom att placera grafenet på olika substrat eller modifiera ytan. (En annan approach är att frångå fälteffekt-tekniken och satsa på att manipulera elektronernas spin med ett magnetfält istället.)

Emellertid behöver man inte ge upp bara för att grafen har visat sig vara besvärligt - det finns nämligen andra spännande kolstrukturer att använda. En variant som man jobbat på länge, men som verkar ha fått mycket uppmärksamhet på sistone, är så kallade kolnanorör. Ett kolnanorör kan beskrivas som ett hoprullat grafenplan, och är nästan lika häftigt som grafen - nästan lika bra ledningsförmåga, mekaniskt starkt, lätt och bra på att leda värme. Nanorör kan dessutom bete sig antingen som metaller eller som halvledare, beroende på exakt hur de är "hoprullade". Lyckas man bara välja ut de halvledande nanorören så kan man få en superliten, supertunn transistor.

Emellertid vill forskare i regel ta det längre än så. Ett exempel är den grupp från Stanford som konstruerat ett tredimensionellt chip där samtliga transistorer baseras på halvledande kolnanorör. Det är inte hela strukturen som består av kol - den står på en bottenplatta av konventionella halvledare, arbetsminnet består av metall och hafniumoxid och nanorören är förbundna med metalliska elektroder. Ändå är nanorörs-transisitorerna speciella, och inte bara för att nanorören är så tunna. Eftersom de har en mycket lägre tillverkningstemperatur än ett vanligt kiselchip kan man bygga på den tredimensionella strukturen lager för lager, istället för att producera varje lager för sig och sedan bygga ihop dem i efterhand. Det har möjliggjort en tätare struktur med snabbare informationsöverföring. Prototypkretsen som forskargruppen konstruerat kan känna igen vanliga gaser i atmosfären, genom att det översta lagret kolnanorör fungerar som sensorer och de undre lagren har programmerats med en självlärande algoritm som klassificerar sensorernas signaler.

Ett sånt tredimensionellt chip är ju onekligen lite häftigt, och lär bli ännu häftigare när tillverkningsmetoderna blivit mer förfinade. En möjlig förbättring diskuteras längst ner i artikeln jag länkat till ovan. Där påpekas att en annan forskargrupp, denna gång från företaget IBM, lyckats minska ytan som en kolnanorörs-transistor tar upp ytterligare genom att förbättra kontakten mellan kolnanoröret och molybdenelektroderna som leder signalen till och från röret. De har lyckats med detta genom att skapa starka kovalenta bindningar mellan elektroden och nanoröret, vilket ger bättre ledningsförmåga över en mindre kontaktyta.

Moore's lag kanske kan klara sig ett tag till trots allt.


lördag 26 augusti 2017

Science on the Verge, kapitel 2

Odd. No one is in denial of Americas Aug 21 total solar eclipse. Like Climate Change, methods & tools of science predict it.                                                          
                                                           - Neil DeGrasse Tyson, astrofysiker

Det här inlägget ska handla om andra kapitlet i Science on the Verge (ni hittar mina funderingar kring första kapitlet här). Titeln är The fallacy of evidence-based policy och kapitlet är skrivet av Andrea Saltelli, som också var medförfattare på första kapitlet, och Mario Giampietro, som är professor i miljövetenskap vid Autonomous University of Barcelona. I kapitlet belyser författarna ett antal problem med användningen av statistik och komplexa datormodeller inom vetenskap och forskning, som bildar underlag för politiska beslut.

Vad är det mer konkret för datormodeller som kritiseras? Författarna siktar framför allt in sig på modeller som används inom makro- eller nationalekonomi samt bioekonomi och i viss mån miljö- och klimatvetenskap. Stora delar av kritiken kan formuleras i termer av brist på transparens och begriplighet: Man hävdar att matematiska modeller används för att komplicera saker i onödan eller göra det svårare att kritisera politiska beslut som grundas på resultaten. Att omotiverade eller rent av outtalade antaganden utgör grund för vissa modeller samt att komplexa samband förenklas bortom rimlighetens gräns tas också upp.

Författarna fördjupar sin problembeskrivning genom att vända sig till filosofin. De målar upp en bild av hur människans utsatthet får oss att söka efter trygghet, till exempel i form av ett starkt samhälle eller en religiös tro, och att detta också kan kopplas till den moderna förhoppningen att vetenskapen ska kunna lösa alla våra problem. Författarna hänvisar till både Descartes och Francis Bacon, och beskriver denna attityd som en önskan om ett samhälle lika välordnat som Newtons mekanik.

Med detta som grund ger författarna sig in på en diskussion om reduktionism samt introducerar begreppen hypokognition och socialt konstruerad okunskap. Man hävdar att för komplexa system och skeenden är den reduktionistiska, cartesiska metoden som isolerar ett samband i taget helt otillräcklig. Här används begreppet hypokognition (som ursprungligen har att göra med hur svårt det är att prata om något man inte har ett ord för) för att beskriva hur saker kan falla utanför ens modell av verkligheten om man väljer ett perspektiv eller en struktur som inte kan innefatta alla relevanta aspekter. Socialt konstruerad okunskap refererar till hur vissa aspekter av ett problem eller skeende kan ignoreras för att människor i grupp (ett samhälle t.ex.) utvecklar en förenklad bild av verkligheten och all information som faller utanför eller motsäger modellen förkastas. Författarna utvecklar detta till ett resonemang om hur man hanterar osäkerhet och brist på data, samt ger negativa exempel från framför allt ekonomi och ekologi. De påpekar dock att de negativa effekterna uppkommer när man använder modellerna som grund för politik och nämner att för en bättre teoretisk förståelse av ett fenomen är förenklingar ibland helt nödvändiga.

Hela diskussionen om den "cartesiska drömmen" och hur valet av perspektiv påverkar våra modeller av verkligheten är mycket intressant. För egen del påminns jag om en kurs i vetenskapsteori som jag gick under min mastersutbildning. Där diskuterades hur vissa forskningsområden, exempelvis biologi, visade tecken på "fysikavund", vilket innebar ett försök att efterlikna fysikens framgångar i att beskriva, förutsäga och kontrollera världen omkring oss, i regel genom att tillämpa ett reduktionistiskt synsätt och framhålla kvantitativa mått framför kvalitativa resonemang. Att national- och makroekonomi lider svårt av denna åkomma är något jag länge misstänkt, och författarna till det här kapitlet verkar hålla med.

Emellertid gör det också att jag som (beräknings)fysiker får lite svårt att bedöma om problemet med modelleringshybris är så fundamentalt som författarna hävdar, eller om det mest handlar om dåliga modeller. För mig är det självklart att man ska hålla koll på vilka antaganden man gör när man beskriver verkligheten på ett visst sätt, samt att man måste vara medveten om sin modells begränsningar och under vilka förhållande den är giltig. Samtidigt är de system jag modellerat faktiskt enklare än klimatet, och till skillnad från ekonomerna har jag lyckligtvis inte den mänskliga naturen som en parameter. Jag vet helt enkelt inte om vissa system faktiskt är för komplexa för att man ska kunna simulera dem på ett bra sätt och fortfarande få med allt som är relevant.

I nästa del går Saltelli och Giampietro vidare till att föreslå lösningar på problemet. Här, precis som i förra kapitlet, verkar de luta sig tungt mot idén om "post-normal science". Den grundläggande förutsättningen för att förbättra situationen är enligt författarna att alltid inkludera flera olika perspektiv från flera olika grupper och vara medveten om en större mångfald i perspektiven också ger olika uppfattningar om vilka storheter och siffror som är relevanta. Ett exempel som tas upp är matförsörjning, där exempelvis kostnad och säkerhet är viktigt ur konsumentens perspektiv medan ett hållbarhetsperspektiv lägger större vikt vid långsiktiga effekter på t.ex. grundvattnet. Författarna framhåller också vikten av att redovisa osäkerhet, risker och luckor i kunskapen på ett transparent sätt. Istället för enkla, eleganta lösningar på samhälleliga problem förespråkar man kompromisslösningar som granskas med avseende på genomförbarhet (med avseende på yttre faktorer), gångbarhet (att det faktiskt funkar) och önskvärdhet (att lösningen är acceptabel för dem som berörs). 

Jag anser att författarna har flera bra poänger här, även om det för mig fortfarande låter som att man efterfrågar en "mer vetenskaplig vetenskap". Framför allt tycker jag det är relevant att fundera över att redovisa hur säker man är på ett vetenskapligt resultat. Flera fält inom fysiken har producerat resultat som är såpass säkra att få ens får för sig att ifrågasätta dem. Förutom astronomi och astrofysik (som hjälper oss att förutsäga solförmörkelser) så har vi rätt bra koll på t.ex. elektromagnetiska fält, kvantfysik, kondenserade materiens fysik och relativitetsteori - såpass bra koll att samtliga används i en smartphone nära dig (jag syftar på antennen, transistorer och flash-minnen, batteriet och GPS, om nån undrade). Har man samma tillförlitlighet i förutsägelser om klimatet? Jag vet inte, men mitt intryck utifrån vad jag läst och hört är att vi ser vartåt det lutar (det blir varmare) men att det finns olika uppfattningar om hur fort det kommer att gå åt skogen. Att människor ifrågasätter klimatförändringarna har kanske oftare med medvetet skapand osäkerhet att göra än med en grundlig bedömning av modellernas tillförlitlighet, men det skulle kanske också vara enklare att hantera om vi inte utgick från att vi är lika säkra på allt som går under namnet vetenskap.

lördag 29 juli 2017

Science on the Verge, intro och kapitel 1

Nån strax före julen 2016 kom jag i kontakt med en nätt liten pocketbok med titeln The rightful place of science: Science on the Verge. Boken i fråga är en del i en serie utgiven av Consortium for Science, Policy and Outcomes vid Arizona State University och belyser de problem som finns inom vetenskapen idag och vetenskapens roll i samhället. När jag började läsa märkte jag att boken, som består av sex texter författade av experter inom naturvetenskap och vetenskapsteori, är både intressant och irriterande samt kräver en rätt noggrann genomläsning. Därför har jag bestämt mig för att gå igenom den kapitel för kapitel här på bloggen. 

Den första texten har titeln Who will solve the crisis in science? och är skriven av Andrea Saltelli, vars huvudsakliga forskningsområde är statistisk analys av matematiska och beräkningsmässiga modeller; Jerome R. Ravetz, matematiker i grunden men nu verksam inom vetenskapsteori; samt Silvio Funtowicz, ytterligare en matematiker som ägnar sig åt kopplingen mellan vetenskap och samhälle. Krisen inom vetenskapen som titeln syftar på handlar om bristande kvalité i vetenskapliga publikationer. Författarna argumenterar för att lösningen på vetenskapens kris är att öka allmänhetens deltagande i utvärderingen av forskningsresultat, speciellt i situationer där forskningsresultaten utgör grund för politiska beslut.

Problemet i sig är rätt välkänt: Många vetenskapliga artiklar innehåller resultat som inte kan reproduceras, det är relativt vanligt att artiklar dras tillbaka för att det upptäcks fel i dem, det finns tidskrifter som publicerar vilken smörja som helst bara de får tillräckligt betalt och den så kallade peer review-processen, där andra forskare granskar artikar innan publicering, funkar ibland så dåligt att det närmast blivit en sport att försöka få nonsensartiklar accepterade (nu senast med Star Wars-tema).

När Saltelli et al. redogör för vad vetenskapssamhället försöker göra åt problemen lutar de sig mestadels mot medicinprofessorn John P.A. Ioannidis texter, bland annant artikeln Why most published research findings are false från 2005 och How to make more published research true från 2014. Ioannidis föreslår en rad åtgärder som syftar till att öka andra forskares insyn i forskningsprocessen (t.ex. mer samarbete och registrering av studier i förväg), bättre användning av statistik och mer seriös peer review. Saltelli et al. refererar också till den så kallade San Fransisco-deklarationen om bedöming av vetenskap, som försöker tackla problemet med missvisande kvalitetsmått inom forskningen (t.ex. så kallade "impact factors").

 Saltelli et al. har sin egen uppfattning om orsakerna till kvalitetsproblemen inom vetenskapen, en uppfattning som till stor del bygger på Ravetzs och Funtowiczs tidigare arbeten. De tar upp hur vetenskapssamhällets ständiga tillväxt, med fler och fler aktiva forskare och mer och mer publicerat material, innebär att man inte kan ha nära kontakt med alla forskare inom samma fält. Det gör att gruppen forskare blir mindre sammanhållen och den sociala kontrollen minskar, samt leder till ett större behov av att försöka kvantifiera forskningskvalité med hjälp av impact factors och h-index. En annan förklaringsmodell som framhålls är att vetenskapliga fakta blivit mer och mer av en vara, vilket i sig bidrar till försämrad forskningetik. Författarna lägger stor vikt på enskilda forskares etiska ställningstaganden och arbetsmoral, och hur den påverkas av att forskning "har utvecklats från att var ett kall, till att vara en karriär, och slutligen, på 2000-talet, ett osäkert jobb" (min övers.)

Stycket där författarna omdefinierar problemet som en konsekvens av vetenskapssamhällets expansion och en förändrad syn på vetenskap är utan tvekan det mest tänkvärda i hela texten och bidrar med ett perspektiv som kanske inte ligger lika nära till hands för någon som är aktiv forskare inom naturvetenskap och medicin. Tyvärr är det avslutande stycket om möjliga åtgärder inte alls lika givande. Jag upplever det också som mer svårtillgängligt, mycket på grund av att författarna inte definierar och förklarar flera av de begrepp och teorier de lånar från vetenskapsfilosofin. Med tanke på att boken i baksidestexter och inledning påstås vara intressant för 'alla konsumenter och producenter av vetenskap', vilket väl måste tolkas som både en intresserad allmänhet och diverse naturvetare, så är det en rätt stor brist att inte ge en kort förklaring av Kuhns paradigmteori eller definiera ordentligt vad man menar med "separationen mellan samhälle och vetenskap". Oavsett hur gärna man skulle vilja att alla var insatta i vetenskapsteori och -historia så kan man inte utgå från att det är så om man faktiskt vill skriva en tillgänglig text.

Nåväl. Författarna medger att forskarna själva nog kan ha en roll att spela i att lösa krisen inom vetenskapen, men övergår raskt till att diskutera behovet av en ny sorts vetenskapsteori som erkänner vetenskapens svagheter och fel och utforskar dem mer. Det är här kritiken av separationen mellan vetenskap och samhälle kommer in, då man verkar vilja hävda att vetenskapen idag betraktas som oberoende av samhällets trender och politiska strömningar. Man förespråkar också att undervisning i naturvetenskap ska vara mindre dogmatisk och ge en klarare bild av hur osäkra vetenskapliga resultat kan vara.

Att vetenskapen är för dogmatisk är en vanlig kritik som alltid får mig att undra om man egentligen pratar om vetenskapen sådan den ser ut för aktiva forskare, eller någon sorts samhällelig/medial uppfattning om vetenskap. Mitt perspektiv är visserligen begränsat eftersom jag bara varit aktiv vid ett lärosäte, men min erfarenhet är att aktiva forskare är väl medvetna om både samhällets inverkan på forskningen och hur osäkra vetenskapliga resultat kan vara. Vad gäller undervisning i naturvetenskap kan jag hålla med om att det vore bra att undervisa i vetenskaplig metod på ett tidigt stadium istället för att bara presentera färdiga resultat, men författarna verkar ha missat att det är en förändring som redan pågår (pådriven av t.ex. Carl Wieman). Istället nöjer de sig med att referera till vad Thomas Kuhn tyckte om undervisningen i naturvetenskap på sextiotalet.

Slutligen övergår Saltelli et al. till att förespråka "post-normal science" som modell för interaktionen mellan vetenskapen och samhället. De nämner att detta är en modell som Ravetz och Funtowicz ursprungligen utvecklade för situationer där "fakta är osäkra, värderingar kontroversiella, insatserna höga och beslut brådskande", exempelvis vid miljökatastrofer eller anpassning till kommande klimatförändringar. De förespråkar en typ av kvalitetskontroll av forskning som bygger på deltagande från alla som påverkas av de beslut som fattas utifrån forskningsresultaten. Detta innebär att till exempel medborgare och olika intressegrupper får en större roll. Därifrån övergår de till att beskriva sådant som spel där man testar olika sätt att veckla ihop proteiner och miljöaktivism som en ny sorts vetenskap där vanliga medborgare är mer aktiva, och som en räddning för en vetenskap i kris.

Mitt största problem med argumentationen ovan är inte själva idén med en mer vetenskapligt engagerad allmänhet - det skulle tvärtom vara bra på många sätt - utan att man bortser från att denna "post-normal science" inte egentligen angriper de problem inom vetenskapen som man beskrivit tidigare i texten. Man bortser också från att mycket av "medborgarvetenskapen" är starkt beroende av det arbete som utförs inom den konventionella forskningen. Det är väl rätt uppenbart att proteinveckningsspelet inte skulle ha tillkommit utan initiativ (och finansiering) från en eller flera forskargrupper, och om man som aktivist vill hävda att t.ex. en viss kemikalie är så farlig att det är oförsvarligt att använda den så behöver man i regel gedigna studier att luta sig mot. "Post-normal science" i sig verkar stå för en sammanblandning av bedömningen av kvalitén hos vetenskapliga resultat och konsekvenserna av beslut som fattas med dessa resultat som grund. Motiven bakom att göra en sådan sammanblandning förklaras inte särskilt väl i den här texten, vilket är synd då det innebär att läsaren inte kan utvärdera hållbarheten hos övriga argument.

Sammanfattningsvis, den här texten tar upp ett viktigt problem inom nutida vetenskap och presenterar ett intressant perspektiv på dess orsaker, bland annat när det gäller kontakten mellan vetenskapare och hur den påverkar individens etik och moral. Författarna argumenterar för att lösningen på problemet måste innefatta bredare grupper i samhället, men enligt min mening lyckas de inte förklara hur denna "medborgarvetenskap" skulle vare sig lösa problemen eller skapa ett alternativ till den konventionella forskningen.

söndag 2 april 2017

Blir vetenskapliga artiklar mer och mer svårlästa?

Don't use a five-dollar word when a fifty-cent word will do
                                                                                  - Mark Twain 

Har vetenskapliga artiklar blivit svårare att läsa sen början av förra århundradet? Ja, åtminstone om man ska tro en studie från Karolinska Institutet som lades ut som preprint härom veckan (den har alltså inte genomgått granskning än). I studien används två standardiserade mått på läsbarhet, som bland annat mäter antal stavelser i ord, meningarnas längd och om orden kan anses vanligt förekommande, för att undersöka hur läsbarheten hos artiklar i biomedicin varierat över tid. Man fann att läsbarheten har sjunkit markant under de senaste hundra åren och att ett större antal författare gjorde artiklarna extra svårlästa. Dessutom undersökte man vilken sorts ovanliga ord som förekom i texterna. Det visade sig att artiklarna innehöll många rätt formella ord, t.ex. använde många "novel" istället för "new" och ord som "moreover", "distinct" och "therefore" har ökat i användning över tid (samtliga artiklar var på engelska).

Nu är det förståss inte helt lätt att mäta läsbarhet, och man kan diskutera om antal stavelser, meningars längd och mängden svåra ord verkligen fångar det som gör en vetenskaplig artikel svårläst. I en krönika i Nature som diskuterar studien nämns bland annat att man kan slå upp svåra ord, men om en mening är illa konstruerad grammatiskt kan den vara svår att tolka även för någon som är expert på vad nu artikeln handlar om. Likaså är det svårare att läsa en artikel där resonemang och beskrivningar inte hänger ihop eller utelämnar viktiga moment. Efter att ha läst metoddelen i studien från Karolinska skulle jag vilja tillägga att den helt bortser från en viktig aspekt av läsbarhet, nämligen mängden förkortningar. I vissa vetenskapliga discipliner tycks hälften av artiklarna bestå av förkortningar för olika beräknings- eller mätmetoder, vilket definitivt gör dem mer svårgenomträngliga.

Så är detta ett problem? En svårläst artikel tar längre tid att läsa och utvärdera, vilket saktar ner forskningsprocessen. Tillsammas med den kraftiga ökningen i mängden publicerade artiklar inom de flesta fält kan det leda till att forskare inte anser sig hinna göra ordentliga litteraturgenomgångar, utan att de prioriterar att får ut sin egen forskning. Viktiga resultat skulle då kunna bli bortglömda för att de presenterats i en illa skriven artikel. Dessutom är ju själva målet med en artikel att kommunicera forskningsresultat, så är den svårläst motverkar den delvis sitt syfte. Å andra sidan verkar de flesta forskare jag träffat inte läsa andras artiklar från början till slut, utan mest kolla på sammanfattningen och figurerna för att sedan koncentrera sig på den bit de är mest intresserade av. Med tanke på det och på att mängden nya artiklar är praktiskt taget ohanterlig för de flesta vore det kanske bättre att förändra sättet man presenterar resultat på i grunden, snarare än att bara försöka förbättra språket.

Nu finns det ju de som hoppas att det inte bara är andra vetenskapare som ska ta del av ens resultat, utan även en vetgirig allmänhet. Här är svårlästa artiklar med formellt språkbruk absolut ett problem. Å andra sidan är vetenskapliga artiklar framför allt riktade till andra som arbetar inom samma fält, så att kräva att de också ska vara lätta att ta till sig för vetenskapsjournalister eller en bredare allmänhet är att ställa väl höga krav. Ingen text som presenterar fakta, oavsett hur välskriven, kan tillfredsställa alla typer av läsare - det finns alltid en huvudsaklig målgrupp. Dessutom skrivs de flesta vetenskapliga artiklar på engelska, vilket gör det svårt för de delar av allmänheten som inte har engelska som modersmål och har problem med att ta till sig avancerade texter på sitt andra- eller tredjespråk. (Jodå, de finns de som har svårt att läsa engelska. Jag har träffat dem, även på universitetet.) Här tror jag mer på att uppmuntra antingen den enskilde forskaren eller universiteten som sådana att producera även mer populärvetenskapliga texter riktade till vetenskapsjournalister och/eller allmänheten. På så sätt skulle även icke-experter kunna ta del av vetenskapliga framsteg så att säga från källan, men utan att det blir oöverstigligt svårt och tidskrävande.

torsdag 16 mars 2017

Bättre batterier med glas?

Vad har en smartphone, en laptop och en elbil gemensamt? Antagligen flera saker, men den jag tänker på just nu är att de kräver kompakta, säkra, uppladdningsbara batterier. Idag betyder det i regel ett så kallat litium-jon-batteri.

Som i andra batterier (och bränsleceller, faktiskt) är huvudbeståndsdelarna i ett litiumbatteri två elektroder, en positiv och en negativ, åtskilda av en elektrolyt. I fallet med litiumbatterier består den negativa elektrolyten ofta av ett poröst kolmaterial som kan lagra litiumjoner (grafit till exempel), medan den negativa är en kemisk förening av litium och andra grundämnen, ofta kobolt och syre. När batteriet laddas upp flyttar sig positiva litiumjoner från den negativa elektroden genom elektrolyten till den positiva elektroden, där de blir inbäddade i kolmaterialet. Om du sen slår på mobilen eller datorn, eller startar elbilen, börjar batteriet laddas ur. Då flyttar sig litiumjonerna tillbaka till den negativa elektroden, vilket driver en ström av elektroner från den positiva elektroden, genom kretsarna i telefonen eller bilen, tills de återförenas med litiumjonerna i den negativa elektroden.

Nåja, i själva verket är det inte riktigt så enkelt, till stor del på grund av just elektrolyten. Elektrolyten behöver ha egenskaperna att den kan transportera litiumjoner snabbt, samtidigt som den inte får släppa igenom några elektroner (för då blir det kortslutning). I litiumbatterier brukar lösningen på detta vara salter av litium upplösta i vad man kallar ett organiskt lösningsmedel, alltså någon typ av kolväte i vätskeform.

Att ha en vätska i batteriet har sina sidor bara det - den kan ju till exempel läcka ut om det går hål. I just det här fallet finns det dessutom två andra problem. Det ena är att lösningsmedlen är lättantändliga. Det andra är att om de här lösningsmedlen och metalliskt litium funkar ungefär som vatten och olja - de trivs inte ihop. Visserligen ska inte uppladdningsbara litiumbatterier innehålla metalliskt litium, men när de laddas upp kan det bildas metalliskt litium på den positiva elektroden. På grund av hur litium funkar ihop med elektrolyten bildas det då långa nålar eller stavar av litium, ofta kallade dendriter. När dendriterna blir så långa att de når den andra elektroden kortsluts batteriet och det blir väldigt varmt, vilket kan sätta eld på elektrolyten och orsaka en explosion. I moderna litiumbatterier undviker man det här bland annat genom att styra vid vilken spänning batteriet laddas.

Men visst vore det bättre om man kunde hitta en säkrare elektrolyt? Det är det många som tycker, bland annat professor John Goodenough vid Cockrell School of Engineering, University of Texas, Austin. Goodenough med kollegor har nyligen publicerat en artikel i tidskriften Energy and Environmental Science, där de beskriver en helt ny elektrolyt för litium- och natriumbatterier. Den nya elektrolyten är inte en vätska utan ett "glas" - inte som i fönsterglas, utan i betydelsen att atomerna inte sitter i ordning utan lite huller om buller. Det här glaset funkar tydligen betydligt bättre ihop med metalliskt litium, vilket leder till att om det bildas metalliskt litium vid uppladdningen kommer det att sprida sig över gränsskiktet mellan elektroden och elektrolyten istället för att utvecklas till dendriter. Faktum är att Goodenough et al. ser möjligheter att använda metalliskt litium i sig som elektrod, vilket skulle kunna minska batteriets volym.

Utan dendriter, brandrisk och läckage skulle ett batteri med den nya glaselektrolyten kunna vara betydligt säkrare än dagens batterier, men det finns en annan sak som nästan är mer spännande: Man tror att man ska kunna använda den till natriumbatterier, inte bara litium. Natriumjonen är mycket större än litium och tidigare har man inte kunnat använda den i batterier för att transporten genom elektrolyten blir för långsam. Nu hävdar Goodenough med kollegor att den nya elektrolyten kan transportera natrium tillräckligt fort, vilket skulle innebära stora fördelar. Medan litium bara kan utvinnas på ett fåtal latser världen över, och därför är rätt dyrt, finns natrium i regel nära till hands (i vanligt koksalt, NaCl, till exempel). Natriumbatterier skulle därför kunna var ett bättre alternativ om man vill ersätta stora mängder bensindrivna bilar med elbilar - och det verkar det ju finnas många som vill.

Om man vill läsa mer om detta, men inte vill läsa den vetenskapliga artikeln (som faktiskt är tillgänglig gratis, tack Royal Society of Chemistry) har IEEE Spectrum skrivit om den här.

fredag 6 januari 2017

Bland beräkningar och bränsleceller

När jag höll mitt licentiatseminarium om ett elektrolytmaterial för bränsleceller för snart fyra år sen fick jag frågan om vad jag såg som de största problemen med att ersätta förbränningsmotorer och bensin med bränsleceller och vätgas. Mitt svar, som orsakade viss munterhet i publiken, var att problemen var framställning, förvaring och förbränning av vätgas. Hade någon frågat mig idag hade jag nog svävat lite mer på målet eftersom det är längre sen jag arbetade med de här sakerna, men i princip kvarstår problemen. För att få en ordentlig miljömässig vinst av att byta till väte som bränsle behöver man kunna framställa det effektivt med hjälp av förnybar (eller åtminstone klimatneutral) energi, förvara den på ett säkert och praktiskt sätt som möjliggör att snabbt fylla tanken på en bil, och förbränna den i en bränslecell som håller en rimlig temperatur och en rimlig tillverkningskostnad.

Enligt en text i IEEE Spectrum som jag fick syn på för ett tag sen har man gjort vissa framsteg när det gäller det där med förvaringen. Standardmetoden för att förvara vätgas (och andra gaser för den delen) är i gasflaskor eller tankar under högt tryck. Den förvaringsmetoden har vissa problem, t.ex. risk för explosion om temperaturen blir för hög. Det är möjligt att riskerna skulle gå att hantera, men många som förespråkar vätgas som bränsle skulle hellre se en annan variant: Att man fyller tanken med något annat material som vätgasen sen kan pumps in i och binda till. Det är lite som att förvara vatten i en tvättsvamp istället för i en flaska, förutom att vatten inte kräver flera atmosfärers tryck. Detta ställer dock stora krav på förvaringsmaterialet: Det ska kunna rymma mycket vätgas, så att man kan köra långt på en tank, det ska vara lätt, och vätgasen måste binda tillräckligt starkt till det för att det ska vara stabilt men tillräckligt svagt för att man ska kunna fylla eller tömma tanken fort. Lösningen på problemet antas i regel vara porösa material med många små hålrum. Hålrummen gör både materialet lättare och ger det större yta, d.v.s. mer plats för vätemolekylerna att fastna på.

I artikeln som IEEE Spectrum hänvisar till är det porösa materialet ett nätverk av grafen-lager som sitter ihop med hjälp av nanorör av bornitrid. Bornitrid består som namnet antyder av grundämnena bor och kväve, och kan på samma sätt som grafen framställas i skikt som bara är en enda atom tjocka. Det kan också formas till nanorör, mycket mycket små ihåliga rör vars vägg är ett enda lager atomer. Artikeln bygger på datorsimuleringar av ett nätverk av grafen och bornitrid, och de simuleringarna visar att det resulterande materialet skulle kunna rymma stora mängder vätgas, samtidigt som det skulle vara väldigt lätt.

Betyder det att man har löst förvaringsproblemet för vätgas? Nej, tyvärr inte, även om det här materialet verkar lovande. Det har framställts i laboratorium än, så om det visar sig vara väldigt svårt att tillverka blir det ändå inte så intressant att använda praktiskt. Att man kan räkna ut att materialet är bra för vätelagring borde dock göra det mycket mer intressant att faktiskt försöka framställa det - så vem vet, vi kanske får se det inom några år.