lördag 26 augusti 2017

Science on the Verge, kapitel 2

Odd. No one is in denial of Americas Aug 21 total solar eclipse. Like Climate Change, methods & tools of science predict it.                                                          
                                                           - Neil DeGrasse Tyson, astrofysiker

Det här inlägget ska handla om andra kapitlet i Science on the Verge (ni hittar mina funderingar kring första kapitlet här). Titeln är The fallacy of evidence-based policy och kapitlet är skrivet av Andrea Saltelli, som också var medförfattare på första kapitlet, och Mario Giampietro, som är professor i miljövetenskap vid Autonomous University of Barcelona. I kapitlet belyser författarna ett antal problem med användningen av statistik och komplexa datormodeller inom vetenskap och forskning, som bildar underlag för politiska beslut.

Vad är det mer konkret för datormodeller som kritiseras? Författarna siktar framför allt in sig på modeller som används inom makro- eller nationalekonomi samt bioekonomi och i viss mån miljö- och klimatvetenskap. Stora delar av kritiken kan formuleras i termer av brist på transparens och begriplighet: Man hävdar att matematiska modeller används för att komplicera saker i onödan eller göra det svårare att kritisera politiska beslut som grundas på resultaten. Att omotiverade eller rent av outtalade antaganden utgör grund för vissa modeller samt att komplexa samband förenklas bortom rimlighetens gräns tas också upp.

Författarna fördjupar sin problembeskrivning genom att vända sig till filosofin. De målar upp en bild av hur människans utsatthet får oss att söka efter trygghet, till exempel i form av ett starkt samhälle eller en religiös tro, och att detta också kan kopplas till den moderna förhoppningen att vetenskapen ska kunna lösa alla våra problem. Författarna hänvisar till både Descartes och Francis Bacon, och beskriver denna attityd som en önskan om ett samhälle lika välordnat som Newtons mekanik.

Med detta som grund ger författarna sig in på en diskussion om reduktionism samt introducerar begreppen hypokognition och socialt konstruerad okunskap. Man hävdar att för komplexa system och skeenden är den reduktionistiska, cartesiska metoden som isolerar ett samband i taget helt otillräcklig. Här används begreppet hypokognition (som ursprungligen har att göra med hur svårt det är att prata om något man inte har ett ord för) för att beskriva hur saker kan falla utanför ens modell av verkligheten om man väljer ett perspektiv eller en struktur som inte kan innefatta alla relevanta aspekter. Socialt konstruerad okunskap refererar till hur vissa aspekter av ett problem eller skeende kan ignoreras för att människor i grupp (ett samhälle t.ex.) utvecklar en förenklad bild av verkligheten och all information som faller utanför eller motsäger modellen förkastas. Författarna utvecklar detta till ett resonemang om hur man hanterar osäkerhet och brist på data, samt ger negativa exempel från framför allt ekonomi och ekologi. De påpekar dock att de negativa effekterna uppkommer när man använder modellerna som grund för politik och nämner att för en bättre teoretisk förståelse av ett fenomen är förenklingar ibland helt nödvändiga.

Hela diskussionen om den "cartesiska drömmen" och hur valet av perspektiv påverkar våra modeller av verkligheten är mycket intressant. För egen del påminns jag om en kurs i vetenskapsteori som jag gick under min mastersutbildning. Där diskuterades hur vissa forskningsområden, exempelvis biologi, visade tecken på "fysikavund", vilket innebar ett försök att efterlikna fysikens framgångar i att beskriva, förutsäga och kontrollera världen omkring oss, i regel genom att tillämpa ett reduktionistiskt synsätt och framhålla kvantitativa mått framför kvalitativa resonemang. Att national- och makroekonomi lider svårt av denna åkomma är något jag länge misstänkt, och författarna till det här kapitlet verkar hålla med.

Emellertid gör det också att jag som (beräknings)fysiker får lite svårt att bedöma om problemet med modelleringshybris är så fundamentalt som författarna hävdar, eller om det mest handlar om dåliga modeller. För mig är det självklart att man ska hålla koll på vilka antaganden man gör när man beskriver verkligheten på ett visst sätt, samt att man måste vara medveten om sin modells begränsningar och under vilka förhållande den är giltig. Samtidigt är de system jag modellerat faktiskt enklare än klimatet, och till skillnad från ekonomerna har jag lyckligtvis inte den mänskliga naturen som en parameter. Jag vet helt enkelt inte om vissa system faktiskt är för komplexa för att man ska kunna simulera dem på ett bra sätt och fortfarande få med allt som är relevant.

I nästa del går Saltelli och Giampietro vidare till att föreslå lösningar på problemet. Här, precis som i förra kapitlet, verkar de luta sig tungt mot idén om "post-normal science". Den grundläggande förutsättningen för att förbättra situationen är enligt författarna att alltid inkludera flera olika perspektiv från flera olika grupper och vara medveten om en större mångfald i perspektiven också ger olika uppfattningar om vilka storheter och siffror som är relevanta. Ett exempel som tas upp är matförsörjning, där exempelvis kostnad och säkerhet är viktigt ur konsumentens perspektiv medan ett hållbarhetsperspektiv lägger större vikt vid långsiktiga effekter på t.ex. grundvattnet. Författarna framhåller också vikten av att redovisa osäkerhet, risker och luckor i kunskapen på ett transparent sätt. Istället för enkla, eleganta lösningar på samhälleliga problem förespråkar man kompromisslösningar som granskas med avseende på genomförbarhet (med avseende på yttre faktorer), gångbarhet (att det faktiskt funkar) och önskvärdhet (att lösningen är acceptabel för dem som berörs). 

Jag anser att författarna har flera bra poänger här, även om det för mig fortfarande låter som att man efterfrågar en "mer vetenskaplig vetenskap". Framför allt tycker jag det är relevant att fundera över att redovisa hur säker man är på ett vetenskapligt resultat. Flera fält inom fysiken har producerat resultat som är såpass säkra att få ens får för sig att ifrågasätta dem. Förutom astronomi och astrofysik (som hjälper oss att förutsäga solförmörkelser) så har vi rätt bra koll på t.ex. elektromagnetiska fält, kvantfysik, kondenserade materiens fysik och relativitetsteori - såpass bra koll att samtliga används i en smartphone nära dig (jag syftar på antennen, transistorer och flash-minnen, batteriet och GPS, om nån undrade). Har man samma tillförlitlighet i förutsägelser om klimatet? Jag vet inte, men mitt intryck utifrån vad jag läst och hört är att vi ser vartåt det lutar (det blir varmare) men att det finns olika uppfattningar om hur fort det kommer att gå åt skogen. Att människor ifrågasätter klimatförändringarna har kanske oftare med medvetet skapand osäkerhet att göra än med en grundlig bedömning av modellernas tillförlitlighet, men det skulle kanske också vara enklare att hantera om vi inte utgick från att vi är lika säkra på allt som går under namnet vetenskap.