onsdag 25 november 2020

SVT, Facebook och den danska munskyddsstudien

Förra veckan presenterades resultaten av en dansk studie där man undersökt i hur stor utsträckning munskydd faktiskt skyddar bäraren från att drabbas av COVID-19. Några dagar senare kunde man läsa på SVT nyheter att Facebook försett en artikel om studien, skriven av två forskare inom medicin vid Oxford och publicerad i The Spectator, med en varning. Faktagranskare hade nämligen flaggat vissa påståenden relaterade till den danska studien som vilseledande och illa underbyggda. I SVT:s text och video läggs stor vikt vid att SVT nyheter presenterade studien i en text med titel som liknar Spectator-artikelns, men som inte blev försedd med någon varning. Vad kunde detta bero på - är det för att SVT:s artikel inte delats så mycket, eller är Facebook kanske dåliga på svenska?

Det första man kan konstatera är att när SVT hävdar att "en faktakontrollsajt underkänner studien" så är det en sanning med modifikation. SVT länkar tyvärr inte till faktakontrollsajten i fråga, men det finns anledning att anta att det handlar om Health Feedback och deras genomgång finns att läsa här. Vad de avfärdar som illa underbyggt är inte studien som helhet, även om de kritiserar den en hel del, utan påståenden som att studien visar att "munskydd gör ingen skillnad" och "munskydd har ingen signifikant effekt". Health Feedback konstaterar att studien dras med problem orsakade av för få deltagare och att många deltagare som skulle ha burit mask inte gjort det fullt ut. Dessutom är studien utformad för att mäta hur munskydd skyddar den som bär det och säger inget om ifall det minskar risken att bäraren smittar andra, t.ex. innan symptomen märks. Alltså kan man inte dra slutsatsen att munskydd är verkningslösa för att hejda smittspridning i samhället baserat på studien, enligt Health Feedbacks granskare.

Så vad är det som får Facebook att varna för Spectator-artikeln baserat på Health Feedbacks granskning? Eftersom just the Spectators artikel inte nämns av Health Feedback och ingen riktigt vet hur Facebooks algoritmer funkar (utom, får man anta, Facebook själva) så är det svårt att säga, men när jag läste the Spectators artikel noterade jag att den sista meningen i fjärde stycket är "as a result, it seems that any effect masks have on preventing the spread of the disease in the community is small". Detta ligger ju väldigt nära den slutsats som Health Feedback hävadar att man inte kan dra eftersom studien inte undersöker hur munskyddet påverkar risken att någon annan smittas av bäraren. Den andra saken jag noterade är några rader i slutet, där det står att på grund av kommentarer på sociala medier har titeln på artikeln ändrats för att betona att det handlar om risken för den som bär munskyddet att smittas. Efter lite googlande kan man se att den tidigare titeln var "Landmark Danish study shows face masks have no significant effect", så det är kanske inte så förvånade att Facebook flaggade detta baserat på Health Feedbacks genomgång.

Men SVT:s artikel då? Den är ju inte skriven av Oxford-akademiker, men SVT:s journalister har pratat med en överläkare på Sahlgrenska som anser att studien inte ger något starkt stöd vare sig för eller emot munskydd. Överläkaren poängterar att det viktigaste fortfarande är att hålla avstånd och tvätta händerna, och SVT ägnar den sista delen av artikeln åt att påpeka att studien inte undersökte smitta från den som bär munskydd till andra. Oavsett hur dåliga Facebook är på svenska är det alltså mycket svårare att faktiskt hitta de påståenden som Health Feedback klassar som illa underbyggda i den svenska artikeln.

Som jag ser det finns det huvudsakligen två steg där överdrifter och feltolkningar kan dyka upp på vägen från forskningsresultat till nyhetsartikel. Det första är forskarnas egna tolkning av resultaten och deras grad av ärlighet kring resultatens kvalitet. Överdriver de vikten av sina resultat eller tonar ner problem och osäkerheter? Trots rätt omfattande kritik verkar detta inte vara det huvudsakliga problemet med den danska studien, som man kan läsa här (det finns också en pressrelease här).

Det andra steget är från forskarnas tolkning till den faktiska nyhetsartikeln, d.v.s det steg som innefattar en skribent som inte varit involverad i själva forskningen. I det här fallet har detta andra steg funkat lite olika för The Spectator och SVT, på så sätt att de som skrev i The Spectator har gått längre med sina egna tolkningar och slutsatser, medan SVT i stort sett återger den danska studiens slutsatser. De här skillnaderna skulle kunna vara tillräckligt för att Facebooks algoritm ska behandla artiklarna olika, oaktat skillnader i språk och liknande - men det är omöjligt att veta exakt vad Facebooks beslut baseras på. Däremot tycker jag man kan säga att SVTs sätt att rapportera om Facebooks beslut missar viktiga skillnader mellan de två artiklarna.

söndag 15 november 2020

Tankar kring "Vad händer med klimatet?" av Lennart Bengtsson



Den här texten är ett sätt att skjuta upp något besvärligt. För ett tag sedan läste jag nämligen "Apocalypse Never", en bok skriven av den amerikanske miljöaktivisten Michael Shellenberger. I denna ganska digra volym framför författaren ett antal argument i klimatfrågan som skulle få många att åtminstone höja på ögonbrynen, eller för all del höja rösten. Planen var att jag skulle skriva nåt om Shellenbergers bok, men det visade sig vara besvärligare än jag hade trott, delvis på grund av ett stort behov av faktagranskning. Jag hade tidigare träffat på "Vad händer med klimatet?" av Lennart Bengtsson och fick för mig att den kanske skulle kunna funka som en bra förberedelse - själva boken är betydligt kortare och det borde vara lättare för mig att förstå en svensk professor än en amerikansk aktivist.

"Vad händer med klimatet?" kom ut 2019 och är skriven av Lennart Bengtsson, som är professor i dynamisk meteorologi och har forskat kring klimat- och väderfenomen under hela sin karriär. Framför allt har han arbetat med numerisk och datorbaserad modellering av både väder och klimat. Enligt det CV som finns med i slutet av boken har han också deltagit i ett flertal internationella forskningssamarbeten under sin karriär. Om man googlar Lennart Bengtsson inser man raskt att han också deltagit i debatten kring klimatförändringar och klimatpolitik, mestadels i samband med att boken kom ut. Jag tänker inte gå in på detaljerna här då det lätt skulle kunna bli ett helt eget inlägg (dessutom förmodligen ett ganska tråkigt inlägg), men han verkar ha fått mothugg både från Uppsalainitiativet och från grupper som totalt förnekar växthuseffekten.

Låt oss istället ta oss an själva boken. Som jag ser det består "Vad händer med klimatet?" av två delar. Den första omfattar åtminstone de första nio kapitlen, möjligen också delar av kapitel tio, och ger en lättfattlig introduktion till vad som påverkar Jordens klimat och hur man bedriver forskning på klimat, väder och de faktorer som påverkar dem. Den andra delen, som innefattar de sista fyra - fem kapitlen och bokens avslutning, känns mer spekulativ och handlar om sådant som IPCC, världens energiförsörjning och Sveriges roll i det internationella klimatarbetet.

Introduktionen till klimatforskning i de första nio kapitlen är som sagt lättfattlig och är såvitt jag kan bedöma väldigt väl underbyggd, som man kan förvänta sig av en expert på området. Det är gott om färgglada och illustrativa figurer och diagram som visar sådant som energiflöden i atmosfären och påverkan av olika fenomen på den globala temperaturen. Det kan vara värt att påpeka att just när det gäller den globala temperaturökningen är Bengsson mycket tydlig med att den beror på den ökade halten växthusgaser.

Jämfört med annan klimatrelaterad populärvetenskap jag träffat på är den här redogörelsen mer detaljerad, t.ex går Bengtsson noga in på hur olika växthusgaser påverkar energiflödena i atmosfären och under hur lång tid, hur de stigande havsnivåerna fördelar sig över Jorden och vad fenomen som El Niño och Nordatlantiska Oscillationen har för effekter. Detsamma gäller kapitlet om extremväder, där Bengtsson diskuterar vad han anser man kan dra för slutsatser om värmeböljor, extrem nederbörd och tropiska stormar. Speciellt intressanta är kapitlen 5 och 9, som handlar om matematiska modeller av väder och klimat. Här nämns olika svårigheter med väder- och klimatmodeller, t.ex. problem med att modellera påverkan från moln och hav eller de stora beräkningsresurser som krävs för en detaljerad modell. 

 De senare kapitlen känns som sagt mer spekulativa framför allt när författaren ger sig in på områden som han inte är expert på, exempelvis frågan om energiförsörjning och hur mycket förnyelsebar energi som teoretiskt sett skulle kunna utvinnas. Här finns också stycken där Bengtsson uttalar sig om saker som ligger inom hans forskningsfält men där fakta inte verkar vara lika etablerade som de mer grundläggande saker som tas upp i de första kapitlen. Det mest slående exemplet är kanske när Bengtsson på sidan 190 avfärdar så kallade tipping points, tillstånd där den globala temperaturen eller koldioxidhalten når en nivå som utlöser okontrollerbara kedjereaktioner och därmed orsakar en skenande global uppvärmning. Bengtsson hävdar att teorierna om tipping points saknar tillräckligt vetenskapligt underlag, men han refererar inte till någon källa utan verkar luta sig mot sin personliga expertis. Brist på referenser är för övrigt en stor svaghet framför allt i denna andra del av boken. 

Den övergripande tesen i denna andra del av boken verkar vara att man bör göra något åt den globala uppvärmningen genom att reducera och på sikt helt eliminera koldioxidutsläppen, men att det inte är så bråttom som det hävdas i den allmänna debatten. Bengtsson verkar anse att konsekvenserna av en fortsatt uppvärmning är mindre allvarliga än det oftast framställs som och att det därför är fullt rimligt att sikta på ett scenario där de globala koldioxidutsläppen når sin topp runt 2040, eller till och med 2080, för att sedan avta. Detta antas leda till en temperaturökning på 2-3 grader eller mer och skulle enligt författaren innebära en realistisk tidsplan för att ställa om dagens energisystem och ge länder med mindre utvecklad energiförsörjning en möjlighet att "komma ikapp" med hjälp av kol och olja innan de växlar till förnyelsebara energikällor. Bengtsson medger att värmeböljor och stigande havsnivåer kommer att innebära problem, men det är ändå rätt mycket som inte tas upp i den här framställningen - t.ex. konsekvenser för olika mer eller mindre känsliga ekosystem.

Slutligen kan jag inte låta bli att påpeka att när det väl finns referenser är de inte alltid så välvalda eller väl återgivna. Ett exempel finns på sidan 146, där det i ett resonemang om värmeböljor kontra extrem kyla hävdas att "för några år sedan frös 24000 britter ihjäl därför att många inte hade råd med uppvärmning". Gräver man vidare lite i källorna verkar det dock som om människor inte direkt frös ihjäl, utan att kylan (och bristen på uppvärmning inne) förvärrade sådant som influensa, lungsjukdom och hjärtproblem (se här och här). Det innebär ju inte att dödsfallen inte är tragiska, men att påstå att människor just fryser ihjäl blir ändå lite missvisande. 

Ett annat och mer förbluffande exempel finns på sidan 157 i en diskussion kring den avkylningseffekt som man ansåg sig kunna se under 50- och 60-talen. Som exempel på vad Bengtsson kallar "spekulativa tidningsartiklar" i ämnet refererar han till en artikel i TIME från den 8:e april 1977 med titeln "How to survive the coming ice age" - en artikel som enligt både TIME själva* och snopes inte existerar. Det märkliga är att eftersom Bengtsson är noga med att påpeka att man i seriösa vetenskapliga kretsar ganska fort började bekymra sig över en tilltagande uppvärmning istället hade han lika gärna kunnat referera till en existerande artikel i TIME, från 1974. Detta har karaktären av ett misstag snarare än ett medvetet försök att vilseleda någon, men man kan ändå fundera på hur varken den akademiskt meriterade författaren eller någon på förlaget (Karnival) lyckades snappa upp att de refererat till en text som inte finns?

Allt som allt lämnar den här boken mig med blandade känslor. De första nio-tio kapitlen är bra och intressanta och tar upp aspekter av klimat och klimatvetenskap som inte diskuteras så mycket annars. De sista fyra-fem kapitlen innehåller också en hel del som är intressant men hade gott kunnat vara dubbelt så långa med mer grundliga resonemang och fler referenser för att klargöra varför författarens bedömning av forskningsläget skiljer sig så mycket från den gängse bilden. Gärna då välvalda referenser till texter som existerar - och på tal om det hade alltihop nog kunnat tåla en extra genomgång innan publicering för att undvika misstag.



*Vad jag syftar på här är att det inte publicerades något exemplar av TIME på det angivna datumet, vilket framgår av den länkade sidan

måndag 19 oktober 2020

Flödesbatterier. Eller är de bränsleceller?

 Jag har skrivit en del inlägg om uppladdningsbara batterier på den här bloggen (t.ex. detta, detta, eller detta), och några om bränsleceller (t.ex. här och här). Härom dagen fick jag dock syn på en artikel i Elektroniktidningen som handlar om något som kallas redoxflödesbatterier. Jag hade aldrig hört talas om redoxflödesbatterier innan och vid en första anblick undrade jag om de inte egentligen är en sorts bränslecell. Jag försökte naturligtvis kolla upp detta på Wikipedia och de som skrivit artikeln om flödesbatterier verkar också tycka att de är nån sorts mellanting.

Både batterier och bränsleceller funkar på grund av så kallade redox-reaktioner, eller reduktions-oxidations-reaktioner. Reduktion, i det här sammanhanget, innebär att en av komponenterna i reaktionen tar upp en eller flera elektroner. Oxidation innebär att en annan komponent i reaktionen ger ifrån sig en eller flera elektroner. Man kan tänka sig detta som en förbränningsreaktion. Om man bränner upp vätgas i luft kommer vätgasen att oxideras - varje väteatom ger ifrån sig en elektron. Samtidigt reduceras en del av syret i luften - varje syreatom tar upp två elektroner - och slutprodukten blir vattenmolekyler med en syreatom och två väteatomer. 

I en vanlig förbränningsreaktion sker allt det här samtidigt på ett och samma ställe, men i en bränslecell som bränner vätgas delar man upp redox-reaktionen så att reduktionen av syre sker vid den ena elektroden (anoden) och oxidationen av vätgasen sker vid den andra elektroden (katoden). Genom att dela upp redoxreaktionen på det här sättet kan man få de oxiderade vätejonerna att ta sig från katoden till anoden genom ett membran eller en elektrolyt, samtidigt som elektronerna får ta en annan väg för att nå fram till syrejonerna och reducera dem. Det är den strömmen av elektroner man använder för att utvinna elektrisk energi ur bränslecellen.

Ett batteri liknar en bränslecell på så sätt att man har en redox-reaktion som är uppdelad så att reduktionen och oxidationen sker vid olika elektroder, och man har en elektrolyt som kan transportera joner från den ena sidan till den andra. Precis som för bränslecellen innebär det att elektronerna kan förmås till att ta en annan väg mellan elektroderna, helst genom nån nyttig pryl som glödlampan i en ficklampa eller någon av kretsarna i en mobiltelefon. En stor skillnad mellan batterier och bränsleceller är dock att man hela tiden tillför bränsle till bränslecellen, medan batterier i sig innehåller alla ämnen som ingår i reaktionen från början. När de är slut är batteriet helt enkelt urladdat och måste laddas upp igen genom att man tillför elektrisk energi och därmed driver redox-reaktionen baklänges.

Så hur passar då flödesbatterier in i bilden? Precis som vanliga batterier och bränsleceller har de två elektroder, men till skillnad från vanliga batterier består båda elektroderna av samma material (oftast någon form av kol). I gengäld har flödesbatterier två elektrolyter med olika kemisk sammansättning istället för en. I de flesta batterier är det materialet i elektroderna som genomgår själva redox-reaktionen, men i flödesbatteriet reagerar de båda elektrolyterna istället. När båda elektrolyterna har samma kemiska sammansättning är batteriet urladdat. Då kan man antingen ladda upp det genom att tillföra energi och driva reaktionen baklänges som man gör med ett uppladdningsbart batteri, eller byta ut elektrolyten vilket blir mer som en bränslecell. 

Konventionella flödesbatterier använder vattenbaserade elektrolyter som innehåller vanadin- och vanadinoxidjoner. Tyvärr är vanadin, som många användbara metaller, sällsynt och giftig. Artikeln i Elektroniktidningen handlar om en studie av hur man kan använda organiska ämnen istället för vanadin, tillsammans med en annan typ av elektroder. 

En begränsning hos batterier är att de bara kan laddas ur och laddas upp ett begränsat antal gånger. Flödesbatterier kan laddas upp och laddas ur fler gånger än vanliga batterier, vilket är en fördel. Å andra sidan är de väldigt mycket större och tyngre eftersom de kräver två elektrolyter i stora volymer. Därför är flödesbatterier inte direkt något alternativ för elbilar eller andra tillämpningar som behöver vara flyttbara, utan snarare för stationär energilagring. Ett exempel skulle kunna vara att lagra energi från solceller eller vindkraftverk vid tillfällen när de genererar mer ström än vad som behövs.


söndag 6 september 2020

Ännu mer 5G: Hur man skapar utrymme för fler användare

Jag skrev lite om 5G i somras - dels ett inlägg om vad vi ska ha 5G till, dels ett om vilka frekvenser man använder i 5G. Den här gången handlar det istället om hur 5G-teknik kan göra det lättare att hantera mobilnät med många användare i ett begränsat område - en stadsdel, till exempel.

Den underliggande tekniken bygger i det här fallet på något ganska påtagligt, nämligen att man använder stora antenner. Mer precist så använder man antenner som består av ett stort antal enskilda antennelement, där varje element kan användas för att skicka ut eller ta emot en elektromagnetisk våg av en viss frekvens, amplitud och fas. Som vi sagt tidigare så är frekvensen ett mått på hur snabbt vågen går från vågtopp till vågdal och tillbaka igen, den är också naturligt kopplad till våglängden och vågens energi. Amplituden är helt enkelt höjden på vågtopparna. Fas är lite mer komplicerat men har att göra med när och var man har en vågtopp eller vågdal. Om vi tänker oss en antenn med två antennelement och en våg som kommer in lite från sidan så kommer de två antennelementen oftast att känna av olika faser av vågen, när det ena träffas av en vågtopp kanske det andra är halvvägs nere i vågdalen redan.

När man har fler antennelement i sin antenn kan man göra en del saker som inte funkar annars. Har man många element i sändantennen kan man till exempel styra riktningen på den utgående vågen genom att justera fasen på vågorna som sänds ut av varje element så att de förstärker varandra i en viss riktning men försvagas i andra riktningar. Har man istället många element i mottagarantennen kan man använda dem för att avgöra från vilket håll en våg kommer genom att notera hur fasen skiljer sig åt för de olika antennelementen. Det finns en längre förklaring av detta i ett tidigare inlägg - där handlar det visserligen om radar, men principen är densamma.

Så vad har det här med mobilanvändare att göra? När en basstation ska skicka och ta emot information från flera olika mobila enheter, smarta telefoner till exempel, behöver det finnas någon skillnad mellan de elektromagnetiska vågor som skickas till och tas emot från varje enhet. Det mest uppenbara är kanske att skicka data vid olika tidpunkter, så att man först skickar något till telefon 1, sen till telefon 2 och så vidare. En annan ganska uppenbar sak är att dela upp frekvensbandet man använder i flera smalare band och använda varje smalt band för att kommunicera med en telefon. Om man på ett effektivt och noggrant sätt kan skilja på vilken riktning de olika signalerna kommer från får man ytterligare ett sätt att skilja signalerna åt. Dels kan man skilja dem åt på sändarsidan, genom att rikta den utsända vågen mot en plats där den telefon man vill kommunicera med finns. Dels kan man skilja dem åt på mottagarsidan, eftersom signalerna man tar emot från olika telefoner sällan kommer från exakt samma riktning allihop. Här får man ytterligare lite hjälp av att signalerna kommer att studsa mot till exempel byggnader och liknande, vilket ger varje inkommande signal en närapå unik signatur när det gäller vilken riktning den kommer från. För varje frekvens- och tidsintervall kan man alltså kommunicera inte bara med en telefon utan med så många som man kan skilja åt beroende på riktning.

Det här är grunden till vad man kallar massiv MIMO. MIMO står för "multiple input, multiple output" och syftar både på det stora antalet antennelement och hur de gör det möjligt att hantera flera olika mottagna och utsända signaler. Att man talar om "massiv" MIMO beror på det stora antalet antennelement och den motsvarande ökningen i antalet signaler man kan hantera. Massiv MIMO är en del av 5G-tekniken och passar dessutom bra ihop med de högre frekvenserna man vill använda i 5G. Högre frekvens innebär kortare våglängder, som i sin tur innebär att man kan använda fysiskt mindre antennelement - antennelement är i regel ungefär lika stora som våglängden och i en stor MIMO - array är de oftast skilda åt av ett mellanrum motsvarande en halv våglängd. Ska man bygga en antenn med 32 element kan det alltså göra stor skillnad om man har en våglängd på några centimeter eller några millimeter. 

söndag 16 augusti 2020

Krångliga kvantknuffar i rörig rapportering

På svt.se kan man sen i lördags kväll hitta en kort text och en tvåminuters video som berättar att forskare för första gången lyckats mäta effekten av mycket, mycket små kvantmekaniska "knuffar" eller fluktuationer på föremål i mänsklig storlek (istället för föremål av storleksordningen en eller några atomer, vilket är mer vanligt). Olyckligtvis är texten rätt virrigt skriven och blandar ihop flera olika kvantmekaniska effekter - videon är bättre, men rätt kort - så naturligtvis var min första reaktion att leta upp bättre källor för att förstå vad det egentligen är som har hänt.

Experimentet utfördes på Laser Interferometer Gravitational-Wave Observatory, eller LIGO, en avancerad forskningsanläggning byggd för att mäta gravitationsvågor och därmed bekräfta vissa av Einsteins teorier samt studera kollisioner mellan svarta hål eller neutronstjärnor. Mätanläggningen på LIGO består bland annat av två långa tunnlar eller rör, i rät vinkel mot varandra och utrustade med speglar. Under mätningarna delar man upp en kraftfull laserstråle i två delar, en för varje tunnel. Laserstrålarna reflekteras mellan speglarna och kommer tillbaka till utgångspunkten, där de interfererar med varandra. Interferensen mellan de två laserstrålarna beror på skillnaden i längd mellan de två tunnlarna, så om längden på den ena eller andra tunneln ändras kan man se det genom att observera interferensen. Om en gravitationsvåg passerar kommer det att orsaka en liten, liten förändring i längderna på tunnlarna, och det är så man kan detektera den.

Trots allt detta finns det gränser för hur noga man kan mäta med LIGO, och en av de gränserna sätts av en kvantmekanisk princip kallad Heisenbergs osäkerhetsrelation. Heisenbergs osäkerhetsrelation säger att det finns vissa saker man inte kan mäta noggrant samtidigt för samma föremål. Det mest välkända exemplet är position och rörelsemängd (hastighet gånger massa), men det finns en liknande osäkerhetsrelation för energi och tid. Osäkerhetsrelationen och de kvantfluktuationer som är effekten av den påverkar mätningarna i LIGO framför allt genom fotonerna som utgör laserstrålen, på så sätt att både antalet fotoner och deras strålningstryck mot speglarna kan variera. (Strålningstryck är den kraft som en ljusstråle utövar på ett föremål den lyser på, en kraft som oftast är så svag att den inte märks - men i LIGO-mätningarna märks den.)Naturligtvis är det mer komplicerat än så i praktiken. Eftersom det är oerhört små förändringar det handlar om krävs det att man på olika sätt eliminerar alla andra källor till förändringar eller störningar. Bland annat pumpar man ut all luft ur tunnlarna för att få ett vakuum, och de flera kilo tunga speglarna är upphängda på ett speciellt sätt.

Experimenten med kvanteffekter i LIGO, som beskrivs i ett pressmeddelande och en artikel i Nature (finns också som så kallat preprint på Arxiv), syftade både till att mäta effekten av de här kvantfluktuationerna på speglarna och, kanske ännu viktigare, att utforska hur man trots osäkerhetsrelationen kan göra noggrannare mätningar. När det gäller effekten på speglarna kunde man mäta att kvantfluktuationerna som är kopplade till laserstrålen kunde flytta dem ungefär 0.00000000000000000001 m, vilket är vad man tagit fasta på i SVT:s rapportering, och man lyckades också bekräfta att det finns metoder som kan tänja gränserna för mätnoggrannheten i LIGO.

Så vad var egentligen problemet med SVT:s beskrivning? Framför allt, skulle jag säga, att de verkar blanda ihop flera olika kvanteffekter. Både videon och texten tar upp några kvantfenomen som strängt taget inte har så mycket med just den här studien att göra, exampelvis quantum entanglement. Det hade väl varit okej om man hade tagit sig tid att förklara vad det innebär, men det gör man inte - både videon och texten är korta. Det finns också en tendens att blanda ihop olika kvanteffekter, som Heisenbergs osäkerhetsrelation och så kallad sammanvävning eller "entanglement". I texten påstår man dessutom att det här är första gången man mäter effekterna av kvantfenomen i mer makroskopisk skala, men det stämmer inte. Det är första gången man mäter effekterna av kvantfluktuationer på så stora föremål som speglarna i LIGO, men effekterna av andra kvantfenomen har man sett betydligt tidigare - exempelvis den så kallade fotoelektriska effekten.

Kvantfysik är svårt att förstå och förklara, och många av de fenomen som är kopplade till kvantfysik skiljer sig mycket från vad vi ser i vardagen. Just därför är det trist när medier skildrar dem på ett sätt som får dem att verka ännu mer förvirrande och mystiska. Det kanske får kvantfenomenen att verka mer intressanta och forskningsframstegen mer dramatiska, men jag tycker det är onödigt att göra något så komplicerat ännu svårare att förstå.

fredag 24 juli 2020

Mer 5G: Frekvenser och hastigheter

I det förra inlägget på bloggen skrev jag om vad 5G är och vad man hoppas att införandet av 5G ska leda till, framför allt när det gäller nya tillämpningar. Jag nämnde också att en av de mest uppmärksammade tekniska förändringarna i övergången från 4G till 5G är planerna på att använda högre frekvenser för informationsöverföring, vilket gör det möjligt att öka hastigheten i informationsöverföringen. Uppriktigt sagt var det detta som fick mig att vilja skriva nåt om 5G - jag tycker nämligen att de flesta förklaringar av kopplingen mellan informationsöverföring och frekvens som man hittar i media är lite väl förenklade. Så hur skulle man förklara det istället?

Innan vi börjar nysta i det kan det vara bra att skaffa sig ett hum om vad vi menar med högre frekvenser i det här sammanhanget. Alla mobiltelefonisystem (och annan trådlös kommunikation) använder sig av elektromagnetiska vågor för att överföra information. Frekvensen hos vågen är antalet vågtoppar per sekund. (För att göra en jämförelse med en lite mer välbekant typ av våg så skulle du kunna få fram frekvensen hos vågorna i badsjön genom att lägga dit en boj och sedan räkna hur många gånger den guppar upp och ner per sekund.) En högre frekvens motsvarar ett kortare avstånd mellan vågtopparna, även kallat våglängd. Våglängden är bra att ha koll på för att vågor har lättast att påverka (eller påverkas av) saker vars storlek är i närheten av våglängden. Det är t.ex. viktigt när man konstruerar antenner som ska sända och ta emot elektromagnetiska vågor.

Figuren nedanför visar väldigt ungefärligt hur frekvens (mitten) och våglängd (längst ner) följs åt för elektromagnetiska vågor från kilometerlånga radiovågor till högfrekvent gammastrålning. Det mångfärgade bandet nära mitten visar ungefär var synligt ljus ligger i frekvens och våglängd. Notera att skalan är logaritmisk! Skillnaden mellan strecken på skalorna är en faktor 1000.


Den gröna pilen i figuren pekar mot de högsta frekvenser som används i fjärde generationens mobiltelefoni, 4G, runt 2.6 GHz. Det är också i det här frekvensområdet man kommer att börja lansera 5G. Den blå pilen pekar på de högre frekvenser nära 25 GHz som man vill börja använda inom kort, alltså ca. 10 gånger högre frekvens än vad man använt tidigare. Slutligen pekar den röda pilen mot det frekvensområde man idag använder för fordonsradar, runt 77 GHz. Det finns planer på att utöka 5G till de här frekvensområdena också. När vi talar om höga frekvenser för mobiltelefoni handlar det alltså visserligen om 10-100 gånger högre frekvenser än man använt tidigare, men fortfarande en bra bit under frekvensen hos synligt ljus. Våglängdsmässigt handlar det om att gå från decimeter till centimeter eller millimeter.

Den översta skalan i figuren visar fotonenergi i enheten elektronvolt (eV), något som är bra att ha med när man kollar på hur elektromagnetiska vågor påverkar t.ex. levande varelser. Vi består ju av en stor mängd molekyler (vattenmolekyler, proteiner, fetter, DNA...) och när elektromagnetiska vågor stöter på molekyler beter de sig mer som partiklar, så kallade fotoner. Varje foton har en viss energi som är kopplad till frekvensen, och den energin avgör hur molekylerna påverkas. De mest välkända exemplen är fotonenergier över ca. 10 eV, som kan sparka ut elektroner ur molekylerna (så kallad joniserande strålning), och fotonenergier på något tiotal mikro-elektronvolt som är bra på att få molekyler att börja rotera, vilket leder till en högre temperatur (detta är principen bakom en mikrovågsugn). Däremellan finns fotonenergier som t.ex. kan sparka igång vibrationer i molekyler eller få elektronerna i dem att övergå till ett högre energitillstånd. Den typen av effekter är ofta begränsade till ett litet antal frekvenser per molekyl, eftersom de beror på exakt hur molekylen ser ut.

När det gäller våra 5G-frekvenser så ser vi att deras fotonenergier ligger i ett område där man kan förvänta sig att molekyler ska reagera genom att börja rotera på olika sätt, vilket i förlängningen kan leda till högre temperaturer - däremot är vi långt från fotonenergier som kan påverka elektrontillstånd eller jonisera molekylerna. Eftersom jag inte har nån medicinsk utbildning tänker jag inte gå in så mycket mer på de möjliga effekterna på människor och djur, men Strålsäkerhetsmyndigheten har en bra sammanfattning av forskningsläget för den som är intresserad.

Men åter till frågan vi ställde i början - varför kan man överföra information i en högre takt om man använder en högre frekvens? För att förstå det behöver vi kolla på hur man använder elektromagnetiska vågor för att överföra information över huvud taget. Informationen man vill överföra behöver bakas in i vågrörelsen, en process som kallas modulering. Modulering kan ske genom att man ändrar vågens amplitud, frekvens eller fas (en vågrörelses fas säger något om var och när vågtoppar och vågdalar uppstår - man skulle t.ex. kunna ha två vågrörelser med samma amplitud och frekvens, men där den ena har en vågtopp när den andra har en vågdal, och de är då ur fas). Man kan också kombinera fas, amplitud och frekvensmodulering på olika sätt. För mobiltelefoni används digital modulering, där man växlar mellan olika värden på amplitud, fas och frekvens och varje kombination står för en kombination av ettor och nollor.

Digital modulation basics, part 1 - 5G Technology World

Alla former av modulering innebär att man blandar in fler frekvenser i signalen än bara grundfrekvensen, vilket innebär att man i praktiken inte använder en enskild frekvens utan ett band av frekvenser. Ju snabbare man växlar mellan de olika värdena på amplitud, frekvens eller fas desto bredare band av frekvenser behöver man använda. För digital modulering innebär det att om man har ett mer omfattande frekvensband till sitt förfogande så kan man växla amplitud, frekvens eller fas snabbare och därmed skicka fler kombinationer av ettor och nollor under samma tidsintervall. 

Ovanstående förklaring verkar ju peka på att bandbredden, snarare än frekvensen, skulle vara viktigast för överföringstakten - ett frekvensband på 100 MHz runt en mittfrekvens på 2 GHz borde ge samma hastighet för informationsöverföring som ett frekvensband på 100 MHz runt 20 GHz. Det stämmer visserligen, men det är lättare att använda ett bredare frekvensband på en högre frekvens av praktiska skäl. Antenner och andra komponenter som används i sändare och mottagare funkar bäst för en mittfrekvens plus / minus en bråkdel av mittfrekvensen i fråga - säg 5 procent. Det skulle innebära att man vid 2 GHz skulle kunna använda ett frekvensband från 1.9 GHz till 2.1 GHz - 200 MHz - medan man vid 20 GHz skulle kunna använda 19 till 21 GHz. Det är det här som gör att man får en högre överföringstakt vid högre frekvenser.

Den här hastighetsökningen anses vara tillräckligt viktig för att man ska vilja använda de högre frekvenserna trots deras nackdelar. Dessa högre frekvenser absorberas lättare i atmosfären - av vattenånga och andra molekyler, och av vattendroppar när det regnar eller är dimma. Det innebär att de här elektromagnetiska vågrörelserna försvagas snabbare än för lägre frekvenser, och är en starkt bidragande orsak till att man behöver fler basstationer, placerade på mindre avstånd från varandra, för att få bra täckning med de högre frekvenserna. Det är också svårare att få dessa frekvenser att nå in i hus från en basstation utanför huset. 

Högre frekvenser har också en annan fördel - de kan göra det lättare att konstruera de antenner men många antennelement som också är en del av 5G. Men det får vi ta nästa gång.

Vad ska vi med 5G till?

Under våren har 5G, den femte generationens mobiltelefonisystem, så smått börjat lanseras i Sverige.  Mobiloperatörerna utlovar högre hastigheter och allmänt bättre mobilnät, men inom teknikindustrin finns det högre förhoppningar än så. Så vad är det vi ska ha 5G till?

Innan vi kommer in på vad man vill göra med 5G kan det vara bra att fundera på vad det är. På en väldigt allmän nivå så behöver ett mobiltelefonisystem innefatta trådlös kommunikation, som består av signaler till och från ett större eller mindre antal mobiltelefoner (eller smarta klockor, surfplattor, etc), och någon typ av bakomliggande system som kan vidarebefordra information till det vanliga telefonnätet eller internet. I skarven mellan dessa två nätverk finns de så kallade basstationerna, som för de flesta av oss är den mest synliga delen i mobilnätet (förutom vår egen telefon då). Kommunikationen mellan basstationerna och de enskilda mobilerna sker med hjälp av elektromagnetiska vågor, s.k. radio- och mikrovågor. En "generation" av mobiltelefonisystem är en sorts överenskommelse eller standard som täcker allt från vilka frekvenser av elektromagnetisk strålning man använder och hur basstationerna är uppbyggda, till hur informationen som skickas över mobilnätet ska se ut för att kännas igen och tolkas rätt av både mobiler och basstationer. Det handlar alltså inte om en enskild uppfinning eller teknisk förändring utan ett helt paket av förändringar som samverkar på olika sätt. 

Den rent tekniska förändring som fått mest uppmärksamhet när det gäller 5G är att man planerar att börja använda högre frekvenser, vilket i sig kan göra det möjligt att överföra data i en högre takt, men 5G öppnar också för att paketera informationen som skickas på ett mer effektivt sätt, strukturera om systemet bakom basstationerna och börja använda sändar- och mottagarantenner med fler antennelement i basstationerna. Med fler antennelement blir det lättare både att skicka ut elektromagnetiska vågor i en bestämd riktning och skilja på de elektromagnetiska vågor man tar emot från olika mobiltelefoner (det funkar lite som när man bestämmer riktning med hjälp av radar). Ju bättre man kan skilja signaler från olika telefoner åt desto fler kan ha kontakt med samma basstation samtidigt utan att det blir problem. Tillsammans innebär de här förändringarna att man, jämfört med tidigare generationers mobiltelefoni, ska kunna överföra information i en högre takt, skapa utrymme för fler samtidiga användare av mobilnätet och minska fördröjningen i informationsöverföringen (så kallad latens).

Om man till vardags använder 4G-nätet utan problem kan man kanske fråga sig om någon av de här förbättringarna egentligen behövs. Grejen är att de mobiloperatörer som bygger 5G-nätet inte enbart är ute efter att tillgodose behoven hos mobilanvändare så som de är idag. Dels verkar man anta att den typ av mobilanvändare som redan finns - såna som du och jag som har mobiltelefoner och ringer och surfar med dem - kommer att öka sina krav på hastighet och pålitlighet i anslutningen. Kanske kommer de också att ha fler enheter per person, som en mobiltelefon plus en smart klocka med eget SIM-kort. Det är något man vill vara förberedd på för att inte tappa kunder. Men utöver detta tror man också att ett annat sätt att använda mobilnätet kommer att öka i framtiden - nämligen att det kommer att användas för kommunikation mellan maskiner. 

Tänk dig att du kör en bil som är utrustad med avancerad teknik för att hjälpa dig som förare - kanske kan den till och med köra utan din hjälp i enkla situationer som motorvägskörning. Plötsligt förändras något i trafiksituationen - det kanske bildas en kö på motorvägen, eller så kommer en kraftig regnskur och försämrar sikten och gör vägbanan hal. I de flesta fall lägger du märke till de här sakerna när du kommer fram till dem (ok, Google skulle kunna hinna varna dig för bilkön om du var tillräckligt långt ifrån den när den bildades). Om bilarna i sig kunde kommunicera sinsemellan skulle de som nått kön, eller regnvädret, automatiskt kunna varna andra bilar i närheten. Om de kunde kommunicera med infrastrukturen - säg att det skulle finnas sändare i exempelvis trafikskyltar - skulle de kanske kunna få ännu mer information. Beror kön på ett vägarbete, behöver man temporärt ändra hastighetsbegränsningen på en vägsträcka? Den typen av information skulle kunna nå själva bilen automatiskt och visas på t.ex. heads up-displayer och liknande. För en bil med kapacitet att vara självkörande skulle det också kunna göra det lättare för den att anpassa sig efter omständigheterna eller förvarna den mänskliga föraren när han eller hon behöver ta över. Det här skulle dock kräva pålitlig, snabb trådlös kommunikation med låga nivåer av fördröjning mellan ett stort antal användare (bilar och sändare i infrastrukturen). Det är några av de saker som 5G-tekniken utlovar, och därför hoppas man att den ska göra det möjligt att på allvar få igång kommunikation mellan fordon samt mellan fordon och infrastruktur.

Ett annat användningsområde man brukar prata om för 5G är i så kallade smarta städer, som i det här fallet bland annat innefattar att ha stora mängder sensorer utplacerade för att känna av allt från trafikflöden till vattenläckor. Sensorerna ska kunna kommunicera via mobilnätet för att slå larm eller leverera data. Man vill också använda 5G för att förbättra folks hälsa, t.ex. genom att skapa bärbara sensorer som kan slå larm via mobilnätet om något går fel, och för att ta automation i fabriker ytterligare några steg längre. Den här översikten från IEEE  ger en ganska bra bild av vad folk hoppas kunna åstadkomma (den är också två år gammal, men en snabb trendspaning pekar på att förhoppningarna håller i sig - kolla t.ex. här, här och här för en inblick i vad folk i branschen vill göra).

Som alltid med framtidsvisioner är det viktigt att komma ihåg att ingen vet riktigt hur utvecklingen kommer att bli. Vissa tillämpningar som man hoppas mycket på kommer antagligen att visa sig vara svåra att förverkliga eller mindre användbara än man trott, samtidigt som det kommer att dyka upp nya idéer när folk börjar använda tekniken och se möjligheterna. Eftersom 5G precis börjat införas i stor skala kommer det också att dröja ett tag innan vi vet exakt hur väl det faktiskt funkar i praktiken. Oavsett hur det kommer att gå är det bra att veta att de stora effekterna av den femte generationens mobiltelefoni inte nödvändigtvis kommer att vara kopplade till vanliga mobiltelefoner utan till helt andra typer av tekniska prylar - som pratar med varandra.

söndag 1 mars 2020

Om elektricitet ur "tomma" luften och hur man rapporterar om upptäckter

Härom veckan fick jag reda på att några forskare vid University of Massachusetts Amhurst gjort en spännande upptäckt: De hade lyckats generera elektricitet ur luftfuktighet med hjälp av proteinbaserade nanotrådar. Den första beskrivningen av upptäckten som jag träffade på kom från Warp institute, men en snabb Googling tog mig både till en sorts pressmeddelande från universitetet där upptäckten gjordes och diverse sidor som rapporterar om framsteg inom forskning och teknik. Rapporteringen var väldigt entusiastisk och beskrev det hela som ett sätt att generera miljövänlig, förnybar energi ur tomma luften - utan beroende av sådant som solljus eller vind.

Den typen av rapportering kan lätt göra en fundersam och ge upphov till frågor av typen "men hur funkar det egentligen?". För att ha en chans att få svar måste man gräva vidare lite. Forskarna har publicerat sitt arbete i prestigetidskriften Nature, som inte precis är Open Access, men lyckligtvis går det att läsa en version av artikeln via Researchgate.

Hur det funkar (så vitt man vet...)
En av de första saker man inser när man börjar läsa artikeln är att det här med att utvinna elektricitet från luftfuktighet är ett hyfsat aktivt forskningsfält, hur konstigt det än kan låta för den som inte är insatt. En rätt intressant översiktsartikel som forskarna refererar till presenterar resultat från försök med nanomaterial som grafenoxid, men nämner också att mekanismen bakom är lite oklar - man tror att det har att göra med att när vattenångan från luften absorberas i materialet kan en del av vattenmolekylerna delas upp i negativt laddade OH-joner (en väte och en syre) och positivt laddade vätejoner (en process som pågår hela tiden i vatten när det är i flytande fas, d.v.s. inte ånga eller is). De positivt laddade vätejonerna kan då samverka med laddade partiklar i kolnanomaterialet på ett sätt som ger upphov till en skillnad i elektrisk potential och därmed en elektrisk ström.

Så om det här är ett känt fenomen, vad är det nya i Massachusetts-forskarnas upptäckt? Tidigare material som använts för att generera ström ur luftfuktighet har bara genererat ström en kort stund, för att sedan behöva en mycket längre "uppladdningstid" innan de kan generera ström igen. Massachusetts-forskarnas material genererade under experimenten ström i hela 20 timmar, för att sen bara behöva en "uppladdningstid" på fem timmar. Det är är här det där med porositet och skillnader i vattenkoncentration kommer in.

I Massachusetts-forskarnas experiment ligger de proteinbaserade nanotrådarna samlade mellan två elektroder, d.v.s. plattor av elektriskt ledande material. Tillsammans bildar nanotrådarna ett material full av små hål och kanaler, eller porer, som vatten skulle kunna ta sig fram igenom. Bara den ena ytan, vid den övre elektroden, är i kontakt med den omgivande luften och kan ta upp vattenånga. Vattnet som tas upp på det här sättet sprider sig i materialet, men på grund av att porerna är så små får man inte samma koncentration överallt, vilket leder till en skillnad i elektrisk potential och som resultat av det en elektrisk ström. Forskarna är dock noga med att poängtera att det fortfarande finns flera oklarheter i exakt hur den här processen går till och att det behövs fler studier.

Något de är säkra på är dock att energin som utvinns kommer från vattenångan som tas upp av materialet och inte från t.ex. en kemisk reaktion i nanotrådarna. Det är inte orimligt eftersom en vattenmolekyl som far runt i luften i form av vattenånga har högre energi än en som är absorberad av ett material, åtminstone i form av rörelseenergi, men de exakta mekanismerna är alltså fortfarande oklara.

Hur det rapporteras
I botten på den här historien finns ett spännande framsteg inom ett etablerat forskningsfält, en upptäckt som visar på intressanta möjligheter men också lämnar många viktiga frågor utan svar åtminstone för tillfället. Så varför rapporteras det på ett sätt som får det att låta så osannolikt?

Rent allmänt finns det en tendens till att man pratar om naturvetenskap och teknik på ett rätt dramatiskt sätt som framhäver det oväntade - som att framställa ström ur "tomma luften" - eller det som kan kopplas till samhällsdebatten, som förnybar energi. Det gäller inte bara bland vetenskapsjournalister utan är även ett sätt för forskarna själva att väcka intresse för sitt arbete. I det här fallet har forskarna själva i intervjuer framhållit just de här två aspekterna, liksom pressmeddelandet från universitetet gör.

En annan sak som bidrar är behovet av att förenkling när man skriver om vetenskap. Ibland kan man förenkla på ett bra sätt, ibland faller viktiga saker bort, och ibland handlar det om saker som inte ens de som forskar på dem är helt säkra på hur de funkar. I det här fallet finns det en del texter i rapporteringen (inte alla, dock) som närmast helt slarvar bort mekanismen och därför får det att se ut som en evighetsmaskin - något som strider mot termodynamikens lagar - trots att det inte är vad det är frågan om.

Vill man väcka intresse och entusiasm för teknik och naturvetenskap kan den här kombinationen av dramatik och förenkling framstå som det enda sättet att tränga igenom mediebruset. Det kan också vara en riskabel kombination, inte bara för att den får verkliga upptäckter att framstå som osannolika utan för att man nästan per automatik presenterar vetenskapen mer som en serie plötsliga, geniala kvantsprång än den långsamma process av kunskapsinsamlande det oftare är frågan om.

söndag 19 januari 2020

Om AI och hållbarhetsmål

I veckan publicerade Nature Communications en artikel med titeln The role of artificial intelligence in achieving the Sustainable Development Goals. Den är skriven av en grupp på elva forskare inom ämnen som datavetenskap, ekologi och klimatvetenskap. (En av dessa forskare är Max Tegmark, vars bok Liv 3.0 jag skrev om i höstas.) Syftet med artikeln är att ta reda på hur utvecklingen inom AI kan påverka uppnåendet av FN:s sjutton mål för hållbar utveckling.

För att reda ut sambanden mellan utvecklingsmålen och AI har man gjort en gigantisk litteraturstudie där man letat efter olika typer av dokument - framför allt studier av AI-system i verkligheten och i laboratoriemiljö, men också rapporter från t.ex. FN och dokumentation av kommersiella tillämpningar av AI - som på något sätt knyter samman artificiell intelligens med något av hållbarhetsmålen. Man har sedan för varje delmål vägt samman de studier som talar för en positiv eller negativ effekt och försökt kvantifiera om den sammanlagda effekten på det övergripande målet är positiv eller negativ, eller om det finns både positiva och negativa effekter på olika aspekter av målet.

De sjutton hållbarhetsmålen å sin sida har delats in i tre grupper, de som är relaterade till miljö, de som är relaterade till ekonomi och de som är relaterade till samhällelig eller social hållbarhet. På miljösidan ser läget rätt positivt enligt den här studien, med tre hållbarhetsmål som skulle påverkas mestadels positivt av AI, mycket på grund av möjligheten att analysera stora mängder tillgänglig data på ett bättre sätt och därigenom kunna ta till bättre åtgärder mot problem. På minuskontot hittar vi här den potentiella miljöpåverkan av AI-systemen i sig, som kan bli rätt energikrävande och därmed eventuellt generera koldioxidutsläpp.

För de fyra ekonmirelaterade målen pekar artikeln på ett mer komplicerat läge. För de mål som handlar om tillväxt, infrastruktur och hållbar konsumtion är bilden ganska ljus, men när det gäller mål 10 som handlar om att minska ojämlikhet verkar det kunna påverkas både positivt och negativt. Riskerna här handlar om att fördelarna med AI antagligen blir tillgängliga framför allt för de som redan har stora ekonomiska resurser. På ett internationellt plan skulle det kunna leda till att rikare länder drar ifrån ännu mer jämfört med andra länder, inom länder kan det betyda att de som äger företag som drar nytta av AI och de som på ett eller annat sätt jobbar med AI vinner på utvecklingen medan de vars jobb automatiseras eller effektiviseras bort halkar efter i levnadsstandard.

För social eller samhällelig hållbarhet finns det nio mål, och här är bilden också mer komplicerad. För sådant som hållbara städer, rent vatten och hälsa är bilden mestadels positiv, men för målen som relaterar till fattigdomsbekämpning och utbildning finns tecken på både positiv och negativ påverkan och för jämställdhetsfrågor och frågor om rättvisa och stabila institutioner verkar informationen vara rätt bristfällig. Återigen är riskerna kopplade till hur AI-utvecklingen kan höja tröskeln till arbetsmarknaden genom att ta bort jobb men lägre utbildningskrav, men också till hur så kallad "big data" från sociala medier kan användas för att hitta människors psykologiska svagheter och använda dem för att manipulera beteenden.

Även om man säkerligen kan diskutera hur rättvisande metoden man använt i studien är ger artikeln ändå en fingervisning om var man kunnat upptäcka möjligheter och problem med tillämpningar av artificell intelligens. Risker som är kopplade till vem som får tillgång till AI och vems behov tekniken utvecklas för att möta dominerar helt klart på problemsidan, något som bekräftar en del av de farhågor som Tegmark själv presenterade i sin bok. Här finns också en koppling till de förväntade positiva effekterna på t.ex. miljösidan, för om de ska bli verklighet måste någon också utveckla AI som löser just de problemen. Om utvecklingen istället styrs enbart av exempelvis ekonomiska intressen kan de potentiella miljövinsterna med AI utebli.

Eftersom det här handlar om en litteraturstudie är det också viktigt att komma ihåg att alla möjligheter och risker som finns med är sådant som någon annan redan tänkt ut, studerat eller tillämpat. På vissa håll, t.ex. när det gäller rättvisa och jämställdhet, finns det uppenbara kunskapsluckor, medan sådant som att arbetstillfällen försvinner på grund av automatisering är välstuderat för att det fått så mycket uppmärksamhet. Det kan betyda den bild av effekterna av AI som presenteras i artikeln är snedvriden på något sätt - kanske finns det mycket större problem eller möjligheter på något område som inte studerats tillräckligt. Det är ju alltid svårt att veta vad det är man inte vet.


söndag 12 januari 2020

Vad finns det att säga om koldioxidavskiljning?

I december förra året fick jag syn på en lite intressant grej i mitt Facebookflöde: Ett inlägg från Chalmers Tekniska Högskola som beskrev hur några av deras forskare (i samarbete med andra forskare vid Stockholms Universitet) tagit fram ett nytt, lovande material för så kallad koldioxidavskiljning och lagring, även kallat CCS (carbon capture and storage). Det verkade intressant dels av materialvetenskapliga skäl, dels för att man hör förvånansvärt lite om CCS-teknik rent allmänt. Andra tekniker kopplade till minskade koldioxidutsläpp, som uppladdningsbara batterier, bränsleceller och biobränslen, får betydligt mer uppmärksamhet. Så vad finns det att säga om CCS?

Tanken med koldioxidavskiljning och -lagring är att man ska kunna skilja ut koldioxid från en blandning av gaser, som t.ex. röken från kol- och oljeeldade kraftverk, och därmed hindra den från att spridas i atmosfären. Istället transporteras koldioxiden bort och lagras under längre tid utan att släppas ut. Havsbotten och vissa typer av berggrund brukar framhållas som lämpliga lagringsplatser, exempelvis görs försök i Norge med att lagra koldioxid från gasfält i berggrunden på havsbotten nära gasfyndigheterna. Alla steg i den här processen har sina tekniska utmaningar, kostnader och risker, till exempel skulle ett oavsiktligt utsläpp av koldioxid från lagringsplatsen både omintetgöra nyttan med avskiljningen och potentiellt också orsaka skador på människor och natur i omgivningen. Enligt en översiktsartikel från 2018, publicerad i Royal Society of Chemistry's tidskrift Energy and Enviromental Science, har försök med tekniken har visat sig bli dyra och tidskrävande, delvis på grund av installationskostnader och infrastruktur som behöver byggas upp. Om man däremot lyckas med CCS hägrar möjligheten att få till stora, snabba minskningar av koldioxidutsläppen.

Chalmersforskarnas nya material är som sagt tänkt att användas för själva avskiljningen av koldioxid. För att förstå problemen de försöker lösa får vi återvända till översiktsartikeln som jag länkade till innan. Där beskrivs bland mycket annat hur de flesta existerande försök med CCS-teknik skiljer ut koldioxiden med hjälp av en blandning av vatten och olika kemikalier, oftast så kallade aminer. Det här är en teknik som länge använts för att rensa ut koldioxid ur naturgas och därmed få en renare och bättre naturgas att elda upp, men tekniken kan också användas på utsläpp från exempelvis kolkraftverk. Själva koldioxidavskiljningen förbrukar tyvärr en hel del energi eftersom man behöver få ut koldioxiden ur vattenlösningen igen för att transportera iväg den, t.ex. genom att hetta upp lösningen. Dessutom är många av de här vattenlösningarna giftiga och i högre koncentrationer också frätande, vilket kan ställa till problem både när det gäller slitage i anläggningen och vid utsläpp.

För att komma runt detta vill man utveckla material som kan ta upp koldioxid men som inte är vattenlösningar eller vätskor utan fasta material. Dessa skulle, förutom lägre utsläpprisk, kunna bli lättare att installera i kraftverk och fabriker i efterhand och även kräva mindre energi jämfört med vattenlösningarna när koldioxiden ska skiljas från materialet och transporteras vidare till lagringen. Artikeln som Chalmersforskarna skrivit handlar om just ett sådant material. Det består av två komponenter, där den ena är ett sorts poröst nätverk av gelatin och cellulosa (ja, sån som finns i träd, fast de har processat den till en lite annan form) som ger materialet stadga samtidigt som det släpper igenom gaser som koldioxid. Den andra komponenten är en så kallad zeolit, ett mineral som består av aluminium och kisel och som har en väldigt speciell struktur med stora hålrum och porer i. Koldioxidmolekyler kan fastna på ytan av zeoliten, och tack vare den porösa strukturen finns det väldigt mycket yta för dem att fastna på.

Kombinationen av zeoliter, gelatin och cellulosa i Chalmersforskarnas material ska göra det lätthanterligt och lättinstallerat, billigt och dessutom mestadels biologiskt nerbrytbart. Det kan alltså vara en del i utvecklingen av billigare och mer lätthanterlig CCS-teknik, som i sin tur kanske kan användas mer och få mer uppmärksamhet. En annan fråga är emellertid om det är dit man egentligen vill komma. Något som skiljer CCS från mer uppmärksammade tekniker som bränsleceller och förnybar energi är att de två sistnämnda har en tydlig roll i ett samhälle som ställt om från fossila bränslen, medan CCS handlar om att fortsätta generera koldioxid men inte släppa ut den. Intresset, eller bristen på intresse, för CCS har också att göra med om man ser tekniken som ett sätt att fördröja eller hindra en nödvändig omställning, eller som ett sätt att kunna minska koldioxidutsläppen fortare än vad man kan ställa om till koldioxidneutrala energikällor och produktionsmetoder. Så det finns en del att säga om CCS - från olika perspektiv.