Visar inlägg med etikett Nobelpris. Visa alla inlägg
Visar inlägg med etikett Nobelpris. Visa alla inlägg

söndag 13 oktober 2019

Efter att man tämjt litium...

Normalt sett brukar jag inte skriva så mycket om Nobelprisen. De är ju minst sagt uppmärksammade, och därmed presenteras det nästan alltid bra populärvetenskapliga förklaringar av dem någonstans i ett medieflöde nära dig. I år kan jag emellertid inte låta bli att åtminstone reflektera lite över, inte fysikpriset (även om exoplaneter är rätt spännande), utan kemipriset.  (Apropå populärvetenskapliga presentationer så hittar ni KVA:s här.)

Kemipriset i år gick till M. Stanley Whittingham, John B. Goodenough och Akira Yoshino för deras arbete med litiumbatterier. De har inte arbetat i samma forskargrupp eller lab, men deras respektive arbeten bygger vidare på varandra och markerar viktiga milstolpar på vägen mot de litiumbatterier vi har idag.

Som jag nämnt tidigare (lustigt nog i ett inlägg som handlade om en av Goodenoughs artiklar) består batterier i grunden av två elektroder, en positiv och en negativ, åtskilda av en elektrolyt. När man använder batteriet strömmar elektroner och joner (laddade atomer - i det här fallet atomer som gett ifrån sig elektroner och därför är positivt laddade) från den negativa elektroden till den positiva, jonerna genom elektrolyten och elektronerna genom vad det nu är för elektronik man vill använda batteriet till att driva. När man laddar man batteriet igen lagrar det energi genom att tvinga tillbaka elektroner och joner till den negativa elektroden. För att ett uppladdningsbart batteri ska fungera bra behöver alltså båda elektroderna kunna ta upp och ge ifrån sig joner upprepade gånger utan att börja fungera sämre, ändra form eller förstöras. Man måste också se till att litiumjonerna har högre energi när de sitter i den negativa elektroden än i den positiva, eftersom det är den skillnaden man använder för att lagra energi i batteriet.

I litiumbatterier löser man i regel det här med ett poröst kolmaterial, som grafit, i den negativa elektroden (en av Akira Yoshinos upptäckter, för övrigt) och en metalloxid i den positiva. I båda materialen kan litiumjonerna lagras i hålrum eller luckor i materialet, där de binder tillräckligt svagt till atomerna runt omkring för att lätt kunna lämna materialet igen vid urladdning eller uppladdning. För att oxiden i den positiva elektroden ska kunna behålla sin struktur under urladdningen är det vanligt att den innehåller kobolt.

Kobolt är ett problemmaterial i de här sammanhangen. Det framställs på få platser som en biprodukt av utvinningen av andra metaller, t.ex. koppar och nickel. Nånstans runt hälften av världens totala produktion verkar ske i Demokratiska Republiken Kongo, under usla förhållanden. Samtidigt har det visat sig svårt att ersätta helt, trots idoga försök. Man kan minska mängden kobolt man använder genom att istället använda mer nickel och aluminium, men det sänker batteriets kapacitet en aning och under vissa förhållanden kan det vara mindre säkert.

Det här med att en användbar teknik som har positiva effekter för många kräver problematiska råvaror är något som nästan alltid kommer upp när det handlar om energikällor, energilagring och energianvändning. Bensinmotorer kräver, tja, oljeutvinning (och dessutom många andra välkända nackdelar, som låg verkningsgrad och koldioxidutsläpp). Bränsleceller, åtminstone sådanan som fungerar vid någorlunda rimliga temperaturer, har sina katalysatorer av dyr och sällsynt platina. Vindkraftverk har neodyn.

Vi kan inte undvika att all framställning, lagrning och användning av energi har effekter på vår omgivning. Vi borde kunna undvika de mest horribla lokala konsekvenserna av mineralbrytning, och vi borde kunna ta vara på den kobolt, litium etc. som vi redan tagit fram genom bättre återvinning (notera att länken bara är ett exempel - det verkar finnas många som jobbar med detta). Tyvärr är just återvinning nåt som ofta släpar efter resten av teknikutvecklingen och som bara får verkligt genomslag när priserna på nya råvaror skjuter i höjden.

Och så kan vi ju också fortsätta hoppas på att nån kommer på ett sätt att ersätta kobolt i litiumbatterier. Jag har hört att den 97-årigen professor Goodenough inte känner sig färdig för pension riktigt än.

lördag 6 oktober 2018

En Nobel-spådom

Så har vi fått reda på vilka årets Nobelpristagare är - utom i ekonomi förstås, men personligen är jag mest intresserad av fysikpriset. Som bekant delas det i år av tre personer, hälften går till Arthur Ashkin för utvecklandet av den optiska pincetten och andra hälften till Gérard Mourou och Donna Strickland för deras metod att alstra högintensiva, korta laserpulser. Båda upptäckterna är av den sorten som leder vidare till andra upptäckter eftersom de möjliggör nya sätt att studera olika fenomen. Som vanligt är det väldigt intressant, och som vanligt är Kungliga Vetenskapsakademins populärvetenskapliga sammanfattning läsvärd.

Emellertid har det blivit en del uppmärksamhet kring en annan aspekt: Donna Strickland är den tredje kvinnan som fått ett Nobelpris i fysik under de knappt 120 år priset delats ut.

Min Nobel-spådom är att vi kommer att få se den fjärde, femte och sjätte kvinnliga Nobelpristagaren i fysik inom de närmaste tolv åren.

Nej, jag pratar inte om kvotering. Jag pratar om att Nobelprisen helt enkelt börjar komma ikapp de förändringar i samhället som gjort att kvinnor och män fått mer jämlika förutsättningar inom akademin.

Tänk på hur mycket Nobelprisen släpar efter de upptäkter de belönar. Årets Nobelpris handlar om upptäkter som gjordes 1985 (pulslasern) och 1986 (optisk pincett). Donna Strickland är 59, ungefär jämnårig med många av de kvinnliga professorer jag själv träffat på under min tid i akademin. Även om jag förstått att deras karriärer inte direkt varit nån dans på rosor så är det ett faktum att de delvis vuxit upp och inlett sina karriärer under 60- och 70-talen - en period då samhällsutvecklingen, och kanske framför allt andravågsfeminismens inflytande, medförde stora förändringar i synen på kvinnor på arbetsmarknaden över huvud taget.

Nobelprisen kommer alltså inom kort med nödvändighet att börja belöna upptäkter som gjorts efter jämställdhetens senaste stora genombrott i Europa och USA (som trots allt är de regioner som genererat flest Nobelpristagare hittills). Samtidigt börjar vi som samhälle röra oss bort från idén om att forskningsframsteg är beroende av en ensam, genial forskare och mot den mer verklighetsnära insikten om att forskning faktiskt oftast utförs i grupp. Min gissning är att dessa två strömningar tillsammans kommer att leda till en större andel kvinnliga pristagare i framtiden.

Tidigare kvinnliga Nobelpristagare:

Den första (1903) var Marie Curie som forskade inom radioaktivitet och joniserande strålning och delade priset med sin make Pierre Curie och kollegan Henri Bequerel. Enligt uppgift hade Nobelkommittén först inte tänkt inkludera madame Curie, men matematikern Gösta Mittag-Leffler (bror till författaren Ann-Charlotte Leffler, och för övrigt involverad när Sonja Kovalevskaja fick sin välförtjänta professur i matematik, men det är en annan historia) skvallrade för Pierre Curie, som insisterade på att hans hustrus insatser också skulle belönas.

Den andra kvinnliga Nobelpristagaren i fysik (1963) var teoretikern Maria Goeppert Mayer, som inte är lika känd men som man kan läsa mer om i en utmärkt artikel i Physics Today som publicerades nyligen. Där får man bland annat veta att det trots hennes exceptionella arbete dröjde 30 år efter hennes disputation innan hon fick en fast, betald tjänst. Vid flera tillfällen under sin karriär forskade hon utan både anställning och lön, vilket var möjligt delvis just för att hon var teoretiker och därmed inte behövde något laboratorium.

(Sen finns det ju de andra. Det har blivit lite av en sport bland fysiker med intresse för ämnets historia att fundera ut vilka kvinnor ur det förflutna som hade fått ett Nobelpris om de varit verksamma idag, men som blev utan på grund av de tid de levde i. Det första namn som nämns brukar vara Lise Meitner, som i så fall antagligen borde ha delat priset med Otto Hahn 1944, tätt följt av Emmy Noether. Samt Jocelyn Bell Burnell, vars handledare fick Nobelpris för arbete hon varit med om att genomföra.)

tisdag 10 december 2013

På en skala - om Nobelpriset i kemi

Man hade kunnat tro att jag skulle skriva något om Higgs-partikeln idag eftersom jag är fysiker, men det tänkte jag inte göra. Anledningen är att elementarpartikelfysik och högenergifysik ligger ganska långt bort från det jag själv gör, och det finns andra som kan skriva bättre om Higgsen (Forskning och Framsteg, till exempel). Istället är det årets kemipris som ligger åtminstone i närheten av en del saker jag gör. Eftersom det dessutom lider av en ganska kraftig överförenkling i pressmeddelandet så tänkte jag skriva en liten text om det här.

Nobelpriset i kemi i år tilldelas Martin Karplus, Michael Levitt och Arieh Warshel "för utvecklandet av flerskalemodeller för komplexa kemiska system". De har lyckats kombinera tre olika sorters datormodeller för att få en bra beskrivning av till exempel reaktioner mellan biomolekyler (proteiner, etc.) utan att för den skull behöva orimligt långa beräkningstider. Detta har man åstadkommit genom att dela in systemet man vill studera i olika delar, som beskrivs med olika metoder.

Vi kan börja längst in, med de atomer som är direkt inblandade i den kemiska reaktionen. För att få en bra bild av vad som händer här behöver man skaffa sig en modell av hur atomernas elektroner beter sig. Det är nämligen fördelningen av elektroner runt atomkärnorna som avgör om atomerna sitter ihop med varandra eller inte, och hur stark bindningen är (vilket jag skrivit om här). För att hålla koll på elektronerna använder man det som kallas första prinicp-beräkningar, där man löser Shrödingers ekvation. Med sådana metoder utgår man från att alla atomkärnor sitter på ett visst sätt och sedan beräknar man hur elektronerna fördelar sig runt dem. Utifrån elektronernas fördelning kan man räkna ut vilka krafter som verkar på atomkärnorna och hur de kommer att flytta på sig på grund av de krafterna. (Eller hur de borde flytta på sig för att få lägsta möjliga energi. Det beror lite på vad man är intresserad av.)

Nästa område innefattar alla atomer som är en del av molekylerna men som inte är direkt involverade i reaktionen. Eftersom biomolekyler ofta är ganska stora så kan det finnas många sådana atomer, så många att om man skulle beskriva alla med första princip-metoder skulle man knappt kunna utföra beräkningen. Istället beskriver man dem med hjälp av så kallade modellpotentialer. En modellpotential är konstruerad för att beskriva hur krafterna mellan atomer i ett material ser ut, till exempel kan en modellpotential innehålla termer som motsvarar kraften mellan två elektriskt laddade partiklar (jonbindning) eller vinkelberoende termer som motsvarar kovalenta bindningar. Oftast tar man hjälp av resultat från första princip-beräkningar och experiment för att avgöra exakt hur potentialen ska se ut. Eftersom man inte måste hålla reda på elektronerna utan bara betraktar atomerna som bollar med en viss massa så kräver sådana här beräkningar mycket mindre datorkraft än första princip-beräkningar.

Det är för övrigt i kopplingen mellan första princip-metoder och modellpotentialer som pressmeddelandet i mitt tycke är överdrivet förenklat. Där står att pristagarna "lyckades få Newtons klassiska fysikaliska lagar att samarbeta med den fundamentalt annorlunda kvantfysiken", men det är inte riktigt så enkelt. Både första princip-beräkningar och modellpotential-beräkningar använder nämligen Newtons klassiska lagar för att beräkna hur atomkärnorna, som står för större delen av massan, rör sig. Skillnaden mellan metoderna ligger i hur man beräknar kraften mellan kärnorna, och där är första princip-metoderna direkt grundade på kvantfysiken medan modellpotentialerna är det indirekt, genom att de konstrueras för att efterlikna resultatet av första princip-beräkningar (eller experiment). Så det handlar inte riktigt om att jämka ihop kvantfysik och klassisk fysik, utan om två sätt att beskriva krafter i ett system - vilket naturligtvis inte gör pristagarnas insats mindre fantastisk.

Slutligen måste vi också beskriva det som finns runt omkring molekylerna man vill studera. Eftersom det är biomolekyler vill man antagligen ofta studera dem i någon form av vattenlösning, men man är inte speciellt intresserad av hur varje enskild vattenmolekyl beter sig. Därför struntar man i molekylerna och beskriver omgivningarna som en slät, homogen massa. Det är ett ännu mindre krävande när det gäller datorkraft än vad molekylärdynamik är, men går såklart inte att använda om man vill veta hur atomerna rör sig.

En annan intressant sak är att principen bakom Nobelpristagarnas insats, d.v.s. att använda olika beräkningsmetoder för olika delar av ett system, numera också används för att räkna på t.ex. hur sprickor bildas i material. Faktum är att det var det första jag tänkte på när jag hörde talas om vad de fått priset för.


tisdag 20 december 2011

I torsdags var Nobelpristagaren i kemi, Dan Shechtman, i stan och höll ett väldigt trevligt föredrag om sin upptäckt av så kallade kvasikristaller. Själva upptäckten har beskrivits så bra på andra ställen att jag tänkte haka upp mig på en av de saker han pratade om under sitt föredrag, nämligen förutsättningarna för att upptäckten skulle kunna göras. Han berättade att TEM, transmissionselektronmikroskopet, var en förutsättning för att kvasikristallerna skulle kunna upptäckas.

När en fysiker, kemist eller liknande använder ordet kristall  menar hen ett material där atomerna sitter i en ordnad struktur som följer ett visst mönster, till skillnad från amorfa material som glas där de sitter lite huller om buller. En bergskristall är verkligen en kristall eftersom atomerna i den sitter ordnat medan kristallglas inte består av kristall utan är just ett glas. För att studera hur atomerna sitter - vilket mönster kristallen följer - använder man ofta diffraktion.

Diffraktion är samma fenomen som får oljefläckar på vattenpölar att skimra i olika färger. När ljus från solen träffar oljans yta kommer en del av det att reflekteras och en del att transmitteras, alltså fortsätta ner genom oljelagret. När det transmitterade ljuset når vattenytan reflekteras återigen en del, medan resten fortsätter ner i vattenpölen. När det reflekterade ljuset når upp till ytan igen kommer det att samverka med ljuset som reflekterades första gången. Eftersom ljus består av vågor kommer de två reflekterade ljusstrålarna att förstärka eller försvaga varandra. Vilket det blir beror på ljusets våglängd, eller färg, och hur tjockt oljelagret är. Det spelar också roll ur vilken vinkel man ser ytan. Eftersom oljefläcka sällan är jämntjocka över en hel vattenpöl kommer olika färger att förstärkas på olika ställen, och därför ser vi en skimrande färgrik yta.

Men vad har det med kristaller att göra? De välordnade atomerna i en kristall fungerar på samma sätt som gränsen mellan olja och vatten, på så sätt att de reflekterar en del strålning. Eftersom det finns många atomer som sitter fördelade i olika plan kommer strålningen att förstärkas eller försvagas i olika riktningar, vilket ger upphov till ett så kallat diffraktionsmönster. Ur ett diffraktionsmönster kan man sedan med lite beräkningar utläsa kristallens struktur. Eftersom avståndet mellan atomerna i en kristall är mycket mindre än tjockleken på en oljefläck krävs det också ljus med mycket kortare våglängd för att man ska kunna se fenomenet. Därför använder man ofta röntgenstrålning, som har en väldigt kort våglängd.

Nu var det emellertid ett TEM som Dan Shechtman hade använt. Ett TEM är en sorts mikroskop där man använde elektroner istället för ljus. Elektroner och andra elementarpartiklar har också en våglängd som beror på deras hastighet och massa. Elektronernas våglängd är mindre än våglängden hos ljus, vilket gör att man kan använda dem för att avbilda mindre föremål. Shechtman kunde alltså fokusera på en mindre del av sitt material när han använde elektroner än vad han kunnat med röntgenstrålning. (Det finns för all del några nackdelar med att använda elektroner också. Faktum är att TEM och dess kusin SEM, skanningselektronmikroskop, nog förtjänar en helt egen bloggpost framöver.)

Att man kan avbilda mindre saker, och fokusera en stråle av elektroner på en mindre yta än man kan fokusera en ljusstråle, var betydelsefullt i fallet med kvasikristallerna eftersom de var så små. Själva materialet var säkert inte så litet, men bestod av många kristallkorn med olika orientering. Om bredden på strålen man skickar in är större än kornen kan man då inte se deras kristallstruktur ordentligt, och kvasikristallerna var för små för röntgendiffraktion. Man hade inte kunnat se dem tidigare eftersom mätinstrumenten inte var tillräckligt känsliga. Sådant tycker jag är intressant - och lite spännande eftersom våra mätinstrument hela tiden blir känsligare.