lördag 15 oktober 2016

Vad vet vi om vad som händer i ett AI?

Det finns ett problem som dyker upp på bloggen så här års: Vad ska man egentligen skriva om Nobelpriset, förutom "så intressant!"? Jag menar, det är i regel väldigt intressant, men det finns också i regel många andra som inte bara kan mer om upptäckten utan som också faktiskt skriver om den, eftersom det är så uppmärksammat. Därför tänker jag, trots att årets pris är lite extra intressant för mig eftersom det har med fasta tillståndets fysik att göra, blogga om något helt annat. Så eftersom det var Ada Lovelace-dagen i onsdags, vad sägs om en reflektion på temat artificiell intelligens?

Mina grundkunskaper om AI är visserligen över 10 år gamla och härrör från en kurs i filosofi (ja, faktiskt), men även där var man noga med att skilja på "good old-fashioned artificial intelligence" (GOFAI) och nyare metoder som använder modeller av nervsystemet, kallade artificiella neurala nätverk (ANN), och tränar dem till att utföra olika uppgifter. GOFAI bygger på att man programmerar in tämligen specifika instruktioner som låter programmet agera "intelligent": Om X, gör A, annars om Y, gör B, annars gör C. Datorn Deep Blue som slog Gary Kasparov i schack är ett exempel, på så sätt att den var beroende av fördefinierad heuristik - en databas av tumregler för vad som är ett bra schackdrag, definierade av människor när programmet skrevs.

Med ett ANN, å andra sidan, handlar det om att skapa ett system som kan lära sig saker. De neurala nätverk som jag läste om för 10 år sen hade ett antal noder som var kopplade till varandra. Styrkan i kopplingarna kunde justeras beroende på vad systemet skulle lära sig, något som skedde genom att man gav en viss indata tillsammans med "rätt svar" för indatan i fråga. Beroende på hur väl systemets svar och rätt svar stämde överens ändrades styrkan i kopplingarna mellan noderna (har för mig att det handlade om att känna igen siffror i det lilla ANN vi fick göra datorlaborationer på). Vad jag förstår är det mer avancerade och komplexa varianter av ANN som man syftar på när man idag pratar om "deep learning" i datorsammanhang - just att man tränar sitt system att utföra en viss uppgift, men låter det hitta lösningarna själv i stället för att försöka programmera in en lösning på varje tänkbart problem. (Det förklarar varför AlphaGo kan göra drag i go som ingen människa någonsin använt, medan Deep Blue var hänvisad till mänsklig kunskap om vad som är vettigt att göra i schack.)

Men om ett ANN kommer fram till hur den ska lösa ett problem - känna igen en bild, till exempel - genom en sådan träningsprocess, är det säkert att vi förstår hur lösningen ser ut och varför? Tydligen inte, enligt en nyhetsartikel som dök upp i tidskriften Nature för ett tag sen. I artikeln ger forskare inom området exempel på hur fel det kan bli om ett ANN lär in något som plötsligt inte stämmer i vissa situationer, så att det till exempel misstar en sicksacklinje för en sjösjärna på en bild. Artikeln beskriver hur man strävar efter att göra ANN både mer transparenta, så att man ska kunna förstå i efterhand hur nätverket arbetar, och svårare att lura. Dock finns det också de som hävdar att ANN blir komplexa för att världen är komplex, och att en del av det som ett ANN lär sig inte går att uttrycka på ett bra sätt i ord eller formler - att ett ANN kan ha tillägnat sig samma sorts tyst kunskap som människor som är oerhört skickliga på exempelvis ett hantverk men inte kan förklara hur de gör.

Det är intressant att man har börjat försöka göra ANN mer transparenta och förstå hur deras inlärda lösningar ser ut. Det vore också intressant om det kunde lära oss något om hur vi själva lär oss saker, eller om så kallad tyst kunskap. Framför allt tror jag dock att det är viktigt att man tänker på hur de här systemen fungerar när man talar om möjligheter och risker med AI. Förvånansvärt ofta utgår den diskussionen från att vi fortfarande förstår precis hur de maskiner vi bygger arbetar - och riktigt så enkelt är det tydligen inte längre.

tisdag 26 juli 2016

Deal with the feelz: what Trump has in common with the Swedish Green Party

Reality is that which, when you stop believing in it, doesn't go away. 
                                                                        - Philip K. Dick

I've become a bit of a fan of John Oliver and the HBO show Last Week Tonight. I like the jokes (obviously), but also the amount of research that goes into them. Last Week Tonight is comedy, but it appears to be comedy intent on bringing to your attention things you don't normally think or hear about. (Also, this thing about science communication.)

Of course, Oliver also brings up things that are very much on everyone's mind. Like last Sunday, when he talked about the Republican National Convention and how Donald Trump is now one step closer to becoming president of the USA. (Which is terrifying, by the way.) Oliver made a very valid point: There is a surprising amount of talk about feelings from the Trump side. Not just any feelings, either, but feelings about things like immigration and crime rates that are allowed to overshadow any available facts on the matter. In one clip from CNN, a reporter asks Republican Newt Gingrich about crime rates, stating that the rate of violent crime is on a general downwards trend in the US. Gingrich completely dismisses this, saying that people feel that crime has become more prevalent and that as a politician, he's going to go with what people feel.

From a Swedish perspective it would be easy to dismiss this as general American weirdness, but what struck me was that I distinctly remember reading almost exactly those same words before, but in Swedish and on a very different topic. No, it wasn't about immigration. It was some ten years ago, it was by a representative of the Swedish Green Party (arguably the opposite of Republicans politically speaking) and it was about electromagnetic hypersensitivity. I'm unfortunately unable to find the quote at the moment, but the gist was the same as in the interview with Gingrich: Your research and statistics do not matter, because people have strong feelings on this issue.

Based on these two datapoints (which is not at all conclusive, but good enough for a rambling blog post), it seems that feelings overshadowing facts is something that happens across the political spectrum, but on different issues (for example, your Green Party member might scoff at research suggesting that electromagnetic hypersensitivity doesn't exist or homeopathy is bunk, but will cling to the statistics until their knuckles whiten when global warming is brought up). And of course, the other side in the debate will counter with facts, facts, and probably some name-calling, and finally throw up their hands and possibly label their opponents as "fact resistant". It seems to me that we are simultaneously taking the feelings and experiences we agree with too seriously, by treating them as reliable facts, and not taking the feelings we don't like seriously enough, by not acknowledging that feelings don't respond well to fact-based arguments (and that people won't stop feeling the way they do because you tell them they are stupid and horrible). 

To make matters more complicated, the tendency to accept feelings and personal experiences as fact can come from good intentions. You might see the suffering of someone who appears to be hypersensitive to WiFi, or the fear of someone who feels unsafe in their neighbourhood, and you don't want to insult them by suggesting that their feelings are unwarranted. After all, only they know what their feelings and experiences are, right?

Well, yes. But feelings and thoughts are not necessarily accurate representations of reality, and experiences will be interpreted differently depending on your preexisting beliefs. This does not mean that the feeling or experience should be dismissed outright, but that it can be beneficial to regard it from a different perspective. For example, if we accept that the symptoms denoted as electromagnetic hypersensitivity are not caused by electromagnetic radiation, it may be possible to uncover the real cause. If a feeling of insecurity is not caused by an actual increase in crime, there may be another reason.

The point, to the extent that I have one, is that I wish there was a way to talk about all these feelings and experiences in a way that acknowledges people's right to feel what they feel, but still make it possible to discuss the facts and underlying reality.  It's wouldn't stop Trump, of course, but in time it might make it a little more difficult for the local populists to refer to 'how ordinary people think/feel' as if that was the only thing that mattered. Of course, the Green Party might also face increased difficulty in promoting their favourite alt-med diagnoses, but that might be a good thing, too.

onsdag 13 juli 2016

MAX IV och vad vi kan se

För en knapp månad sedan invigdes en forskningsanläggning som kallas MAX IV utanför Lund. I MAX IV accelereras elektroner till mycket höga hastigheter och leds in i en cirkulär bana. På grund av den kontinuerliga accelerationen (för att stanna i den cirkulära banan måste ju riktningen hela tiden ändras) ger elektronerna ifrån sig synkrotronstrålning, elektromagnetisk strålning med ett brett spektrum från radiovågor till röntgenstrålning. MAX IV är den mest intensiva synkrotronstrålningskällan i världen.

Så vad ska den vara bra för?

Ett sätt att förstå vad MAX IV är bra för är att fundera över gränserna för vad vi kan se. Det mänskliga ögat kan i regel urskilja saker ner till bredden på ett hårstrå, runt 20 mikrometer. I ett vanligt ljusmikroskop kan vi få syn på långt mindre saker, men det finns en gräns: För att vi ska kunna urskilja detaljer måste ljuset vi använder ha tillräckligt kort våglängd. Exakt hur kort den måste vara beror på hur bra mikroskopet är och kan beräknas med något som kallas Abbes kriterium, men tumregeln är strax under halva våglängden. Synligt ljus har våglängder mellan 0.4 och 0.7 mikrometer, eller 400 till 700 nanometer. Vi kan alltså som bäst se detaljer på några hundra nanometer.

Men om vi vill se nanopartiklar, som kan vara nere på tiotals nanometer? Eller var de enskilda atomerna i en molekyl sitter? Avstånden mellan atomer i en molekyl är oftast runt ett par Ångström, eller tiondels nanometer, tusen gånger mindre än vad vi kan urskilja med synligt ljus. För att studera sådana saker måste vi hitta något som har kortare våglängd, och det är här den bredspektriga synkrotronstrålningen från anläggningar som MAX IV kommer in i bilden. Man kan filtrera ut strålning med rätt våglängd för att studera ett visst material eller strukturen i ett visst prov. Röntgenstrålning, till exempel, har våglängder mellan 0.1 och 10 nanometer, så den är synnerligen lämplig för att kolla på atomers positioner, medan nanopartiklar kanske kan studeras med UV-ljus.

Så om vi nu vet hur våra molekyler och nanostrukturer ser ut, vad gör vi med den kunskapen? En sak vi kan göra är att börja fundera på hur vi kan ändra på den för att ge den egenskaper som vi vill ha. Molekylerna skulle till exempel kunna vara potentiella läkemedel vars egenskaper man vill förstå bättre.
Så det är något av vad MAX IV är bra för.

tisdag 31 maj 2016

Grafen med extra molekyler leder värme bättre

Härom dagen fick jag syn på ordet grafen i ett lite oväntat sammanhang, nämligen i en cykelaffär. Det görs tydligen cykeldäck med kompositmaterial som innehåller grafen, och som ska ha alla möjliga fantastiska egenskaper. Det har de förmodligen också, men det finns andra framtida tillämpningar av grafen som jag tycker är mycket mer spännande. Till exempel har forskare på MC2 på Chalmers kommit ett steg närmare ett effektivt sätt att använda grafen i elektronik. Inte nödvändigtvis som elektrisk ledare, trots att grafen har utmärkt elektronisk ledningsförmåga, utan som värmeledare. Dessutom är det inte rent grafen, utan grafen bundet till långa organiska molekyler det gäller.

I själva studien, som är publicerad i Nature Communications, får vi veta att problemet forskarna tagit sig an har två delar: Dels sjunker den fantastiska värmeledningsförmågan i grafen till nära en tiondel när man lägger det på ett annat material, ett så kallat substrat, och dels kan kontakten mellan grafenet och substratet bli så dålig att det hindrar värmen från att spridas från punkten där värmen genererars, en elektrisk krets t.ex., till själva grafenskiktet som ska leda bort värmen. För att lösa problemen har man funktionaliserat grafenet, d.v.s. låtit det reagera med molekyler som skapar en stark kemisk bindning till grafenet och i det här fallet hamnar mellan grafenet och substratet. De visar sig förbättra både ledningsförmågan i själva grafenplanet och kontakten med substratet.

Att värmeledningen mellan substratet och grafenet förbättras för att man lägger ett extra lager molekyler emellan kan verka lite märkligt, men har att göra med hur grafenet sitter ihop med substratet respektive molekylerna. Lägger man grafen direkt på substratet så kommer det att sitta fast med en så kallad van der Waals-bindning som är ganska svag. Värmetransporten mellan substrat och grafen sker via kollektiva vibrationer hos atomerna i substratet och grafenet, så kallade fononer, och den svaga bindningen gör att det bara är vissa fononer som kan bidra till värmetransporten mellan substrat och grafen. Molekylerna man funktionaliserat grafenet med skapar istället starka s.k. elektronpar-bindningar till både substratet och grafenet, och kan därför leda fononer i ett bredare intervall av frekvenser från substratet till grafenet. För att värmeöverföringen verkligen ska bli bättre krävs dock att man har ganska många molekyler per ytenhet, åtminstone en per kvadrat-nanometer enligt studien.

Men värmeledningsförmågan i själva grafenet då? Jo, en stor anledning till att den blir så mycket sämre när grafenet ligger på ett substrat är att även om bindningen mellan grafen och substrat är svag, så är den stark nog att påverka just de atomvibrationer, eller fononer, som betyder mest för värmeledningen i grafen. Det handlar om vibrationer där atomerna tillsammans rör sig vinkelrätt mot själva grafenplanet, på ungefär samma sätt som ett trumskinn eller en studsmatta kan svänga upp och ner. När man lägger grafenet på ett substrat hindras de här vibrationerna, och de krockar också med liknande vibrationer i substratet. Med ett lager molekyler emellan kan vibrationerna inte krocka lika lätt, vilket ökar värmetransporten. 

torsdag 12 maj 2016

Cancer, Alzheimers och... gurkmeja?

Jag fick syn på en spännande rubrik från Newsner i mitt Facebook-flöde igår: "Gurkmeja hjälper mot både cancer och Alzheimers". Gurkmeja är en helt vanlig, gul krydda som vi t.ex. hittar i currypulver. Och nu hjälper den mot cancer? Är det inte lite för bra för att vara sant? Faktum är att Newsner-artikeln tar upp hela fem olika positiva effekter av gurkmeja: Minskade inflammationer, minskad cancerrisk, förebyggande av Alzheimers, minskad risk för hjärt-kärlsjukdomar och lindring av reumatism.

Här är tre anledningar till att den här artikeln inte får mig att börja äta gurkmeja matskedsvis:

1. Jag är ingen cellodling, labbråtta eller bananfluga

Newsner-artikeln hänvisar till vetenskapliga studier, ibland väldigt vagt och ibland med länkar. Det är väl bra? Jo, men när det gäller Alzheimers går den enda direkta källhänvisningen inte till en studie av människor som äter mycket gurkmeja, utan till en studie av bananflugor som fått kurkumin, ett ämne man kan utvinna ur gurkmeja. Effekterna på cancer verkar också mest ha påvisats i cellodlingar och djurförsök. Det innebär antagligen att man inte riktigt vet vilken effekt behandlingen skulle ha på en människa. Dessutom verkar djuren som sagt ha fått rent kurkumin, som alltså är en beståndsdel i gurkmeja. Vad är det som säger att kryddan som helhet har exakt samma effekt?

Studier på odlade celler och på djur är viktiga när man utvecklar nya läkemedel, men bara för att ett visst ämne visar sig ha en viss effekt på celler i en petriskål betyder inte det att ett livsmedel som innehåller ämnet får samma effekt i en människa.

2. Skulle det verkligen gälla för mig?

När det gäller antiinflammatoriska effekter verkar man ha studerat människor i större utsträckning, åtminstone enligt den studentuppsats från Uppsala Universitet som Newsner refererar till (fast de verkar tro att det handlar om en vetenskaplig studie). Man märker dock snabbt att uppsatsen i sin tur refererar till studier med ganska få deltagere: tio, tolv eller så många som 62. Det innebär inte nödvändigtvis att de här studierna är dåliga, men ju färre försökspersoner man har desto större risk är det att någon slumpmässig effekt påverkar resultatet - tänk om sju av de tio försökspersonerna var på bättringsvägen ändå, och det får det att se ut som om behandlingen har en viss effekt? Är det bara de här studierna som gäller så är det helt enkelt svårt att veta säkert vad effekten är.

3. Kurkuminet når inte fram

En annan intressant sak i den där studentuppsatsen är påståendet att kurkumin, alltså det ämne i gurkmejan som anses ha effekt, ska ha dålig "oral biotillgänglighet". Det betyder i klartext att även om man sätter i sig stora mängder är det inte säkert att kurkuminet tas upp i kroppen. Den där studentuppsatsen hänvisar till exempel till en artikel där man har studerat just hur kurkumin tas upp och kommit fram till att det till stor del bryts ner i tarmarna. Det innebär att om vi till exempel skulle vilja att en viss dos kurkumin når en cancertumör i äggstockarna så kanske det inte skulle räcka att äta kurkumin, eftersom det mesta av det vi åt inte skulle komma ut i blodet och alltså inte skulle nå tumören. Andra källor har uppskattat att man skulle behöva äta omkring hundra gram gurkmeja per dag för att komma upp i de doser som används i försök på djur och odlade celler. Mycket curry blir det.

Om man utvecklar faktiska läkemedel med kurkumin, vilket man försöker göraså kommer man antagligen också att utveckla metoder för att öka upptaget. Men om man bara äter gurkmeja, så som föreslås här, så finns problement med dålig biotillgänglighet kvar.


Det finns fler saker som får mig att tro att Newsner inte har koll. De är dåliga på att tala om var informationen kommer ifrån, till exempel påstår de att en studie är publicerad i US National Library of Medicine and National Institutes of Health när den i själva verket är publicerad i tidskriften Cancer Letters - National Library of Medicine är bara en databas som samlar artiklar från andra källor. De hänvisar också till en professor i ytkemi som nån sorts expert på medicinska effekter, vilket blir ganska märkligt.

Cancer och Alzheimers är skrämmande sjukdomar, och det är inte så konstigt att vi intresserar oss för saker som skulle kunna förebygga dem. Problemet med artiklar som den här är att den presenterar något som kanske skulle kunna utvecklas till ett läkemedel som om det redan var en mirakelkur, vilket kan ge falska förhoppningar. Det räcker i alla fall inte för att övertyga mig, och jag tänker därför skippa gurkmejan (förutom när jag ska laga curry) till förmån för WHO:s rekommendationer om hur man kan påverka sin cancerrisk: Motion, måttligt med alkohol, ingen tobak, mycket grönsaker och lite rött kött.

Ta hand om er.

söndag 24 april 2016

Grafen: Vad, varför och till vad?

I fredags hade jag nöjet att hålla en så kallad "Skeptisk Kvart" (fast det blev visst en halvtimme) på Vetenskap och Folkbildning Göteborgs Skeptiska Månpub. Temat för föredraget var grafen: Vad är grafen, varför är det så fantastiskt och vad sk vi ha det till? När jag förberedde mig insåg jag att jag inte har skrivit så mycket om grafen här på bloggen, trots att jag jobbat med det i drygt två år. Därför tänkte jag publicera mina (renskrivna) anteckningar till föredraget här.

Om vi börjar med den första frågan, "vad är grafen?", så finns det ett enkelt svar: Grafen är ett enskilt lager grafit. Grafit i sin tur är något vi alla har kommit i kontakt med, det är nämligen den viktigaste beståndsdelen i stiftet till blyertspennor. Grafit består av kolatomer som sitter ordnade i lager. Inom lagren är de kemiska bindningarna mellan atomerna starka, så de sitter ihop bra, men mellan lagren är bindningarna mycket svagare och lagren glider lätt i förhållande till varandra. Det är det som händer när vi skriver med en blyertspenna, klumpar med flera lager grafit lossnar från stiftet och fastnar på pappret.

Den svaga bindningen mellan lagren i grafit var något som André Geim och Konstantin Novoselov i Manchester utnyttjade när de för första gången framställde grafen i början av 2000-talet. De experimenterade med en bit grafit och vanlig tejp, och när de satte tejp på grafiten kunde de enkelt lyfta av några lager. Efter att ha upprepat proceduren några gånger och kontrollerat resultatet i elektronmikroskop kunde de konstatera att de lyckats framställa ett enstaka lager grafit, alltså grafen. (För den som vill veta mer om den historen rekommenderas Manchesters universitets hemsida.)

Så Geim och Novoselov kom på hur man skulle framställa grafen. Men vad är det som är så fantastiskt med grafen som material? Ganska mycket skulle det visa sig - grafen är ett material som man behöver många superlativ för att beskriva. Eftersom det bara är en enda atom tjockt så är det det tunnaste material som finns, vilket också gör det till det lättaste (1000 gånger lättare än papper per kvadratmeter) och genomskinligt. Dessutom är det ca 200 gånger starkare än stål, böjligt och leder både elektricitet och värme bra.

Hur kan grafen ha så många spännande egenskaper? Lättheten och transparensen är som sagt knutna till att det är så tunt, men för att förstå de andra egenskaperna behöver vi titta på hur elektronerna i grafen beter sig. Grafen består av kolatomer, och varje kolatom består av en positivt laddad kärna omgiven av sex negativt laddade elektroner. Två av de elektronerna befinner sig oftast nära kärnan och påverkar därför inte omgivningen så mycket, men de övriga fyra avgör hur atomen sitter ihop med sina grannar. Varje kolatom i grafen har tre grannar, och de sitter ihop med något som kallas elektronparbindning eller kovalent bindning. Det innebär att en elektron från varje atom hamnar i ett tillstånd som gör att de oftast befinner sig mitt emellan atomkärnorna. Då elektronerna är negativt laddade och kärnorna positiva skapar det en stark bindning mellan atomerna.

Eftersom varje grafenatom har tre grannar så går tre av de fyra elektronerna åt till såna elektronparbindningar, och det är de som gör att grafenet blir så starkt - eftersom bindningarna är så starka krävs det mycket energi för att dra isär dem. De bidrar också till att grafen leder värme så bra. Värmetransport i grafen sker genom att atomerna vibrerar, och de styva bindningarna i planet gör att vibrationerna kan fortplanta sig snabbt.

Men den fjärde elektronen då? Den kommer inte att sitta mellan atomerna i grafenplanet, utan oftast befinna sig antingen ovanför eller nedanför planet. Den fjärde elektronen är mer "lös och ledig" än de andra och den kommer därför att börja rör på sig i ett elektriskt fält -- den bidrar alltså till grafenets stora förmåga att leda elektrisk ström. Det hjälper också att grafenets struktur innebär att elektronen kan komma upp i väldigt hög hastighet.

Så vad ska vi ha grafen till? Frågar man oss som forskar på grafen blir svaret "Allt!". Det är lätt att få intrycket att grafen ska lösa alla världens problem, men det finns några områden där det kan bli extra viktigt. Ett sådant är flexibel elektronik. Eftersom grafen är lätt, elektriskt ledande och böjligt skulle det kunna ersätta tyngre, stelare material och ge oss batterier och annan elektronik som går att böja, vika eller kanske sy in i kläder.

Något man är speciellt intresserad av att använda grafen till är böjliga pekskärmar. Pekskärmar ställer faktiskt rätt höga krav på de material som ingår, och speciellt materialet på ytan. Det måste vara genomskinligt, vi ska ju kunna se vad som står på skärmen, men det måste också fungera som en sensor och känna av hur vi rör fingrarna på skärmen. Det innebär att materialet måste leda elektrisk ström. Det finns bara ett fåtal material som klarar båda kraven, och de har ofta andra problem. Det som oftast används idag, indium-tenn-oxid, är till exempel väldigt skört och skulle absolut inte fungera i en böjlig skärm. Här skulle grafen vara ett väldigt spännande alternativ - så spännande att företag som Samsung redan är på gång med prototyper. 

torsdag 14 april 2016

Kortfattat: Spela för vetenskapen

Det brukar påstås att man inte lär sig förstå kvantfysik, man vänjer sig vid den. Därför kan det låta lite märkligt att någon försöker använda sig av vanliga människors intuition för att lösa kvantfysikaliska problem. Ändå är det precis det ett antal forskare på Århus Universitet har gjort. I en artikel i tidskriften Nature beskriver de hur utvecklat ett spel kallat QuantumMoves där användaren med hjälp av olika strategier ska flytta en atom mellan olika positioner. Kruxet är att atomen inte är en liten rund kula som i kemin på högstadiet, utan en kvantpartikel som kan hamna i olika energitillstånd beroende på t.ex. hur fort man flyttar den. Atomens energitillstånd illustreras med hjälp av kvadraten på dess vågfunktion, som beskriver sannolikheten för att man ska hitta atomen på en viss position och i ett visst tillstånd. I spelet ser den här vågfunktionen väldigt mycket ut som en vätska som skvalpar omkring. Målet är att flytta atomen och samtidigt få den att hålla sig kvar i ungefär samma tillstånd, d.v.s. vätskan ska skvalpa så lite som möjligt.

Att få folk att hjälpa till med vetenskapliga problem genom att göra spel av dem är inte ett helt nytt koncept, det har t.ex. tidigare använts för att få fram proteinstrukturer, men detta verkar vara första gången man försökt använda det för kvantfysik. Enligt artikelförfattarna var det också tämligen framgångsrikt, på så sätt att spelarna hittade effektiva metoder att flytta atomerna. I slutändan är meningen att den här informationen ska kunna användas för att konstruera en kvantdator.

tisdag 22 mars 2016

Open access: Varför inte, egentligen?

Tillgången till forskningsresultat är uppe till diskussion igen, åtminstone i USA där New York Times skriver om en ung forskare från Kazakstan som blivit stämd av förlaget Elsevier efter att ha gjort stora mängder vetenskapliga artiklar tillgängliga för vem som helst via nätet. Förlaget anser naturligtvis att detta är helt fel, och att det höga priset på deras prenumerationer är väl motiverat. Det är dock många som inte håller med dem, inklusive personer som inte anser att forskaren från Kazakstan agerat rätt. Varför?

Vetenskapliga artiklar skiljer sig från annat publicerat material på ett antal sätt. En sak som är viktig i det här sammanhanget är hur de produceras. Forskare får inte betalt för att publicera sina artiklar i en viss tidskrift, snarare kan man få betala en avgift om man t.ex. vill ha färgfigurer i en artikel. De andra forskare som kvalitetsgranskar artikeln innan publicering, s.k. peer review, får inte betalt för det. Påfallande ofta är också tidskriftens redaktörer forskare som inte får betalt för att vara redaktörer. Däremot måste samtliga - författare, granskare, och alla andra intresserade - betala en rejäl summa till förlaget om de vill ha tillgång till artikeln efter publicering. Enstaka artiklar kan kosta runt 30 dollar, eller 250 kr. Det är lätt att tycka att det låter lite väl mycket, särskilt med tanke på att hantering och publicering av manuskript mestadels sker elektroniskt.

Å andra sidan, vad är alternativet? Forskare måste ju kommunicera sina resultat på något sätt, helst i tidskrifter med gott rykte och hög impact factor. Det alternativ som ofta framhålls är open access, tidskrifter som gör sitt innehåll tillgängligt för alla utan kostnad. Sådana tidskrifter kan vara ett steg i rätt riktning, men de har också problem. Exempelvis tar de ofta ut en ganska hög avgift av artikelförfattaren för att bekosta publiceringen, vilket kan göra det svårt för mindre universitet eller underfinansierade forskare att publicera i dem. De har också fört med sig en svans av skräptidskrifter som helt enkelt tar betalt för att publicera en artikel utan kvalitetsgranskning (så kallad predatory open access publishing). Dessutom har även seriösa open access-tidskrifter ofta låg impact factor, åtminstone än så länge.

I slutändan hoppas jag att man kan lösa problemen med open access och att det blir den vanligaste formen av publicering i framtiden (en förhoppning som verkar delas av Vetenskapsrådet, som kräver att de som får anslag från dem ska publicera sina resultat med open access). Friare tillgång till forskningsresultat gör det lättare att forska, eftersom man inte begränsas på samma sätt av vad ens universitetsbibliotek har råd att prenumerera på.

En annan stor fördel med open access skulle vara att göra forskningsresultat tillgängliga för allmänheten på ett helt annat sätt än idag. Säg till exempel att din lokala dagstidning trumpetar ut att en vetenskaplig studie visar att kaffe botar cancer. Du blir lite fundersam och vill kolla upp vad som står i den vetenskapliga artikeln där studien presenteras, men du hittar bara sammanfattningen på nätet. Sammanfattningen eller abstract är väl i och för sig bra, men kan vara missledande (min personliga erfarenhet är att ju sämre studie, desto mer missvisande abstract). Själva artikeln kostar flera hundra spänn.
Visst vore det bra med mer open access?

söndag 28 februari 2016

Stora ord och luriga akademiker

Känner ni till Alan Sokal? Han är en amerikansk professor i fysik som är mest känd för en artikel han publicerade i en tidskrift om postmoderna kulturstudier. Inte för att artikeln rapporterade något stort genombrott eller framsteg, utan för att den var en bluff. Sokals artikel, Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity, var konstruerad kring de "löjligaste citat [från postmodernistiska akademiker] han kunde hitta om matematik och fysik" och skickades till tidskriften för att testa om de skulle publicera en artikel som lät bra trots att det var rent nonsens. Det gick alldeles utmärkt, skulle det visa sig. Samma dag som artikeln skulle publiceras avslöjade Sokal bluffen, vilket startade en debatt både om relationen mellan humaniora och naturvetenskap, postmodernism och det etiska i att försöka få en sådan bluffartikel publicerad.

Nu verkar det ha hänt igen, fast i mindre skala. Den här gången är det inte en naturvetare som ger sig på humanioran, utan en samhällsvetare som lurar andra samhällsvetare. Peter Dreier skriver i American Prospect att han för sex år sen skickade ett nonsens-bidrag till en diskussionspanel med titeln The Absence of Absences (frånvaron av frånvaro?) som utgjorde en del av en större konferens. Hans bidrag var inte en hel artikel utan ett abstract, alltså en kort text som fungerar som sammanfattning av det arbete man tänker presentera. Han skriver i American Prospect att han försökte formulera sitt abstract så att det skulle innehålla så många stora ord som möjligt (samt ett fabricerat Heidegger-citat) men inte egentligen betyda eller säga något. Hans bidrag blev accepterat och han blev inbjuden att presentera på konferensen, men han valde att inte åka dit.

Så vad var poängen med detta? Dreier skriver att hans mål var att visa hur pompös och specialiserat ordförrådet i akademiska texter är. Han hävdar att även om olika forskningsfält utvecklar olika termer, jargonger och sätt att skriva så borde de flesta forskare i samhällsvetenskap kunna förstå åtminstone huvuddragen i varandras arbete om det presenteras för att vara lättfattligt snarare än med onödigt stora ord. Han verkar också anse att mer lättfattliga artiklar skulle innebära att resultaten av arbetet lättare kommer till nytta i det övriga samhället.

Det är intressant att se vilka likheter som finns mellan Sokals kritik av postmodernismens jargong på 90-talet och det Dreier skriver om specialisering, men skillnaderna är också viktiga. Sokal var naturvetare, och en del av hans kritik gick ut på att man inom humaniora kritiserade och diskuterade naturvetenskap utan att på djupet förstå den (tidskriftens redaktörer bad t.ex. inte någon fysiker att granska artikeln trots att den delvis handlade om fysik). Dreiers har mer av ett inifrånperspektiv och pekar på vad han ser som negativa konsekvenser för samhällsvetenskapen om man fortsätter kommunicera sina resultat på det sätt som sker nu.

Själv kommer jag att tänka på hur svårt det ibland kan vara att läsa artiklar från en annan gren av fysiken än den man själv är aktiv inom. De flesta artiklar i vetenskapliga tidskrifter förutsätter gedigna förkunskaper, och även om man egentligen använder samma matematiska verktyg kan det vara svårt att ta till sig resultat från helt andra fält. Till skillnad från vad Dreier skriver om samhällsvetenskaperna så tror jag dock inte att situationen inom fysiken beror på att man utvecklar en jargong eller tar till stora ord för att få sitt arbete att verka viktigt. Snarare är det så att vissa forskningsfält glider längre och längre ifrån varandra ju fler framsteg som görs.

Å andra sidan finns det naturligtvis sätt att göra även komplicerade saker konkreta och lättfattliga. Jag läste nyligen en studie om hur styrkan hos grafen påverkas av långsträckta defekter, så kallade korngränser. Artikeln var fullproppad av formler och experimentell data, men avslutades med ett mycket konkret resonemang: Författarna förklarade att om man har en tillräckligt stor bit rent grafen, utan defekter, så kan det bära upp en fotboll utan att gå sönder trots att materialet bara är en enda atom tjockt. Har man däremot grafen med defekter får man nöja sig med att lägga dit en pingisboll.
Konkret och lättfattligt. I like.

söndag 7 februari 2016

Stormen kring KI och vikten av långsamhet

Det stormar kring Karolinska Institutet och kirurgen Paolo Macchiarini på grund av den senares försök med att operera in luftstrupar av plast i människor. Jag får erkänna att jag inte följt händelserna så noga tidigare, men under veckan som gick har jag sett Experimenten, Bosse Lindquists dokumentär i tre avsnitt om Macchiarinis verksamhet, på SVT Play.

Dokumentären ger en ofta hårresande inblick i hur man opererat in luftstrupar av plast, doppade i stamceller, i människor utan att ens ha testat metoden på djur i förväg. I dokumentären får vi se hur patienter efter de här operationerna fått allt svårare att andas och haft svåra smärtor, och att senare undersökningar visar att stamcellerna inte alls vuxit fast på plaststruparna och bildat en ny, normal luftstrupe, så som var meningen. I stället verkar de skada omkringliggande vävnad och ge upphov till infektioner.

Det har ju som sagt skrivits mycket om de här händelserna, om Karolinskas utredning av dem och om huruvida det handlar om forskningsfusk eller inte. Jag tänkte skriva om en annan sak som jag kom att tänka på när jag såg dokumentären, nämligen vikten av att skynda långsamt. Jag har varken läst biologi eller medicin, men jag har läst kurser i materialvetenskap som delvis handlade om biofysik och implantat. Där fick jag veta att biokompatibilitet, alltså att ett material går väl ihop med biologisk vävnad, inte är så lätt att åstadkomma, framför allt inte om vi vill att celler ska växa och trivas på materialets yta. Vad jag minns var proceduren med implantatmaterial av olika slag att man helst skulle få celler att växa på dem in vitro, alltså i en näringslösning i ett labb, innan man gjorde något annat. Sedan djurförsök på exempelvis råttor, grisar eller primater, och sen, om allt gick väl, studier på människa. Eftersom man i regel vill publicera en artikel för varje framsteg skulle resultaten i varje steg också vara tillgängliga för granskning och kritik från andra forskare.

När man ser dokumentären Experimenten får man känslan av att här är det nästan tvärt om: Man får en patient som har cancer i strupen och svårt att andas, och då är det bråttom, bråttom att sätta in en plaststrupe. Sen arbetar man vidare med fler patienter i ett rasande tempo, får tillstånd att testa på friskare patienter i Ryssland, kämpar mot klockan för att få fram rätt sorts implantat till studien. Först verkar operationerna lyckas, men så får patienterna andningsproblem, en av struparna behöver bytas ut, patienter börjar avlida.
Och efter detta börjar man tala om att testa på djur.

Försöken med plastluftstruparna har bedrivits av en forskare anställd på ett institut med gott rykte inom forskarvärlden, men när man ser dokumentären får man intrycket att det handlar om dålig forskning. Det är lätt att förstå att man blir otålig när man tror att man har lösningen på ett akut problem men hindras från att tillämpa den, men som forskare måste man komma ihåg är att bara för att man tror att man har en lösning så är det inte säkert att man har det. Oförutsedda problem kan dyka upp, saker kanske inte funkar som man tror, det man trodde var en lösning visar sig göra saker värre istället. Därför är det nödvändingt att man så långt som möjligt testar sina metoder i sammanhang där ingen människa kan komma till skada. Vetenskap är på många sätt en långsam process, där varje slutsats noga ska motiveras och granskas av ens kolleger och konkurrenter, och den långsamheten gör fel kan upptäckas i tid. Det är när forskningen får ta den tid som behövs som vi kan lita på det slutgiltiga resultatet.