söndag 8 oktober 2023

Varifrån kommer energin i Air-gen?

Så här tycker Craiyon att "generating electricity from water vapor" ser ut
Så här tycker craiyon.com att
"generating electricity from water vapor"
ser ut.

 Tidigare i år kunde man läsa i Ny Teknik att forskare vid University of Massachusetts Amhurst hittat ett sätt att utvinna elektricitet ur tomma luften, en effekt de döpt till Air-gen. (Deras studie finns publicerad i tidskriften Advanced Materials, bakom betalvägg). Det sker med hjälp av en tunn film eller ett tunt skikt full av små, små hål - bara 100 nm i diameter. När skiktet placeras så att ena sidan är i kontakt med den omgivande luften och andra sidan är inkapslad bildas en skillnad i elektrisk potential mellan de två sidorna. Den skillnaden kan användas för att generera elektrisk ström. Resultaten är en vidareutveckling av forskargruppens tidigare arbete med tunna skikt av proteintrådar, men med skillnaden att de nu kommit på att man kan använda praktiskt taget vilket material som helst så länge hålen är av rätt storlek.

Energi ur tomma luften kan lätt låta för bra för att vara sant, men de här resultaten har genomgått peer review och publicerats i en vetenskaplig tidskrift. Så hur funkar detta egentligen? Och var kommer energin ifrån?

Det första man får tänka på här är att tomma luften, om man ska vara petnoga, inte är särskilt tom. Air-gen-effekten är beroende av luftfuktigheten, alltså den vattenånga som är en beståndsdel i vanlig luft. Redan i den första artikeln, den med proteintrådarna, såg man att den sida av det tunna skiktet som är i kontakt med luften tar upp ganska mycket vattenånga, men att mängden vatten avtar när man närmar sig den andra sidan av skiktet. Genom olika experiment kunde forskarna visa att det inte bara handlade om korrelation utan om ett orsakssamband, och att skiktets yttre yta får en svag elektrisk laddning. På något sätt ger alltså vattenångan skiktets yta en elektrisk laddning. Men hur?

En vanlig vattenmolekyl med två väte och ett syre, H2O, är totalt sett elektriskt neutral. Om den bara landar på det tunna skiktets yta och stannar där kan den alltså inte tillföra någon laddning. Emellertid består inte vattenångan i luften, eller för den delen vatten i någon annan form, bara av vanliga vattenmolekyler. Den innehåller också OH--joner* och H3O+-joner, det vill säga dels joner med ett syre, ett väte och negativ laddning, dels joner med tre väte, ett syre, och positiv laddning. De här jonerna kan till exempel uppstå när två vanliga vattenmolekyler kolliderar och en vätejon, H+, spontant hoppar över från den ena till den andra. 

Om vi har vanliga vattenmolekyler, OH--joner och H3O+-joner i vattenånga och de kolliderar med det tunna skiktet lite slumpmässigt skulle det fortfarande inte hjälpa, eftersom vi då skulle få ungefär lika många positiva som negativa joner på ytan. Om det däremot var så att den ena sortens joner - säg de negativa - fastnade mer på ytan än de positiva skulle de negativa jonerna kunna samlas på ytan, medan de positiva släpper från ytan igen och far iväg. Forskarna bakom Air-gen refererar till en tidigare vetenskaplig artikel som beskriver just den typen av fenomen. Den tidigare artikeln beskriver också hur vanliga, elektriskt neutrala vattenmolekyler som landar på vissa typer av ytor spontant delar upp sig i positiva och negativa joner, samt hur olika egenskaper hos själva ytan leder till att positiva eller negativa joner stannar kvar på ytan eller far iväg.

Så det verkar som att det går att ge en yta elektrisk laddning bara med hjälp av vattenånga. Men vad är poängen med de små hålen? Enligt artikeln är de stora nog att släppa igenom vatten till den inkapslade sidan av skiktet, men små nog att vattenmolekylerna kommer att krocka med väggarna på vägen och därmed ha möjlighet att fastna på ytan och bidra till laddningen.

Här nånstans kan det vara på sin plats att nämna att flera mer populärvetenskapliga beskrivningar av Air-gen (t.ex. den här) är lite otydliga med om Air-gen faktiskt använder vattenånga, alltså enskilda vattenmolekyler eller små kluster av vattenmolekyler, eller om det handlar om vattendroppar som oftast är mycket större. Det verkar också som om forskarna själva jämför Air-gen med hur statisk elektricitet byggs upp i åskmoln genom krockar mellan vattendroppar, hagelkorn och iskristaller. Såvitt jag kunnat se i artiklarna är det framför allt vattenånga som ger själva Air-gen-effekten.

Men åter igen - var kommer själva energin ifrån? Det mesta verkar komma från vattenmolekylernas rörelseenergi, det är ju de som behöver krocka för att bilda joner, krocka med ytan, etc., för att inte tala om att vattenmolekylerna behöver vara närvarande i form av vattenånga istället för flytande vatten eller is. Rörelseenergin hos atomer och molekyler kallas också termisk energi, eftersom vi uppfattar den som värme (atomer och molekyler i varm luft har mer rörelseenergi än i kall luft, t.ex.). Den största källan till termisk energi för jordens atmosfär är, som man kanske kan gissa, solen. Air-gen verkar alltså leverera energi från solen, fast på omvägar.




*Joner är atomer eller molekyler som antingen fått eller blivit av med en eller flera elektroner, vilket gör att de blir elektriskt laddade.

söndag 9 juli 2023

Hur testar vi ChatGPTs gränser?

Är ChatGPT en stokastisk papegoja? Bild från craiyon.com.


För nästan 20 år sen läste jag en filosofikurs som hette "Modeller för Mänskligt Tänkande". Den handlade om olika sätt att förstå människans medvetande och kognition och innehöll delkurser i både neurala nätverk och mer konventionella försök till artificiell intelligens som schackdatorn Deep Blue. Under en av delkurserna fick vi läsa om ELIZA, ett program som simulerar en konversation med en psykoterapeut. Det sker med hjälp av generella frågor och meningar där en del ord plockas ur användarens tidigare input. ELIZA innehåller inget neuralt nätverk utan är ett traditionellt datorprogram där du kan utläsa ur koden hur den kommer att svara, men tydligen tillskrevs den ändå både tankar och känslor av de första som fick testa den på 60-talet. 

Något senare under mina studier snubblade jag över en version av ELIZA som ingick i programmet Emacs. Jag och några andra studenter roade oss med att utforska programmets begränsningar och försökte få den att skriva rent nonsens. Det visade sig vara väldigt lätt, faktum är att ska ELIZA framstå som vettig över huvud taget måste man vara noga med att hålla sig inom ramarna för vad samtalet "ska" handla om. (Om nån vill testa finns det onlineversioner, t.ex. här. Eller så kan man ladda ner Emacs.) 

De senaste månadernas diskussioner runt ChatGPT har fått mig att tänka på ELIZA, mestadels på grund av allt snack om vad den "vet" och "förstår", och hur den anses vara steg på vägen till generell artificiell intelligens som överträffar människor. Exemplet ELIZA antyder att vi inte nödvändigtvis kan lita på våra egna intuitiva bedömningar av en chatbot, vare sig den är byggt på konventionell kod eller på neurala nätverk. Vi verkar ha en inneboende tendens att tillskriva maskiner och andra föremål mänskliga egenskaper, och den tendensen kan sätta krokben för oss.

En annan anledning till att jag funderat över ELIZA är en rakt motsatt tendens hos om inte alla så åtminstone många människor, den att man vill ta reda på hur saker funkar, hitta gränserna, och "knäcka koden" som jag och de andra studenterna gjorde med ELIZA. På vilka sätt har vi egentligen testat ChatGPTs gränser under månaderna sen den blev tillgänglig online - och finns det gränser vi borde testa mer?

ChatGPT och säkerhet

De begränsningar som utforskats absolut mest - åtminstone avsiktligt - är antagligen de mekanismer som ska hindra ChatGPT från att uttrycka sig i kontroversiella frågor, leverera problematiskt innehåll (rasism, sexism etc.) eller hjälpa användarna att begå brott. I början verkar det ha varit ganska lätt att ta sig runt de här begränsningarna bara genom att ställa frågan annorlunda - vill ChatGPT inte tipsa om sajter där du kan ladda ner piratkopierade filmer kan du be den lista vilka sidor du ska undvika om du inte vill komma i kontakt med några läskiga torrents. Mer avancerade varianter ger ChatGPT en karaktär att spela, företrädelsevis då en karaktär som inte bryr sig om regler och kan säga lite vad som helst. Liknande knep ska tydligen vara användbara för att generera propaganda.

När jag läste på om ChatGPT inför mina inlägg om ifall den kan skriva patent (finns här och här) fick jag det bestämda intrycket att språkmodellen som är kärnan i ChatGPT inte har några såna här begränsningar i sig. Den är helt enkelt tränad med enorma mängder text till att kunna förutsäga sannolikheten för att ett visst ord är nästa ord i en given mening. Spärrar som hindrar ChatGPT från att tipsa om piratsajter etc. borde då rimligtvis vara inprogrammerade som nån sorts kontroll antingen av ord som förekommer i frågan eller ord som dyker upp i svaret. Det är också tydligt att OpenAI ändrar på de här spärrarna i takt med att folk hittar mer och mer kreativa sätt att ta sig runt dem - att få ChatGPT att spela rollen som någon som inte bryr sig om regler verkar till exempel ha blivit betydligt svårare med tiden. Med hänsyn taget inte bara till utvecklingen inom AI utan också till den mänskliga naturen skulle jag gissa att det här kommer att bli en sorts evig kapplöpning liknande den mellan de som skriver virus och de som utvecklar antivirusprogram.

ChatGPT och fakta

En annan av ChatGPTs begränsningar som testats ordentligt men kanske inte lika avsiktligt är hur pass (o)tillförlitlig den är när det gäller fakta. Den kan svara på vilken som är världens längsta flod och skriva kod som är åtminstone nästan korrekt - men den kan också skriva om icke-existerande rättsfall (och om icke-existerande rättspraxis för patent, som jag nämnt i ett tidigare inlägg).

Rent praktiskt innebär det innebär att du inte kan lita på ChatGPT. Om du faktiskt vill ha svar på en ren faktafråga är det därför fortfarande enklare att använda en vanlig sökmotor (eller Wikipedia) - du kommer ju ändå att behöva verifiera ChatGPTs svar innan du använder det. Med sökmotorn och Wikipedia har du också en chans att ta reda på varifrån informationen kommer, vilket gör det lättare att avgöra om du ska lita på den eller inte.

Diskussioner om ChatGPTs tillförlitlighet slutar ofta i svepande formuleringar om att problemet naturligtvis kommer att lösas i kommande generationer av GPT (t.ex. utgår man från det i den här artikeln). Det är mer ont om förklaringar på hur det ska gå till. Att räkna ut sannolikheten för att något visst ord är nästa ord i texten är ju kärnan i GPT, och det är möjligt på grund av stora mängder träningsdata. Blir man tvungen att bara använda träningsdata med korrekt information för att lösa tillförlitlighetsproblemet från grunden, eller kan man implementera en kontrollfunktion som bara accepterar genererad text om den är korrekt? Och hur hanterar man i så fall frågor där svaren är genuint osäkra eller kontroversiella? Jag tror säkert att kommande varianter av GPT kommer att vara bättre på många sätt, men jag är inte övertygad om att de kommer att lösa tillförlitlighetsproblemet.

Sen kan man också fråga sig om det verkligen är rimligt att använda ChatGPT som en sorts super-Google. Det är visserligen rätt spännande att den kan tyckas "veta" vilken som är världens längsta flod eller var du ska placera parenteserna i din programkod bara för att rätt svar dök upp som ett av de mest sannolika alternativen när den letade efter nästa ord, men ChatGPT är optimerad för att generera text som verkar rimlig, inte text som är sanningsenlig. Jag tror det är bättre att inte förvänta sig korrekt fakta av ChatGPT, och det är jag tydligen inte ensam om

ChatGPT och... sunt förnuft?

När jag testade att använda ChatGPT för att skriva patent-text om en påhittad uppfinning uppstod det en del missförstånd som knappast hade inträffat med en människa. De hade framför allt att göra med praktiska grejer som människor begriper för att de har erfarenheter av hur världen funkar. Det är en begränsning hos ChatGPT som jag inte har sett särskilt mycket diskussioner om, men jag hittade faktiskt en artikel som har fler exempel på frågor ChatGPT har svårt med. Till exempel, om man ska tända en grill, ska man fläkta kolen med ett papper eller en sten? Kan man använda ett hamburgerbröd för att hålla sitt hår på plats? Artikelförfattaren blev inte så imponerad av ChatGPTs svar, framför allt inte när den faktiskt skrev att man kunde använda ett hamburgerbröd som hårnät.

Jag testade att ställa frågorna från artiken till ChatGPT tillsammans med några egna frågor, t.ex. om en smörkniv eller en yxa är bäst för att dela en vattenmelon. Svaren varierade, i vissa fall svarade den som i artikeln och i andra gav den ett annat svar. Vad som också var intressant var att när jag bad den generera ett nytt svar på samma fråga ändrade den sig påfallande ofta - både när det gällde smörkniven och yxan och om hamburgerbröd som hårnät. Det är ett tecken på att ChatGPT inte har nån intern modell av hur världen funkar, som vi människor har. 

Baserat på vad vi vet om hur den faktiskt funkar är detta inte så konstigt, men med tanke på hur diskussionen kring AI låter just nu och vår allmänna tendens att se mänskliga tankar och avsikter lite varstans (som i fallet ELIZA) kan det vara bra att komma ihåg hur fel ChatGPT kan ha. ChatGPT gör nämligen misstag som är svåra att få att gå ihop med att den skulle uppvisa tecken på generell artificiell intelligens, men de är lätta att förstå om man ser ChatGPT som en stokastisk papegoja.

Stokastiska papegojor och vilka risker vi prioriterar

Begreppet "stokastisk papegoja" introducerades av AI-experterna Emily M. Bender och Timnit Gebru i en omdiskuterad artikel från 2021 för att beskriva språkmodeller som GPT. "Stokastisk" är ett annat ord för slumpmässig och syftar på att det finns ett inslag av slump i vilket ord modellen väljer ut för att fortsätta en mening, medan "papegoja" kommer sig av att den upprepar saker som finns i träningsdata men inte direkt kan komma på något själv. Artikeln tar upp olika risker med de här stokastiska papegojorna, från miljöpåverkan som uppstår när energi används till att träna dem till deras tendenser att reproducera existerande fördomar eller människors benägenhet att sätta för stor tilltro till modellernas resultat. 

Benders och Gebrus artikel är fortfarande relevant, men i diskussionerna som uppstått runt ChatGPT verkar det vara få som alls reflekterar över att GPT-3 och GPT-4 sannolikt fortfarande bara är stokastiska papegojor snarare än självständiga tänkare. Det leder till dramatiska rubriker om existensiella risker och artiklar, som den här från The Guardian, där man frågar fem experter om hur AI kommer att förgöra världen och bara en pratar om risker som finns nu, i dag, med den AI-teknik vi faktiskt har. Jag tror det är riskabelt att fokusera så mycket på vad som skulle kunna hända om AI blir smartare än människor, framför allt när det stjäl uppmärksamheten från mer omedelbara problem. Därför tror jag det är bra att påminna sig om, och testa, ChatGPTs gränser. 

söndag 18 juni 2023

Att skriva patent med ChatGPT - patentkrav och text


Min "uppfinning" enligt bild-generatorn på craiyon.com.


I mitt första inlägg om patent och ChatGPT undersökte jag hur användbart ChatGPT är för att hitta känd teknik, avgöra om ens uppfinning är ny, och leta fram relevant rättspraxis. Resultatet var rätt tveksamt och slutsatsen blev att medan ChatGPT kan hjälpa dig på traven med vissa saker så kan du inte lita på vad den säger om t.ex. relevanta patent och din uppfinnings patenterbarhet.

Men det testet var kanske lite orättvist? Även om många verkar vilja använda ChatGPT som en sorts super-Google så är den egentligen utvecklad för att hantera språk, inte för att hantera fakta. Alltså borde vi väl egentligen ge den en mer språkrelaterad uppgift - som att skriva ett patentkrav.

För att kunna be ChatGPT skriva ett patentkrav behöver vi tala om för den vad uppfinningen är, d.v.s. ge den en uppfinningsbeskrivning. Jag har testat några olika varianter, t.ex. den här:

I have invented a new type of hydroponic planter. It has a big container for water and nutrients, with a lid that has two holes in it. The holes are where you put the growth substrate and seeds, so when the plants grow the roots can reach the water in the container while the stem and leaves are on the upper side of the lid. The new thing compared to other planters is that this planter also has a plastic sheet that can be placed in the container as a divider between the two holes in the lid. With the divider in place, different water levels can be maintained for the two plants, which is good if they are at different stages of growth or if one has shorter roots than the other. The plastic sheet has a rubber strip around the edges. Can you write a patent claim describing my invention?

Jag skulle säga att det här är en rätt rimlig uppfinningsbeskrivning - den talar om vad uppfinningen är och vad den har för olika delar, vad uppfinnaren tror är nytt med uppfinningen, och vad fördelarna är (det är alltså en odlingslösning som de som beskrivs här, fast med en löstagbar skiljevägg). ChatGPT genererade följande krav:

1. A hydroponic planter comprising:
a. a container adapted to hold water and nutrients;
b. a lid attachable to the container, the lid having two holes configured to receive a growth substrate and seeds, respectively, such that the roots of the plants extend into the container while the stem and leaves grow above the lid;
c. a plastic sheet removably positionable within the container, the plastic sheet comprising a divider having a length corresponding to the distance between the two holes in the lid, the divider forming two separate compartments within the container;
d. a rubber strip surrounding the edges of the plastic sheet, providing a watertight seal between the plastic sheet and the container, wherein the rubber strip prevents water from one compartment from mixing with water in the other compartment; and
e. means for adjusting the water level independently in each compartment, enabling different water levels to be maintained for the plants in each compartment.

Ytligt sett verkar detta rätt rimligt - det har formen av ett patentkrav, innehåller alla delar jag hade med i min beskrivning, och använder ordet "comprising" så ofta det bara går. ChatGPT har till och med lagt till att syftet med gummilisten är att göra skiljeväggen vattentät, vilket jag inte skrev nåt om i min beskrivning.

Emellertid finns det ett stort problem - en hydroponisk odlingskruka enligt ChatGPTs krav kan aldrig uppnå effekten jag nämner i min beskrivning. För det första har den ett hål för växtsubstrat och ett för fröer (notera ordet "respectively" i punkt b) när det i själva verket handlar om att man placerar fröet i odlingssubstratet och sen passar in odlingssubstratet i hålet. För det andra har ChatGPT valt att placera skiljeväggen så att den börjar vid det första hålet och slutar vid det andra, medan en människa sannolikt hade insett att om vi ska ha olika vattennivåer för två olika växter behöver vi placera skiljeväggen vinkelrätt mot en tänkt linje som binder samman de två hålen, så att vi får en volym under hål ett och en annan, åtskiljd volym under hål två. 

Jag bad ChatGPT korrigera de här problemen samt ta bort punkt e eftersom det är onödigt att begränsa kravet till en odlingskruka som också har en anordning för att justera vattennivån. Efter några försök landade den på följande:

1. A hydroponic planter comprising:
a. a container adapted to hold water and nutrients;
b. a lid attachable to the container, the lid having two holes configured to hold a piece of growth substrate each and to receive a seed for a plant, wherein the holes are positioned along a line on the lid;
c. a plastic sheet removably positionable within the container, the plastic sheet comprising a divider arranged to be placed perpendicular to the line connecting the two holes on the lid, the divider having a length corresponding to the width of the container, thereby forming two separate compartments within the container, wherein the divider can be removed and repositioned as desired;
d. a rubber strip surrounding the edges of the plastic sheet, providing a watertight seal between the plastic sheet and the container, wherein the rubber strip prevents water from one compartment from mixing with water in the other compartment.

Detta är bättre på så sätt att skiljeväggen är rätt placerad, men innehåller en del onödiga saker (t.ex. i punkt d - vi behöver inte skriva både att det är vattentätt och att det hindrar vatten från att röra sig mellan de två volymerna). Dessutom är det här kravet väldigt lätt att ta sig runt - byt bara ut plasten mot metall i skiljeväggen, så får du en odlingskruka med samma funktion men som inte täcks av patentkravet. 

Om jag själv skulle skriva ett patentkrav utifrån min ursprungliga beskrivning av uppfinningen ovan skulle jag börja med att identifiera de nödvändiga beståndsdelarna - eller särdragen - i uppfinningen. Sen skulle jag fundera över hur mycket jag kan bredda kravet utan att det blir orimligt - att skiljeväggen inte måste vara av plast är ganska uppenbart, likaså att vi borde täcka in odlingskrukor med utrymme för fler än två växter (d.v.s., fler än två hål). Det skulle leda till ett bredare huvudkrav, samt en rad underkrav som beskriver olika alternativ (att skiljeväggen är i plast skulle kunna bli ett underkrav). 

Om jag istället för att mata ChatGPT med en uppfinningsbeskrivning ger den en lista över de tekniska särdragen kan jag istället få ut detta:

1. A hydroponic planter comprising:
- a receptacle configured to contain a nutrient solution for supporting plant growth;
- a lid attached to the receptacle and having two openings for receiving a growth substrate and plants;
- a removable divider adapted to be placed vertically within the receptacle, separating the two openings, said divider comprising a rubber strip positioned along the edges of the divider, forming a water-resistant seal between the divider and the inner walls of the receptacle.

Detta är inte heller perfekt, men jag tycker att det i alla fall är en bättre utgångspunkt att jobba vidare från. Det är värt att notera att den återanvänder ord och uttryck från min fråga i patentkravet, jag hade t.ex. inte nämnt "plastic sheet" den här gången utan bara kallat det "removable divider". Alltså, ju mer patentmässigt ditt språkbruk är i frågan, desto bättre lyckas ChatGPT med kravet.

Jag bad också ChatGPT skriva några stycken text som man kan använda i patentansökan, framför allt några som beskriver olika fördelar med uppfinningen. Den hasplade till exempel ur sig följande:

Advantages of the invention: The hydroponic planter with a rubber strip divider offers several significant advantages over existing cultivation systems. Firstly, it provides an efficient use of space by enabling the cultivation of multiple plants within a single receptacle. This reduces the need for multiple containers, optimizing resource utilization and simplifying maintenance.

Precis som med själva kraven är den genererade texten i rätt stil och med rätt vokabulär för att platsa i en patentansökan, men när den hittar på fördelar med uppfinningen på egen hand blir de inte alltid särskilt rimliga. Ska man använda den här texten får man gå igenom den och rätta till de saker som inte är faktiska fördelar med uppfinningen eller på något annat sätt inte stämmer.

Min slutsats efter de här försöken är att ju mer du tänker innan du blandar in ChatGPT, ju mer du identifierar särdrag, hittar möjliga breddningar och letar upp rätt tekniska termer, desto bättre kommer patentkraven och texten att bli. Som jag ser det består arbetsprocessen när man skriver en text - en patentansökan eller något annat - minst lika mycket av sådant tankearbete som av att faktiskt sitta och knappa på tangentbordet. ChatGPT kan hjälpa dig med knappandet genom att generera text, men tänka måste du än så länge göra själv.

Att skriva patent med ChatGPT - nyhetssökning och rättspraxis

Ett blogginlägg om att skriva patentkrav med ChatGPT finns här.


Det senaste dryga halvåret sen ChatGPT lanserades har folk testat att använda den för allt möjligt från att skriva kod till att svara på frågor i hemtentor. Tekniken bakom ChatGPT, så kallade large language models*, sägs vara på väg att ersätta människor i yrken där man skriver kod eller text, som programmerare, journalister och tekniska skribenter. 

Min fråga blir naturligtvis - kan den ersätta en patentingenjör? För att ta reda på det skaffade jag ett konto på ChatGPT och fantiserade ihop en fejk-uppfinning att testa med. 

Nyhetssökning

Innan man börjar med själva ansökan vill man ofta skaffa sig en uppfattning om ifall den verkligen är ny, eller om nån annan redan har patenterat den - man vill göra en så kallad nyhetssökning. Det första man gör då är att hitta rätt patentklass att leta i. Patentklasser är ett sätt att sortera patent baserat på vad de handlar om. Systemet som jag använder mest är International Patent Classification (IPC), ett hierarkiskt system som börjar med att dela in uppfinningarna i sektioner (fysik, kemi, elektricitet etc.), sen i klasser, sub-klasser, grupper, och sub-grupper, där varje nivå blir mer och mer specifik.

Min "uppfinning" är en hydroponisk odlingskruka med ett lock, minst två öppningar i locket där man kan placera odlingssubstrat, och en löstagbar skiljevägg som man kan placera inuti krukan för att dela in den i två separata sektioner. Skiljeväggen är kantad med en gummilist (lite som vad som visas här, fast med en löstagbar skiljevägg).

Kanske ser "uppfinningen" ut så här? Från craiyon.com.

När jag frågade ChatGPT vilka IPC-klasser jag ska använda för att hitta patent som handlar om hydroponisk odling gav den mig en lång lista. Samtliga hörde till sektion A (mänskliga förnödenheter), klass A01 (lantbruk), subklass G (hortikultur, odling av grönsaker etc.). Så långt verkar det alltså rätt. 

Sen kommer vi till så kallade grupper, och här är den inte lika träffsäker. A01G-07 är botanik i allmänhet och olika metoder för att främja tillväxt hos växter, men verkar inte ha med just hydroponik att göra. A01G-09 är odling i behållare, vilket verkar lovande tills man ser en notering i IPC om att hydroponik inte är inkluderat utan har sin egen grupp. Den gruppen är varken Chat-GPT:s förslag A01G-27 (sjävvattnande krukor) eller A01G-33 (odling av alger), utan A01G-31. 

A01G-31, som alltså är den relevanta klassificeringen, är med bland ChatGPTs förslag, men det är också flera andra klassificeringar som man inte egentligen behöver. Dessutom beskriver ChatGPT en av klassificeringarna fel när den upplyser mig om att A01G-27 handlar om att orsaka artificiellt regn fast det egentligen är en klassificering för självvattnande krukor. Vi har alltså råkat på vårt första fall av att ChatGPT hallucinerar.

Man kan också använda vanliga söktermer för att hitta viktiga patent, men lite beroende på hur avancerade sökverktyg man använder kan man riskera att missa dokument som använder andra ord för samma sak. Jag bad därför ChatGPT ge mig en lista på synonymer till "hydroponic planter" (jag chattade med ChatGPT på engelska, dels för att jag oftast skriver patent på engelska och dels för att den garanterat haft mer träningsdata på engelska än på svenska så det borde vara ett mer rättvist test). ChatGPT verkar vara rätt bra på att hitta synonymer, förutom de rätt uppenbara "aquaponic planter" och "soilless cultivation device" fick den också med sig "deep water culture planter", ett begrepp jag inte kände till sen innan.

Fler AI-hallucinationer dök upp när jag bestämde mig för att gå rakt på sak och be den ge mig exempel på relevanta patent. Den gav mig tre exempel på publicerade amerikanska patentansökningar. Alla tre existerar, men ingen av dem handlar om vad ChatGPT påstår att de skulle handla om och ingen av dem är ens i närheten av hydroponiska odlingar. US20190079141A1 handlar istället om att detektera magnetfält, US20210034667A1 om telekommunikation och US20190314660A1 presenterar en ny typ av skum till brandsläckare. Det hindrar inte ChatGPT från att påstå att de hade titlar som Hydroponic planter appratus, Hydroponic Growing Device, eller Hydroponic Cultivation Device and Method.

Rättspraxis

Även om vi konstaterar att vår "uppfinning" inte är patenterad sen innan kan det finnas andra saker som påverkar om den går att patentera eller inte. Det kan till och med vara så att vi behöver ta reda på rättspraxis i den jurisdiktion där vi vill söka patent. Jag har valt att utgå ifrån att vi söker patent vid Europeiska Patentverket EPO, mest för att det är den patentlagstiftning jag kan bäst. Jag har också lagt till två komplicerande faktorer.

Icke-tekniska delar av uppfinningen

Den första är att min "uppfinning" har en sensor som mäter vattennivån, kopplad till en display som visar en bild av ett visset blad när vattennivån blir för låg. Det där att den visar en bild är en presentation av information, vilket är exkluderat från att patenteras enligt Artikel 52(2) i Europeiska Patentkonventionen. Presentationer av information är exkluderade, tillsammans med vetenskapliga teorier, matematiska metoder, affärsmetoder och estetiska skapelser, för att de inte anses vara vad EPO definierar som teknik.

För det där med displayen har ChatGPT ett rätt bra svar:

I am an AI language model and do not have real-time access to current legal information... [disclaimers etc.]... That being said, while the presentation of information itself may not be patentable, if your hydroponic planter includes a technical solution or a novel and inventive aspect beyond the mere presentation of information, it could be eligible for patent protection in Europe.

Detta är i stora drag korrekt - om din uppfinning innehåller något som är exkluderat för att det inte räknas som teknik, som en presentation av information, tillsammans med saker som uppenbart är teknik, som sensorn och själva krukan, så kan uppfinningen som helhet fortfarande vara patenterbar. 

Emellertid bad jag den också hitta hänvisningar till rättspraxis och här blir det lite svajigare. Den hittar två existerande beslut från EPO, T641/00 och T 1227/05, som båda faktiskt är relevanta för att bedöma patenterbarheten hos uppfinningar som innehåller både tekniska och icke-tekniska delar. T641/00 är ett välkänt fall där de tekniska delarna av uppfinningen kombinerades med en affärsmetod. ChatGPT beskriver den som:

This case discusses the "COMVIK approach" to patentability of computer-implemented inventions in Europe and sets out the requirement for a technical character and technical contribution beyond the presentation of information. 

Kanske en aning missvisande eftersom den icke-tekniska delen i T641/00 var en affärsmetod och inte en presentation av information, men ändå rätt OK. 

T1227/05 är ett annat välkänt fall där en icke-teknisk grej, i det här fallet en matematisk metod, kombinerades med mer uppenbart tekniska delar i en simulering av elektroniska kretsar. Patentansökan som beslutet handlar om ägdes av företaget Infineon. Här är ChatGPT längre från målet när den skriver:

T 1227/05 (Hitachi/Cardiac monitoring): This case involves the patentability of a method for monitoring cardiac activity. It discusses the technical character of the claimed method and the distinction between technical and non-technical features.

Fel företag och fel sorts uppfinning alltså. Medicinska metoder är dessutom inte uteslutna för att de skulle vara icke-teknik enligt Artikel 52(2) i Europeiska Patentkonventionen, utan har sitt eget stycke under Artikel 53. De är, lite förenklat, uteslutna för att man inte ska kunna få patent som hindrar vårdpersonal att välja de behandlingsmetoder de anser vara bäst för patienten. En uppfinning som innehåller en sådan metod är aldrig patenterbar, även om det är i kombination med saker som annars skulle vara patenterbara. ChatGPT är alltså väldigt fel ute här.

Uppfinningen har presenterats tidigare

När jag kollade på ChatGPT:s försök att hitta rättspraxis slog det mig att det här med uppfinningar som innehåller både tekniska och icke-tekniska delar har varit omdiskuterat - och omskrivet - de senaste åren eftersom det är viktigt för bedömning av uppfinningar där man har med en dator av nåt slag. Det innebär att det antagligen finns många exempel på detta i ChatGPTs träningsdata. Skulle ChatGPT få ett sämre resultat för praxis som det är mindre diskussion om?

Som ett första test av den idén sa jag till ChatGPT att jag förklarat min uppfinning för potentiella affärspartners och i en presentation på en konferens, och frågade hur det påverkar patenterbarheten. ChatGPT svarade korrekt att det kan leda till problem för att exempelvis konferenspresentationen blir nyhetshindrande om den sker innan patentansökan lämnas in - uppfinningen är helt enkelt inte ny längre om man redan berättat för världen hur den funkar. Däremot plockar ChatGPT inte upp den potentiella skillnaden mellan att prata med affärspartners och att prata på en konferens (prata med affärspartners kan man göra i förtroende och i så fall är det inte en offentlig presentation av uppfinningen). 

Ett betydligt större misstag är att ChatGPT hävdar att om uppfinnaren själv presenterar uppfinningen och sedan skickar in en patentansökan inom tolv månader så räknas presentationen inte som nyhetshindrande. Det hade varit rätt i en del andra länder, t.ex. USA, men inte för EPO. EPO har mycket mer restriktiva bestämmelser som säger att om du presenterar din uppfinning på en officiellt erkänd internationell utställning så räknas det inte som nyhetshindrande om du sen skickar in din ansökan inom sex månader (Artikel 55 i Europeiska Patentkonventione, om nån undrar). 

ChatGPT genererade också tre referenser till rättspraxis på det här området, men den lyckades inte alls lika väl som med de icke-tekniska delarna. Två av de tre referenserna var till fall som existerar men inte handlar om rätt saker, och en av dem var helt påhittad.

Slutsatser

ChatGPT är ingen sökmotor, och det märks. Den kan generera svar som låter vettiga och även i viss mån är användbara, t.ex. genom att hitta rätt subklass (men inte grupp) i IPC och ge förslag på synonymer till olika begrepp. Däremot är den (än så länge) inte tillförlitlig när det gäller regler och bestämmelser eller att hitta relevanta dokument och rättsfall.

Jag tror att om man ska använda ChatGPT för att underlätta t.ex. nyhetssökningar så behöver den på något sätt kopplas ihop med en sökmotor, gärna en sökmotor som är specialanpassad för att hitta patent. Den är bra på att tolka frågorna den får och är rent allmänt mycket lättare att kommunicera med än ett konventionellt sökverktyg, så kanske kan den komma att fungera som ett användargränssnitt ovanpå ett annat system som är mer tillförlitligt när det gäller fakta.




*Jag tänkte inte försöka mig på att förklara hur GPT funkar, för det är egentligen inte mitt expertområde. För den som har cirka en halvtimme över kan jag istället rekommendera den här videon av Kyle Hill. Har man mer tid och vill läsa text istället finns också Stephen Wolframs "What is Chat GPT Doing... and Why Does It Work?", som ger en introduktion både till GPT och till maskininlärning i allmänhet (dock i kombination med upprepade påståenden om att ChatGPT måste kopplas ihop med Wolframs egna produkter för att bli riktigt bra).