Skriv här det du söker efter!

Nobelpriset i fysik 2024

Nobelpriset i fysik 2024

Mats Braskén.
Mats Braskén, forskningsledare i de matematiska ämnenas didaktik vid Åbo Akademi och resursperson vid Skolresurs

Motiveringen till årets pris lyder ”för grundläggande upptäckter och uppfinningar som möjliggör maskininlärning med artificiella neuronnätverk” och priset delas av John Hopfield och Geoffrey Hinton.

Grunden för dagens AI – artificiella neuronnät

De flesta av oss har säkert provat på att använda något av dagens populära generativa AI-verktyg, så som ChatGPT för att generera text eller Dall-E för att generera bilder. Tekniken som gör dessa verktyg möjliga bygger på stora, förtränade artificiella neuronnät. Idén att försöka efterlikna hjärnans nätverk av neuroner och synapser för att med en maskin behandla information går tillbaka till 1940-talet. Liksom kopplingen mellan neuronerna i vår hjärna kan förstärkas eller försvagas beroende på inkommande stimuli, så kan också kopplingen mellan noderna i ett artificiellt neuronnätverk förstärkas eller försvagas när ett neuronnätverk tränas utgående från yttre signaler. Trots den lovande starten publicerades i slutet av 1960-talet teoretiska resultat som fick många forskare att tro att det aldrig skulle bli möjligt att träna stora artificiella neuronnätverk för att utföra mera avancerade uppgifter. Följden blev en cirka 20 år lång AI-vinter.

En ny AI-vår fick sin början i och med att John Hopfield, årets första fysikpristagare, år 1982 uppfann vad i dag kallas för ett Hopfieldnätverk. Hopfields neuronnätverk kunde lagra mönstret i en svartvit bild och sen återskapa denna bild från ett inmatat ofullständigt mönster. Idag kan förbättrade versioner av Hopfields ursprungliga nätverk identifiera och rekonstruera vilken information som helst som är uppbyggd av datapunkter.

Årets andra fysikpristagare, Geoffrey Hinton, funderade också han på hur maskiner kunde fås att lära sig hantera mönster, hitta egna kategorier och sortera information likt människor. Hinton och kollegan Terrence Sejnowski utgick från Hopfieldnätverket och utvecklade en variant som kallas för en Boltzmannmaskin. I en Boltzmannmaskin matas information in i vad som kallas nätverkets synliga noder. Övriga noder i nätverket bildar vad som kallas nätverkets dolda lager. Genom att uppdatera den inkommande informationen enligt vissa regler uppdateras också kopplingarna i neuronnätverket. Nätverket kan på detta sätt utan instruktioner lära sig genom att få se ett antal exempel.

Trots att Hopfieldnätverket och Boltzmannmaskinen i sina ursprungliga former var begränsade och tidskrävande att träna, utgör de startskotten till den AI-explosion vi upplever idag. Att träna neuronnätverk med miljontals noder, användande enorma mängder träningsdata, är något som idag görs rutinmässigt. Så har till exempel det enorma neuronnätverk som ChatGPT utnyttjar, tränats på enorma mängder textdata från bland annat internet.

Mer information om personerna och priset hittar du i pressmeddelandet på Kungl. Vetenskapsakademiens sida.

Populärt om fysiken bakom priset finns i dokumentet på Kungl. Vetenskapsakademiens sida.

Texten ingår i Skolresurs nyhetsbrev 3/24.
Prenumerera på nyhetsbrevet här.