Nobelprijswinnaar: ‘Huidige data voor AI niet goed genoeg’

Om kunstmatige intelligentie (AI) succesvol toe te passen in de wetenschap zijn heel veel hoogwaardige data nodig. Het is nu nog teveel ‘garbage in, garbage out’, zegt biochemicus David Baker, die onlangs de Nobelprijs won.

Dit is een vertaling van een editiorial van Melissa Heikkilä uit The Algorithm.

David Baker heeft slaapgebrek maar is gelukkig. Hij heeft tenslotte net de Nobelprijs gewonnen.

Het telefoontje van de Koninklijke Zweedse Academie van Wetenschappen maakte hem midden in de nacht wakker. Of beter gezegd, zijn vrouw. Ze nam de telefoon op in hun huis in Washington D.C. en schreeuwde dat hij de Nobelprijs voor Scheikunde had gewonnen. De prijs is de ultieme erkenning van zijn werk als biochemicus aan de Universiteit van Washington.

“Ik werd om twee uur ‘s nachts wakker en heb eigenlijk de hele dag niet geslapen. De dag was alleen maar gevuld met feestjes en zo,” vertelde hij de dag na de aankondiging. “Ik kijk ernaar uit om vandaag weer een beetje normaal te worden.”

Vorige week was een belangrijke mijlpaal voor kunstmatige intelligentie, met twee Nobelprijzen voor AI-gerelateerde ontdekkingen.

Baker was niet de enige die de Nobelprijs voor Scheikunde won. De Koninklijke Zweedse Academie van Wetenschappen kende de prijs ook toe aan Demis Hassabis, de medeoprichter en CEO van Google DeepMind, en John M. Jumper, een directeur bij hetzelfde bedrijf. Google DeepMind werd bekroond voor zijn onderzoek naar AlphaFold, een tool die kan voorspellen hoe eiwitten zijn gestructureerd, terwijl Baker werd erkend voor zijn werk met behulp van AI om nieuwe eiwitten te ontwerpen.

Ondertussen ging de natuurkundeprijs naar Geoffrey Hinton, een computerwetenschapper wiens baanbrekende werk op het gebied van deep learning in de jaren 80 en 90 ten grondslag ligt aan alle krachtigste AI-modellen ter wereld van vandaag, en collega-computerwetenschapper John Hopfield, die een type patroonherkenningsneuraal netwerk heeft uitgevonden dat gegevens kan opslaan en reconstrueren.

Lees het bericht over de Nobelprijs voor Hinton en Hopfield

In een gesprek met verslaggevers na de bekendmaking van de Nobelprijs zei Hassabis dat hij gelooft dat het zal leiden tot meer AI-tools die worden gebruikt voor belangrijke wetenschappelijke ontdekkingen.

Maar er is één probleem. AI heeft massa’s hoogwaardige gegevens nodig om nuttig te zijn voor de wetenschap, en databases met dat soort gegevens zijn zeldzaam, zegt Baker.

De prijs is een erkenning voor de hele gemeenschap van mensen die werken als eiwitontwerpers. Het zal helpen om het ontwerp van eiwitten te verplaatsen van de “gekke rand van dingen waarvan niemand ooit dacht dat ze nuttig zouden zijn voor wat dan ook naar het middelpunt”, zegt hij.

AI is een gamechanger geweest voor biochemici zoals Baker. Toen ze zagen wat DeepMind met AlphaFold kon doen, werd het duidelijk dat deep learning een krachtig hulpmiddel voor hun werk zou worden.

“Er zijn gewoon al die problemen die voorheen heel moeilijk waren, maar waar we nu veel meer succes mee hebben dankzij generatieve AI-methoden. We kunnen veel ingewikkeldere dingen doen”, zegt Baker.

Baker is al druk bezig. Hij zegt dat zijn team zich richt op het ontwerpen van enzymen, die alle chemische reacties uitvoeren waar levende wezens op vertrouwen om te bestaan. Zijn team werkt ook aan medicijnen die alleen op het juiste moment en de juiste plaats in het lichaam werken.

Maar Baker aarzelt om dit een keerpunt te noemen voor AI in de wetenschap.

In AI is er een gezegde: Garbage in, garbage out. Als de data die in AI-modellen wordt ingevoerd niet goed is, zullen de uitkomsten ook niet oogverblindend zijn.

De kracht van de met de Nobelprijs voor scheikunde bekroonde AI-tools ligt in de Protein Data Bank (PDB), een zeldzame schat aan hoogwaardige, samengestelde en gestandaardiseerde data. Dit is precies het soort data dat AI nodig heeft om iets nuttigs te doen.

Maar de huidige trend in AI-ontwikkeling is het trainen van steeds grotere modellen op de volledige inhoud van internet, dat steeds meer vol zit met door AI gegenereerde rommel. Deze rommel wordt op zijn beurt in datasets gezogen en vervuilt de uitkomsten, wat leidt tot vooringenomenheid en fouten. Dat is gewoon niet goed genoeg voor rigoureuze wetenschappelijke ontdekkingen.

“Als er veel databases waren die zo goed zijn als de PDB, zou ik zeggen: ja, deze prijs is waarschijnlijk slechts de eerste van vele, maar het is een soort unieke database in de biologie”, zegt Baker. “Het zijn niet alleen de methoden, het zijn de data. En er zijn niet zoveel plekken waar we dat soort data hebben.”

Bron: The Algorithm, 14 oktober 2024

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties