Die Königlich Schwedische Akademie der Wissenschaften hat beschlossen, den Nobelpreis für Physik für 2024 an John J. zu verleihen. Hopfield (Princeton University, New Jersey, USA) und Jeffrey E. Hinton (Universität Toronto, Kanada) „für ihre grundlegenden Entdeckungen und Erfindungen, die maschinelles Lernen mithilfe künstlicher neuronaler Netze ermöglichten.“
Künstliche neuronale Netze mithilfe der Physik trainieren
Die diesjährigen Nobelpreisträger für Physik verwendeten Werkzeuge aus der Physik, um Methoden zu entwickeln, die die Grundlage für das heutige leistungsstarke maschinelle Lernen bilden. John Hopfield hat das assoziative Gedächtnis entwickelt, das Bilder und andere Arten von Mustern in Daten speichern und rekonstruieren kann. Geoffrey Hinton hat eine Methode erfunden, die in der Lage ist, selbstständig Eigenschaften von Daten zu finden und so Aufgaben wie die Identifizierung bestimmter Elemente in Bildern auszuführen.
Wenn wir von künstlicher Intelligenz sprechen, meinen wir oft maschinelles Lernen durch künstliche neuronale Netze. Diese Technologie wurde ursprünglich von der Struktur des Gehirns inspiriert. In einem künstlichen neuronalen Netzwerk werden Neuronen im Gehirn durch Knoten mit unterschiedlichen Werten dargestellt. Diese Knoten beeinflussen sich gegenseitig durch Verbindungen, die mit Synapsen vergleichbar sind und stärker oder schwächer gemacht werden können. Das Netzwerk wird beispielsweise dadurch trainiert, dass stärkere Verbindungen zwischen Knoten mit hohen Werten gleichzeitig aufgebaut werden. Die diesjährigen Gewinner leisten seit den 1980er Jahren wichtige Arbeiten mit künstlichen neuronalen Netzen.
John Hopfield hat ein Raster erfunden, das eine Methode zum Speichern und Neuerstellen von Mustern verwendet. Wir können uns Knoten als Pixel vorstellen. Das Hopfield-Gitter nutzt die Physik, die die Eigenschaften der Materie aufgrund ihres Atomspins beschreibt, der Eigenschaft, die jedes Atom zu einem kleinen Magneten macht. Das Netzwerk als Ganzes wird auf eine Weise beschrieben, die der Energie eines Rotationssystems in der Physik entspricht, und durch die Suche nach Werten für Verbindungen zwischen Knoten trainiert, sodass die gespeicherten Bilder niederenergetisch sind. Wenn ein Hopfield-Netzwerk verzerrt oder unvollständig gespeist wird, durchläuft es systematisch die Knoten und aktualisiert deren Werte, sodass die Energie des Netzwerks abnimmt. Das Netzwerk arbeitet also Schritt für Schritt daran, das gespeicherte Bild zu finden, das dem unvollständigen Bild, das ihm zugeführt wurde, am ähnlichsten ist.
Geoffrey Hinton nutzte das Hopfield-Netzwerk als Grundlage für ein neues Netzwerk, das eine andere Methode verwendete: die Boltzmann-Maschine. Es kann lernen, unterschiedliche Elemente in einem bestimmten Datentyp zu erkennen. Hinton verwendete Werkzeuge aus der statistischen Physik, der Wissenschaft von Systemen, die aus vielen ähnlichen Komponenten aufgebaut sind. Die Maschine wird anhand von Beispielen trainiert, die am wahrscheinlichsten auftreten, wenn die Maschine arbeitet. Mit einer Boltzmann-Maschine können Bilder klassifiziert oder neue Beispiele für den Mustertyp erstellt werden, auf den sie trainiert wurde. Hinton baute auf dieser Arbeit auf und sie trug dazu bei, die aktuelle exponentielle Entwicklung des maschinellen Lernens einzuleiten.
„Die Arbeit der Preisträger hat bereits den größten Nutzen gebracht. In der Physik nutzen wir künstliche neuronale Netze in einer Vielzahl von Bereichen, beispielsweise bei der Entwicklung neuer Materialien mit spezifischen Eigenschaften“, sagt Elaine Munz, Vorsitzende des Nobelkomitees für Physik.
Antonio Piedad
Wissenschaftliche Kommunikation
„Amateur-Musikpraktiker. Lebenslanger Unternehmer. Entdecker. Reisefan. Nicht entschuldigender Fernsehwissenschaftler.“
More Stories
Samsung Galaxy AI diesen Monat auf Portugiesisch aus Portugal
Plastik: Es gibt Chemikalien, die uns entgehen (insbesondere in recycelten Materialien) | Verschmutzung
Der potenzielle Landeplatz für die Mission zum Mond wurde enthüllt