Mit dieser Demonstration bietet das Start-up einen Einblick in Next-Generation-Computing-Anwendungen für High-Performance Computing (HPC), Physiksimulationen und künstliche Intelligenz. Interessierte können sich hier die Demo ansehen.
Licht statt Silizium
Der in der Cloud demonstrierte Anwendungsfall ist ein repräsentatives Beispiel für Aufgaben, mit denen Rechenzentren zu tun haben. Der grundlegende Unterschied besteht darin, dass die NPUs anders als CMOS-Prozessoren, Daten mit Licht verarbeiten. So können grundlegende mathematische Operationen wesentlich energieeffizienter durchgeführt werden. Ein Beispiel: Während ein CMOS-Prozessor 1.200 Transistoren benötigt, um eine einfache 8-Bit-Multiplikation durchzuführen, erreichen die Licht-NPUs dies mit einem einzigen optischen Element. Allein für diesen Vorgang ist diese neue Art von NPU dreißigmal energieeffizienter als ihr Pendant.
„Mit der wachsenden Nachfrage nach KI steigt auch der Bedarf an energieeffizienten Lösungen“, sagt Dr. Michael Förtsch, CEO von des Start-ups. „Diese Demonstration ist ein wichtiger Schritt, um den Energiebedarf der KI und den CO2-Ausstoß zu reduzieren. Wir laden Forscher und Entwickler dazu ein, das reale Potenzial des photonischen Computings durch unsere praktische Demonstration zu erkunden.“
Chipmaterial als Schlüsselelement
Ein Element dieser Entwicklung ist die Start-up-eigene Chipmaterial-Plattform basierend auf „Thin-Film Lithium Niobate (TFLN)“. Sie ist das Rückgrat der NPUs und sorgt für eine präzise Lichtsteuerung auf Chipebene. Das Start-up hat diese Plattform seit seiner Gründung im Jahr 2018 entwickelt und kontrolliert laut eigenen Angaben die gesamte Wertschöpfungskette – „vom Rohstoff bis zum fertigen Chip“.
Kombiniert mit einem tiefen Verständnis des Lichts ermöglicht dies Q.Ant, die mathematische und algorithmische Dichte noch über die Dichte herkömmlicher CMOS-Prozessoren hinaus zu erhöhen. Ein Beispiel: Während die grundlegende mathematische Funktion einer Fourier-Transformation Tausende bis Zehntausende komplexer Multiplikationen erfordert, was Millionen von Transistoren entspricht, erreicht die Optik dies mit einem einzigen Element.
„Der Schlüssel zur Nutzung des Potenzials des Lichts für die Datenverarbeitung liegt in der durchgängigen Kontrolle des Lichts. Jeder Kompromiss verringert die Erfolgswahrscheinlichkeit drastisch“, so Förtsch.
Verschiebungen in der Branche
Die Halbleiterindustrie wendet sich neuen Technologien zu, um dem wachsenden Bedarf an Rechenleistung gerecht zu werden. Diese Nachfrage nach leistungsstarken und dennoch energieeffizienten Technologien wird durch den weit verbreiteten Einsatz von KI weiter angeheizt. Neben dem Training neuer großer Sprachmodelle ist die KI-Inferenz eine besonders energieintensive KI-Anwendung, und die neuartigen NPUs könnten laut dem Start-up „eine vielversprechende Lösung“ sein.
Web-Demonstration belegt geringeren Strombedarf
In der Web-Demonstration kann der Benutzer ein Bild einer handgeschriebenen Zahl aus der MNIST-Datenbank (Modified National Institute of Standards and Technology) auswählen. Mithilfe eines trainierten neuronalen Netzes sagt die NPU die Zahl (0–9) voraus und führt eine effiziente Matrix-Vektor-Multiplikation auf dem Photonenchip durch. Mit einer Erkennungsgenauigkeit von 95 % beweist diese Demonstration, dass der photonische Prozessor – der mit Licht betrieben wird und auf der TFLN-Technologie basiert – komplexe KI-Aufgaben mit geringerem Stromverbrauch durchführen kann. Dies ist das erste Mal, dass ein solcher photonischer Prozessor erfolgreich in einer praktischen Anwendung eingesetzt wird. Er unterstreicht damit sein Potenzial für alle KI-Aufgaben.
Die Demonstration der photonischen NPU liefert wertvolle Erkenntnisse darüber, wie photonisches Computing in der Praxis eingesetzt werden kann, um die derzeitigen Grenzen von KI und maschinellem Lernen zu überwinden, und ebnet den Weg für künftige Fortschritte in diesem transformativen Bereich.
„Wir entwickeln Native Prozessoren, die die heutigen logischen Probleme nativ lösen, indem sie Licht als Medium nutzen“, so Förtsch. „Man stelle sich eine Zukunft vor, in der Hochleistungscomputer mit minimalem Energieaufwand arbeiten und mindestens so leistungsfähig sind wie unser Gehirn – das ist die Vision hinter Native Computing.“ (hw)