Startseite » News »

Oracle bietet KI-Supercomputer mit bis zu 131.072 NVidia-GPUs

Erster Zettascale-Cloud-Computing-Cluster
Oracle bietet KI-Supercomputer mit bis zu 131.072 NVidia-GPUs

Um Künstliche Intelligenz im großen Maßstab entwickeln, trainieren und auswerten zu können, bedarf es performanter Cloud-Computing-Cluster. Das Unternehmen Oracle hat nun den ersten Zettascale-Cloud-Computing-Cluster entwickelt, der von der NVidia Blackwell-Plattform beschleunigt wird. Mit bis zu 131.072 NVidia Blackwell-GPUs bietet dieser Cluster eine, so heißt es aus dem Unternehmen, beispiellose Spitzenleistung von 2,4 zettaFlops und ist damit einer der größten KI-Supercomputer in der Cloud. Oracle Cloud Infrastructure (OCI) nimmt jetzt Bestellungen entgegen. 

Inhaltsverzeichnis
1. Weltweit erster Zettascale-Computing-Cluster
2. Skalierungsmöglichkeiten der Supercluster
3. WideLabs nutzt Supercluster für KI in der Medizin
4. Zoom nutzt OCI-Funktionen für KI im Büroalltag

„Wir verfügen über eines der umfassendsten Angebote an KI-Infrastruktur und unterstützen Kunden, die einige der anspruchsvollsten KI-Workloads in der Cloud ausführen“, so Mahesh Thiagarajan, Executive Vice President von Oracle Cloud Infrastructure. „Mit der verteilten Cloud von Oracle haben Kunden die Flexibilität, Cloud- und KI-Services überall dort einzusetzen, wo sie möchten, und dabei ein Höchstmaß an Daten- und KI-Souveränität zu wahren.“ 

Weltweit erster Zettascale-Computing-Cluster 

Mit bis zu 131.072 NVidia Blackwell-GPUs bietet dieser Cluster eine Spitzenleistung von 2,4 zettaFlops. Die maximale Größe des OCI Supercluster bietet mehr als dreimal so viele GPUs wie der Frontier-Supercomputer und mehr als sechsmal so viele wie andere Hyperscaler. Der OCI Supercluster umfasst

  • OCI Compute Bare Metal,
  • RoCEv2 mit extrem niedriger Latenz mit ConnectX-7-NICs und ConnectX-8-SuperNICs oder
  • NVidia Quantum-2-InfiniBand-basierte Netzwerke sowie
  • eine Auswahl an HPC-Speichern.

Skalierungsmöglichkeiten der Supercluster

OCI Supercluster können mit OCI Compute bestellt werden, das entweder von NVidia H100– oder H200-Tensor-Core-GPUs oder NVidia Blackwell-GPUs angetrieben wird.

  • Die Supercluster mit H100-GPUs können auf bis zu 16.384 GPUs mit einer Leistung von bis zu 65 ExaFlops und einem aggregierten Netzwerkdurchsatz von 13 PB/s skaliert werden.
  • Die Supercluster mit H200-GPUs werden auf 65.536 GPUs mit einer Leistung von bis zu 260 ExaFlops und einem aggregierten Netzwerkdurchsatz von 52 PB/s skaliert und werden noch in diesem Jahr verfügbar sein.
  • Die Supercluster mit NVidia GB200 NVL72 flüssigkeitsgekühlten Bare-Metal-Instanzen werden NVLink und NVLink Switch verwenden, um bis zu 72 Blackwell-GPUs in einer einzigen NVLink-Domäne mit einer Gesamtbandbreite von 129,6 TB/s miteinander kommunizieren zu lassen.

NVidia Blackwell-GPUs, die in der ersten Hälfte des Jahres 2025 verfügbar sein werden, mit NVLink der fünften Generation, NVLink Switch und Cluster-Netzwerken ermöglichen eine nahtlose GPU-GPU-Kommunikation in einem einzigen Cluster. 

„Im Wettlauf um Innovationen durch KI ist der Zugang zu leistungsstarken Rechenclustern und KI-Software für Unternehmen, Forscher und Staaten von entscheidender Bedeutung“, so Ian Buck, Vice President für Hyperscale und High Performance Computing bei NVidia. „Die Full-Stack-KI-Computing-Plattform von NVidia auf der breit verteilten Cloud von Oracle wird KI-Rechenkapazitäten in beispiellosem Umfang bereitstellen, um KI-Bemühungen weltweit voranzutreiben und Organisationen überall dabei zu helfen, Forschung, Entwicklung und Einsatz zu beschleunigen.“ 

WideLabs nutzt Supercluster für KI in der Medizin

Kunden wie WideLabs und Zoom nutzen die hoch performante KI-Infrastruktur von OCI mit leistungsstarken Sicherheits- und Souveränitätskontrollen bereits jetzt. 

WideLabs, ein Startup für angewandte KI in Brasilien, trainiert eines der größten LLMs Brasiliens, Amazonia IA, auf OCI. Das Unternehmen entwickelte bAIgrapher, eine Anwendung, die sein LLM nutzt, um biografische Inhalte auf der Grundlage von Daten zu generieren, die von Patienten mit Alzheimer-Krankheit gesammelt wurden, um ihnen zu helfen, wichtige Erinnerungen zu bewahren.

WideLabs nutzt die Oracle Cloud São Paulo Region, um seine KI-Workloads auszuführen, und stellt so sicher, dass sensible Daten innerhalb der Landesgrenzen bleiben. Auf diese Weise kann das Unternehmen die brasilianischen Anforderungen an die KI-Souveränität einhalten, indem es kontrollieren kann, wo seine KI-Technologie eingesetzt und betrieben wird. WideLabs verwendet die KI-Infrastruktur von OCI mit NVidia H100-GPUs, um seine LLMs zu trainieren, sowie Oracle Kubernetes Engine, um GPU-beschleunigte Container in einem OCI Supercluster bereitzustellen, zu verwalten und zu betreiben, der aus OCI Compute besteht, das mit dem RMDA-basierten Cluster-Netzwerk von OCI verbunden ist.

„Die KI-Infrastruktur von OCI bietet uns die höchste Effizienz für das Training und den Betrieb unserer LLMs“, so Nelson Leoni, CEO von WideLabs. „Die Größe und Flexibilität von OCI sind von unschätzbarem Mehrwert für unsere fortlaufenden Innovationen im Gesundheitswesen und anderen Schlüsselsektoren.“ 

Zoom nutzt OCI-Funktionen für KI im Büroalltag

Zoom, eine führende Plattform für die Zusammenarbeit mit Fokus auf KI, nutzt OCI, um Auswertungen für Zoom AI Companion bereitzustellen, den persönlichen KI-Assistenten des Unternehmens, der ohne zusätzliche Kosten verfügbar ist. Zoom AI Companion unterstützt Benutzer

  • beim Verfassen von E-Mails und Chat-Nachrichten,
  • beim Zusammenfassen von Besprechungen und Chat-Threads,
  • beim Generieren von Ideen während Brainstormings mit Kollegen und vieles mehr.

Die Daten- und KI-Souveränitätsfunktionen von OCI werden Zoom dabei helfen, Kundendaten lokal in der Region zu speichern und die Anforderungen an die KI-Souveränität in Saudi-Arabien zu erfüllen, wo die OCI-Lösung aktuell eingeführt wird. 

„Zoom AI Companion revolutioniert die Arbeitsweise von Unternehmen, indem es modernste generative KI-Funktionen ohne zusätzliche Kosten für die zahlungspflichtigen Konten der Kunden bereitstellt“, so Bo Yan, Head of AI bei Zoom. „Durch die Nutzung der KI-Fähigkeiten von OCI ist Zoom in der Lage, präzise Ergebnisse bei geringer Latenz zu liefern, sodass Benutzer nahtlos zusammenarbeiten, mühelos kommunizieren und ihre Produktivität, Effizienz sowie ihr Potenzial wie nie zuvor steigern können.“ (eve)

Industrieanzeiger
Titelbild Industrieanzeiger 11
Ausgabe
11.2024
LESEN
ABO
Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de