Oracle wird die KI mit 50.000 GPUs revolutionieren. Künstliche Intelligenz tritt mit dem ehrgeizigen Projekt von Oracle in eine neue Ära ein. Der OCI-Supercluster, betrieben mit modernen und optimierten Prozessoren, wird es ermöglichen, hochmoderne Sprachmodelle auszuführen. Diese Partnerschaft mit AMD verspricht unvergleichliche Leistungen. Dank einer Infrastruktur, die für maximale Produktivität konzipiert ist, werden Unternehmen von schnellen Ergebnissen und einem fortschrittlichen Management ihrer Arbeitslasten profitieren. Erwarten Sie beispiellose Fähigkeiten in der generativen KI.
Das ehrgeizige Projekt von Oracle
Oracle hat kürzlich sein Projekt vorgestellt, einen Supercluster für künstliche Intelligenz innerhalb seiner Oracle Cloud Infrastructure (OCI) zu implementieren. Dieses ehrgeizige Projekt zeichnet sich durch die Integration von 50.000 AMD Instinct MI450 GPUs aus, eine technologische Fortschritt, der für das dritte Quartal 2026 geplant ist. Dieser Supercluster, der sich in der Entwicklung befindet, zielt darauf ab, die KI-Fähigkeiten in verschiedenen Anwendungen zu stärken.
Strategische Partnerschaft mit AMD
Diese Entwicklung zwischen Oracle und AMD stellt kein einfaches Partnerschaft dar. Die beiden Unternehmen haben ihre Zusammenarbeit im Rahmen der Veranstaltung Oracle AI World vertieft, was den Willen zeigt, ihre jeweiligen Expertisen zu vereinen. Die kraftvolle Kombination aus MI450 GPUs und den neuesten EPYC-Prozessoren, genannt Venice, verdeutlicht eine gezielte Strategie zur Eroberung des großangelegten Künstliche Intelligenz-Marktes.
Technische Eigenschaften der GPUs
Jede MI450 GPU weist bemerkenswerte Spezifikationen auf. Mit bis zu 432 GB HBM4-Speicher und einer Speicherbandbreite von bis zu 20 TB/s bilden sie eine ideale Grundlage für fortgeschrittene Sprachmodelle, einschließlich der generativen KI. Diese Konfiguration verspricht schnellere Ergebnisse und ein optimiertes Management komplexer Arbeitslasten, wodurch der Bedarf an Modellpartitionierung verringert wird.
Optimierungen des AMD Helios Racks
Die Optimierung des Racks AMD Helios für KI ist ein weiterer Höhepunkt dieses Projekts. Entwickelt, um die Leistungsdichte zu maximieren, integriert dieses Rack bis zu 72 GPUs und verwendet ein Flüssigkeitskühlungssystem, das Energieeffizienz bei großangelegten Operationen gewährleistet. Diese fortschrittliche Architektur ermöglicht es den Kunden, das Potenzial der EPYC-Prozessoren und eines skalierbaren Netzwerks, das speziell für KI konzipiert wurde, auszuschöpfen.
Verfügbarkeit und zukünftige Expansion
Ab 2026 werden Kunden von einer erhöhten Verfügbarkeit der OCI-Dienste mit der Integration der MI355X GPUs profitieren. Diese Expansion wird eine Gesamtkapazität von 131.072 GPUs erreichen und somit eine Infrastruktur im Zettabyte-Maßstab bieten. Diese Fortschritte folgen auf die Arbeiten, die bereits 2024 begonnen wurden, als die beiden Unternehmen mit der Einführung von Instanzen auf Basis der MI300X begannen.
Der Rahmen der KI im Technologiesektor
Der Supercluster von Oracle steht im Wettbewerb zu anderen Giganten wie Google, Microsoft und Nvidia. Ihre jeweiligen Supercomputer, wie der DGX SuperPOD von Nvidia und die TPU Pods von Google, haben hohe Standards gesetzt. Oracle positioniert sich somit, um effektiv zu konkurrieren und seinen Marktanteil in einem sich wandelnden Sektor zu stärken.
Die Zukunft der Technologien der künstlichen Intelligenz
Während sich der KI-Markt weiterentwickelt, bekräftigt Oracle seine Vision durch Investitionen in Spitzentechnologien. Dieses Engagement verdeutlicht das Bestreben des Unternehmens, robuste Lösungen für die Entwicklung, das Training und die Inferenz in der künstlichen Intelligenz anzubieten. Die Ergebnisse der gemeinsamen Anstrengungen zwischen Oracle und AMD könnten die Landschaft der Cloud-Dienste revolutionieren.
Für weitere Informationen über die künstliche Intelligenz ist der Link zum folgenden Artikel relevant: Technologische Vereinbarungen.
Um die praktischen Anwendungen der KI zu erkunden, könnte dieser Artikel interessante Einblicke bieten: KI und die Eruption des Fuji.
Schließlich erweist sich eine Reflexion über energieeffiziente Innovationen in der KI als hilfreich in diesem Zusammenhang: Energieeffizienz.
Häufig gestellte Fragen zum Einsatz der AMD Instinct MI450 GPUs durch Oracle
Was sind die wichtigsten technischen Komponenten des OCI-Superclusters für KI?
Der OCI-Supercluster wird mit AMD Helios Racks ausgestattet sein, die die MI450 GPUs sowie die neuesten EPYC-Prozessoren und die Pensando-Netzwerktechnologie umfassen.
Wann plant Oracle den Einsatz der 50.000 AMD Instinct MI450 GPUs?
Der erste Einsatz ist für das dritte Quartal 2026 vorgesehen, mit einer geplanten Expansion für 2027 und darüber hinaus.
Wie werden die MI450 GPUs die KI-Leistungen verbessern?
Diese GPUs bieten bis zu 432 GB HBM4-Speicher und 20 TB/s Speicherbandbreite, ermöglichen schnellere Ergebnisse und ein effizienteres Management komplexer Arbeitslasten.
Welche Bedeutung hat die Oracle Cloud-Infrastruktur für den Einsatz von KI?
Die Oracle Cloud Infrastructure (OCI) wird als Schlüsselplattform dienen, um die GPUs zu hosten, wodurch die Leistung fortschrittlicher KI-Modelle und Hochleistungsrechenlasten optimiert wird.
Was sind die spezifischen Eigenschaften des Helios Racks von AMD?
Das Helios Rack ist so konzipiert, dass es die Leistungsdichte und Energieeffizienz maximiert, mit flüssigkeitsgekühlten Racks, die bis zu 72 GPUs aufnehmen können.
Wie profitieren die Nutzer von der Partnerschaft zwischen Oracle und AMD?
Die Partnerschaft ermöglicht den Nutzern den Zugang zu einer optimierten Infrastruktur für Entwicklung, Training und Inferenz von KI in großem Maßstab, während die Kosten durch Spitzentechnologien gesenkt werden.
Werden die OCI Compute-Dienste mit MI355X GPUs in Zukunft verfügbar sein?
Ja, Oracle hat die allgemeine Verfügbarkeit der OCI Compute-Dienste mit MI355X GPUs angekündigt, was den Zugang zu Ressourcen für KI-Nutzer erweitert.
Wie plant Oracle, die Skalierung seines KI-Superclusters zu steuern?
Oracle wird ein kombiniertes Netzwerk verwenden, das durch DPU beschleunigt wird, sowie eine ROCm-Stack und fortschrittliche Partitionierung, um die GPUs effektiv auf die Anforderungen der Arbeitslasten zuzuteilen.
Warum wird der OCI-Supercluster als ideal für fortgeschrittene Sprachmodelle angesehen?
Aufgrund seiner fortschrittlichen technischen Spezifikationen ist der Supercluster darauf ausgelegt, die komplexesten Sprachmodelle, einschließlich derjenigen zur generativen KI, auszuführen.