Die Ant Group revolutioniert den KI-Sektor, indem sie nationale Chips in ihr technisches Ökosystem integriert. Diese Strategie zielt darauf ab, die Kosten für das Training von Modellen zu senken und die Abhängigkeit von eingeschränkter amerikanischer Technologie zu verringern. Der Einsatz innovativer Methoden wie Mixture of Experts stellt einen bedeutenden Fortschritt für chinesische Unternehmen dar. Die Ant Group geht die Herausforderungen der Zugänglichkeit zu spezifischen Ressourcen an und initiiert somit eine grundlegende evolutionäre Veränderung in der künstlichen Intelligenz. Die vorläufigen Ergebnisse lassen auf eine Zukunft schließen, in der chinesische Unternehmen mit Ländern dominierender Technologien konkurrieren können.
Einsatz von chinesischen Chips für das Training von KI-Modellen
Die Ant Group verfolgt eine mutige Strategie, indem sie sich für nationale Chips entscheidet, um ihre Modelle der künstlichen Intelligenz zu trainieren. Diese Initiative reagiert auf den Bedarf, die Kosten zu senken und die Abhängigkeit von eingeschränkter amerikanischer Technologie zu verringern. Berichten zufolge hat das Unternehmen bereits Chips von inländischen Anbietern, einschließlich derjenigen von Alibaba und Huawei Technologies, in seinen Trainingsprozess integriert.
Leistung vergleichbar mit Nvidia
Die Ergebnisse der Modelle der Ant Group, die unter Verwendung der Mixture of Experts (MoE)-Methode erstellt wurden, konkurrieren bereits mit der Leistung der H800-Chips von Nvidia. Obwohl das Unternehmen weiterhin einige Nvidia-Chips für seine KI-Entwicklungen verwendet, erkundet es zunehmend Alternativen, die von AMD und chinesischen Chip-Herstellern angeboten werden. Diese Diversifizierung unterstreicht das Engagement der Ant Group im zunehmenden Wettbewerb zwischen chinesischen und amerikanischen Technologieunternehmen.
Fortschritte bei der Kostenreduktion
Die Ant Group hat ein Forschungspapier veröffentlicht, das zeigt, dass ihre Modelle manchmal die Kreationen von Meta übertreffen, was einen bedeutenden Fortschritt für das Unternehmen darstellt. Sollten sich die Leistungen der Modelle bestätigen, könnte die Ant Group einen neuen Schritt in der Reduzierung der Kosten für die Ausführung von KI-Anwendungen erreichen und gleichzeitig die Abhängigkeit von ausländischen Materialien verringern. Analysten und Experten stellen die Fähigkeit in Frage, überzeugende Ergebnisse zu erzeugen, ohne auf High-End-GPUs zurückzugreifen.
Das Prinzip der MoE-Modelle
Die MoE-Modelle fragmentieren die Aufgaben in kleinere Datensätze, die von verschiedenen Komponenten verwaltet werden. Dieser Ansatz hat großes Interesse bei KI-Forschern und Data Scientists geweckt. Die Ant Group hat klar das Ziel formuliert, die Kostenbarrieren im Zusammenhang mit der Beschaffung von Hochleistungs-GPUs zu senken. Der Titel des Forschungspapiers betont: „Scaling Models without premium GPUs“.
Auswirkungen auf den KI-Sektor
Der Kurs, den die Ant Group eingeschlagen hat, steht in starkem Kontrast zu dem von Nvidia, dessen CEO Jensen Huang die Notwendigkeit einer ständigen Erhöhung der Rechenleistung betont. Die Unternehmen werden seiner Meinung nach leistungsstärkere Chips bevorzugen, was von Ants Bestreben abweicht, im Bereich der Kostenreduktion Fortschritte zu erzielen. So erweisen sich die Strategien der beiden Technologiegiganten als diametral entgegengesetzt.
Kosten für das Training von Modellen
Nach Informationen der Ant Group kostete das Training von einer Billion Tokens – den grundlegenden Einheiten, die von KI-Modellen verwendet werden – etwa 6,35 Millionen Yuan. Durch ihre optimierte Methode konnte Ant diese Ausgaben auf etwa 5,1 Millionen Yuan senken, indem sie Chips mit geringeren Spezifikationen verwendete.
Industrielle Anwendungen der KI-Modelle
Die Ant Group plant, ihre Modelle, genannt Ling-Plus und Ling-Lite, in industriellen Fällen wie Gesundheitswesen und Finanzen einzusetzen. Die Übernahme der medizinischen Plattform Haodf.com zeugt von Ants Ambition, KI-basierte Lösungen im Gesundheitswesen einzuführen. Das Unternehmen bietet auch verschiedene KI-Dienste an, darunter eine Anwendung für einen virtuellen Assistenten und eine Plattform für Finanzberatung.
Open-Source-Modelle und Schlüsselzahlen
Ling-Lite verfügt über 16,8 Milliarden Parameter, während Ling-Plus 290 Milliarden umfasst. Zum Vergleich: das geschlossene Modell GPT-4.5 würde über etwa 1,8 Billionen Parameter verfügen. Ant hat entschieden, seine Modelle als Open Source verfügbar zu machen und fördert so die Innovation im Bereich der KI.
Anhaltende Herausforderungen beim Training der Modelle
Die Forschung der Ant Group hebt hervor, dass trotz der erzielten Fortschritte das Training der Modelle eine technische Herausforderung bleibt. Kleine Anpassungen an der Architektur oder Hardware während des Trainings der Modelle können zu instabilen Leistungen führen, was Spitzen in den Fehlerquoten zur Folge hat.
Für diejenigen, die sich für die Entwicklung der KI und der Big Data interessieren, bietet die Veranstaltung AI & Big Data Expo in Amsterdam, Kalifornien und London eine interessante Gelegenheit, mit Branchenführern in Kontakt zu treten.
Häufig gestellte Fragen
Warum verwendet die Ant Group nationale Chips für ihre KI-Modelle?
Die Ant Group wendet sich nationalen Chips zu, um ihre Kosten für das KI-Training zu senken und ihre Abhängigkeit von eingeschränkter amerikanischer Technologie verringern, insbesondere als Reaktion auf die Exportbeschränkungen für bestimmte elektronische Komponenten.
Welche Arten von nationalen Chips verwendet die Ant Group für das Training ihrer Modelle?
Die Ant Group nutzt Chips von nationalen Anbietern, einschließlich solcher, die mit Alibaba und Huawei verbunden sind, um KI-Modelle unter Verwendung innovativer Methoden wie der Mixture of Experts (MoE) zu trainieren.
Hat die Ant Group es geschafft, mit nationalen Chips vergleichbare Leistungen wie die von Nvidia zu erreichen?
Ja, Berichten zufolge wären die Ergebnisse der Ant Group-Modelle, die auf nationalen Chips trainiert wurden, mit denen vergleichbar, die mit den H800-Chips von Nvidia entwickelt wurden.
Was sind die Vorteile der Verwendung nationaler Chips für KI im Vergleich zu ausländischen Chips?
Zu den Vorteilen gehören eine signifikante Reduzierung der Trainingskosten, eine erhöhte technologische Unabhängigkeit und der Umgehung von Exportbeschränkungen, die den Zugang zu Hochleistungs-Chips einschränken.
Was ist das Hauptziel der von der Ant Group verwendeten MoE-Methode?
MoE teilt die Trainingsaufgaben in kleinere Datensätze auf, die von separaten Komponenten verwaltet werden, was den Trainingsprozess effizienter und kostengünstiger macht.
Plant die Ant Group, ihre KI-Modelle in anderen Sektoren anzuwenden?
Ja, die Ant Group plant, ihre Modelle, darunter Ling-Plus und Ling-Lite, in industriellen Anwendungsfällen wie Gesundheitswesen und Finanzen einzusetzen.
Welche Auswirkungen hat das Open Source für die Modelle der Ant Group?
Indem sie ihre Modelle als Open Source zur Verfügung stellt, ermöglicht die Ant Group anderen Organisationen, ihre Arbeiten zu nutzen und zu verbessern, was die Innovation im KI-Bereich beschleunigen könnte.
Welche Herausforderungen hat die Ant Group beim Training ihrer KI-Modelle mit nationalen Chips?
Die Ant Group hat Herausforderungen in Bezug auf die Instabilität der Leistung gemeldet, wenn kleine Anpassungen an Hardware oder Struktur der Modelle vorgenommen werden, was zu Spitzen in den Fehlerquoten führen kann.
Wie unterscheidet sich die Strategie der Ant Group von der von Nvidia im Bereich KI-Training?
Während Nvidia sich darauf konzentriert, leistungsstärkere GPUs mit mehr Kernen und Speicher zu entwickeln, zielt die Ant Group darauf ab, die Trainingskosten mit Chips geringerer Spezifikationen zu senken.
Wie hoch sind die Trainingskosten für eine Billion Tokens laut den Recherchen der Ant Group?
Die Trainingskosten für eine Billion Tokens werden auf etwa 5,1 Millionen Yuan geschätzt, aufgrund der Verwendung von weniger leistungsstarken Chips, im Vergleich zu 6,35 Millionen Yuan mit herkömmlicher Hardware.