Ant Group stützt sich auf nationale Chips, um seine KI-Modelle zu trainieren und seine Kosten zu senken

Publié le 4 April 2025 à 09h16
modifié le 4 April 2025 à 09h16

Die Ant Group revolutioniert den KI-Sektor, indem sie nationale Chips in ihr technisches Ökosystem integriert. Diese Strategie zielt darauf ab, die Kosten für das Training von Modellen zu senken und die Abhängigkeit von eingeschränkter amerikanischer Technologie zu verringern. Der Einsatz innovativer Methoden wie Mixture of Experts stellt einen bedeutenden Fortschritt für chinesische Unternehmen dar. Die Ant Group geht die Herausforderungen der Zugänglichkeit zu spezifischen Ressourcen an und initiiert somit eine grundlegende evolutionäre Veränderung in der künstlichen Intelligenz. Die vorläufigen Ergebnisse lassen auf eine Zukunft schließen, in der chinesische Unternehmen mit Ländern dominierender Technologien konkurrieren können.

Einsatz von chinesischen Chips für das Training von KI-Modellen

Die Ant Group verfolgt eine mutige Strategie, indem sie sich für nationale Chips entscheidet, um ihre Modelle der künstlichen Intelligenz zu trainieren. Diese Initiative reagiert auf den Bedarf, die Kosten zu senken und die Abhängigkeit von eingeschränkter amerikanischer Technologie zu verringern. Berichten zufolge hat das Unternehmen bereits Chips von inländischen Anbietern, einschließlich derjenigen von Alibaba und Huawei Technologies, in seinen Trainingsprozess integriert.

Leistung vergleichbar mit Nvidia

Die Ergebnisse der Modelle der Ant Group, die unter Verwendung der Mixture of Experts (MoE)-Methode erstellt wurden, konkurrieren bereits mit der Leistung der H800-Chips von Nvidia. Obwohl das Unternehmen weiterhin einige Nvidia-Chips für seine KI-Entwicklungen verwendet, erkundet es zunehmend Alternativen, die von AMD und chinesischen Chip-Herstellern angeboten werden. Diese Diversifizierung unterstreicht das Engagement der Ant Group im zunehmenden Wettbewerb zwischen chinesischen und amerikanischen Technologieunternehmen.

Fortschritte bei der Kostenreduktion

Die Ant Group hat ein Forschungspapier veröffentlicht, das zeigt, dass ihre Modelle manchmal die Kreationen von Meta übertreffen, was einen bedeutenden Fortschritt für das Unternehmen darstellt. Sollten sich die Leistungen der Modelle bestätigen, könnte die Ant Group einen neuen Schritt in der Reduzierung der Kosten für die Ausführung von KI-Anwendungen erreichen und gleichzeitig die Abhängigkeit von ausländischen Materialien verringern. Analysten und Experten stellen die Fähigkeit in Frage, überzeugende Ergebnisse zu erzeugen, ohne auf High-End-GPUs zurückzugreifen.

Das Prinzip der MoE-Modelle

Die MoE-Modelle fragmentieren die Aufgaben in kleinere Datensätze, die von verschiedenen Komponenten verwaltet werden. Dieser Ansatz hat großes Interesse bei KI-Forschern und Data Scientists geweckt. Die Ant Group hat klar das Ziel formuliert, die Kostenbarrieren im Zusammenhang mit der Beschaffung von Hochleistungs-GPUs zu senken. Der Titel des Forschungspapiers betont: „Scaling Models without premium GPUs“.

Auswirkungen auf den KI-Sektor

Der Kurs, den die Ant Group eingeschlagen hat, steht in starkem Kontrast zu dem von Nvidia, dessen CEO Jensen Huang die Notwendigkeit einer ständigen Erhöhung der Rechenleistung betont. Die Unternehmen werden seiner Meinung nach leistungsstärkere Chips bevorzugen, was von Ants Bestreben abweicht, im Bereich der Kostenreduktion Fortschritte zu erzielen. So erweisen sich die Strategien der beiden Technologiegiganten als diametral entgegengesetzt.

Kosten für das Training von Modellen

Nach Informationen der Ant Group kostete das Training von einer Billion Tokens – den grundlegenden Einheiten, die von KI-Modellen verwendet werden – etwa 6,35 Millionen Yuan. Durch ihre optimierte Methode konnte Ant diese Ausgaben auf etwa 5,1 Millionen Yuan senken, indem sie Chips mit geringeren Spezifikationen verwendete.

Industrielle Anwendungen der KI-Modelle

Die Ant Group plant, ihre Modelle, genannt Ling-Plus und Ling-Lite, in industriellen Fällen wie Gesundheitswesen und Finanzen einzusetzen. Die Übernahme der medizinischen Plattform Haodf.com zeugt von Ants Ambition, KI-basierte Lösungen im Gesundheitswesen einzuführen. Das Unternehmen bietet auch verschiedene KI-Dienste an, darunter eine Anwendung für einen virtuellen Assistenten und eine Plattform für Finanzberatung.

Open-Source-Modelle und Schlüsselzahlen

Ling-Lite verfügt über 16,8 Milliarden Parameter, während Ling-Plus 290 Milliarden umfasst. Zum Vergleich: das geschlossene Modell GPT-4.5 würde über etwa 1,8 Billionen Parameter verfügen. Ant hat entschieden, seine Modelle als Open Source verfügbar zu machen und fördert so die Innovation im Bereich der KI.

Anhaltende Herausforderungen beim Training der Modelle

Die Forschung der Ant Group hebt hervor, dass trotz der erzielten Fortschritte das Training der Modelle eine technische Herausforderung bleibt. Kleine Anpassungen an der Architektur oder Hardware während des Trainings der Modelle können zu instabilen Leistungen führen, was Spitzen in den Fehlerquoten zur Folge hat.

Für diejenigen, die sich für die Entwicklung der KI und der Big Data interessieren, bietet die Veranstaltung AI & Big Data Expo in Amsterdam, Kalifornien und London eine interessante Gelegenheit, mit Branchenführern in Kontakt zu treten.

Häufig gestellte Fragen

Warum verwendet die Ant Group nationale Chips für ihre KI-Modelle?
Die Ant Group wendet sich nationalen Chips zu, um ihre Kosten für das KI-Training zu senken und ihre Abhängigkeit von eingeschränkter amerikanischer Technologie verringern, insbesondere als Reaktion auf die Exportbeschränkungen für bestimmte elektronische Komponenten.

Welche Arten von nationalen Chips verwendet die Ant Group für das Training ihrer Modelle?
Die Ant Group nutzt Chips von nationalen Anbietern, einschließlich solcher, die mit Alibaba und Huawei verbunden sind, um KI-Modelle unter Verwendung innovativer Methoden wie der Mixture of Experts (MoE) zu trainieren.

Hat die Ant Group es geschafft, mit nationalen Chips vergleichbare Leistungen wie die von Nvidia zu erreichen?
Ja, Berichten zufolge wären die Ergebnisse der Ant Group-Modelle, die auf nationalen Chips trainiert wurden, mit denen vergleichbar, die mit den H800-Chips von Nvidia entwickelt wurden.

Was sind die Vorteile der Verwendung nationaler Chips für KI im Vergleich zu ausländischen Chips?
Zu den Vorteilen gehören eine signifikante Reduzierung der Trainingskosten, eine erhöhte technologische Unabhängigkeit und der Umgehung von Exportbeschränkungen, die den Zugang zu Hochleistungs-Chips einschränken.

Was ist das Hauptziel der von der Ant Group verwendeten MoE-Methode?
MoE teilt die Trainingsaufgaben in kleinere Datensätze auf, die von separaten Komponenten verwaltet werden, was den Trainingsprozess effizienter und kostengünstiger macht.

Plant die Ant Group, ihre KI-Modelle in anderen Sektoren anzuwenden?
Ja, die Ant Group plant, ihre Modelle, darunter Ling-Plus und Ling-Lite, in industriellen Anwendungsfällen wie Gesundheitswesen und Finanzen einzusetzen.

Welche Auswirkungen hat das Open Source für die Modelle der Ant Group?
Indem sie ihre Modelle als Open Source zur Verfügung stellt, ermöglicht die Ant Group anderen Organisationen, ihre Arbeiten zu nutzen und zu verbessern, was die Innovation im KI-Bereich beschleunigen könnte.

Welche Herausforderungen hat die Ant Group beim Training ihrer KI-Modelle mit nationalen Chips?
Die Ant Group hat Herausforderungen in Bezug auf die Instabilität der Leistung gemeldet, wenn kleine Anpassungen an Hardware oder Struktur der Modelle vorgenommen werden, was zu Spitzen in den Fehlerquoten führen kann.

Wie unterscheidet sich die Strategie der Ant Group von der von Nvidia im Bereich KI-Training?
Während Nvidia sich darauf konzentriert, leistungsstärkere GPUs mit mehr Kernen und Speicher zu entwickeln, zielt die Ant Group darauf ab, die Trainingskosten mit Chips geringerer Spezifikationen zu senken.

Wie hoch sind die Trainingskosten für eine Billion Tokens laut den Recherchen der Ant Group?
Die Trainingskosten für eine Billion Tokens werden auf etwa 5,1 Millionen Yuan geschätzt, aufgrund der Verwendung von weniger leistungsstarken Chips, im Vergleich zu 6,35 Millionen Yuan mit herkömmlicher Hardware.

actu.iaNon classéAnt Group stützt sich auf nationale Chips, um seine KI-Modelle zu trainieren...

Kay Firth-Butterfield, ehemalige der WEF: die Zukunft von KI, Metaversum und digitaler Transformation

découvrez l'expertise de kay firth-butterfield, ancienne responsable au wef, qui partage sa vision sur l'avenir de l'intelligence artificielle, du métavers et de la transformation numérique. explorez les tendances qui façonneront notre monde digital de demain.

OpenAI arbeitet an einem personalisierteren ChatGPT dank einer neuen Speicherfunktion

découvrez comment openai améliore l'expérience utilisateur avec chatgpt en introduisant une fonction de mémoire, rendant les interactions plus personnalisées et adaptées à vos besoins. plongez dans l'avenir de l'intelligence artificielle et explorez les possibilités offertes par cette innovation.

Wie bewertet die KI? Anthropic untersucht die Werte von Claude

découvrez comment l'intelligence artificielle évalue les valeurs humaines à travers l'exploration des modèles de claude par anthropic. plongez dans les mécanismes de décision et d'éthique qui façonnent l'avenir de l'ia.

Ein neues Modell sagt den Punkt ohne Wiederkehr einer chemischen Reaktion voraus

découvrez comment un nouveau modèle révolutionnaire prédit le point de non-retour d'une réaction chimique, offrant des perspectives inédites pour la recherche en chimie et les applications industrielles. explorez les implications de cette avancée dans la compréhension des réactions chimiques complexes.

Die Begegnung zwischen Taktile und Technologie: KI führt fühlbare Texturen in 3D-gedruckte Objekte ein

découvrez comment l'intelligence artificielle révolutionne l'impression 3d en intégrant des textures palpables, offrant ainsi une nouvelle dimension tactile aux objets. plongez dans l'univers innovant où technologie et sensation se rencontrent pour transformer notre expérience d'interaction avec les créations numériques.
découvrez comment une licence collective peut assurer une rémunération équitable pour les auteurs britanniques dont les œuvres sont utilisées dans l'entraînement des intelligences artificielles, protégeant ainsi leurs droits d'auteur tout en favorisant l'innovation.