Ant Group stützt sich auf nationale Chips, um seine KI-Modelle zu trainieren und seine Kosten zu senken

Publié le 4 April 2025 à 09h16
modifié le 4 April 2025 à 09h16

Die Ant Group revolutioniert den KI-Sektor, indem sie nationale Chips in ihr technisches Ökosystem integriert. Diese Strategie zielt darauf ab, die Kosten für das Training von Modellen zu senken und die Abhängigkeit von eingeschränkter amerikanischer Technologie zu verringern. Der Einsatz innovativer Methoden wie Mixture of Experts stellt einen bedeutenden Fortschritt für chinesische Unternehmen dar. Die Ant Group geht die Herausforderungen der Zugänglichkeit zu spezifischen Ressourcen an und initiiert somit eine grundlegende evolutionäre Veränderung in der künstlichen Intelligenz. Die vorläufigen Ergebnisse lassen auf eine Zukunft schließen, in der chinesische Unternehmen mit Ländern dominierender Technologien konkurrieren können.

Einsatz von chinesischen Chips für das Training von KI-Modellen

Die Ant Group verfolgt eine mutige Strategie, indem sie sich für nationale Chips entscheidet, um ihre Modelle der künstlichen Intelligenz zu trainieren. Diese Initiative reagiert auf den Bedarf, die Kosten zu senken und die Abhängigkeit von eingeschränkter amerikanischer Technologie zu verringern. Berichten zufolge hat das Unternehmen bereits Chips von inländischen Anbietern, einschließlich derjenigen von Alibaba und Huawei Technologies, in seinen Trainingsprozess integriert.

Leistung vergleichbar mit Nvidia

Die Ergebnisse der Modelle der Ant Group, die unter Verwendung der Mixture of Experts (MoE)-Methode erstellt wurden, konkurrieren bereits mit der Leistung der H800-Chips von Nvidia. Obwohl das Unternehmen weiterhin einige Nvidia-Chips für seine KI-Entwicklungen verwendet, erkundet es zunehmend Alternativen, die von AMD und chinesischen Chip-Herstellern angeboten werden. Diese Diversifizierung unterstreicht das Engagement der Ant Group im zunehmenden Wettbewerb zwischen chinesischen und amerikanischen Technologieunternehmen.

Fortschritte bei der Kostenreduktion

Die Ant Group hat ein Forschungspapier veröffentlicht, das zeigt, dass ihre Modelle manchmal die Kreationen von Meta übertreffen, was einen bedeutenden Fortschritt für das Unternehmen darstellt. Sollten sich die Leistungen der Modelle bestätigen, könnte die Ant Group einen neuen Schritt in der Reduzierung der Kosten für die Ausführung von KI-Anwendungen erreichen und gleichzeitig die Abhängigkeit von ausländischen Materialien verringern. Analysten und Experten stellen die Fähigkeit in Frage, überzeugende Ergebnisse zu erzeugen, ohne auf High-End-GPUs zurückzugreifen.

Das Prinzip der MoE-Modelle

Die MoE-Modelle fragmentieren die Aufgaben in kleinere Datensätze, die von verschiedenen Komponenten verwaltet werden. Dieser Ansatz hat großes Interesse bei KI-Forschern und Data Scientists geweckt. Die Ant Group hat klar das Ziel formuliert, die Kostenbarrieren im Zusammenhang mit der Beschaffung von Hochleistungs-GPUs zu senken. Der Titel des Forschungspapiers betont: „Scaling Models without premium GPUs“.

Auswirkungen auf den KI-Sektor

Der Kurs, den die Ant Group eingeschlagen hat, steht in starkem Kontrast zu dem von Nvidia, dessen CEO Jensen Huang die Notwendigkeit einer ständigen Erhöhung der Rechenleistung betont. Die Unternehmen werden seiner Meinung nach leistungsstärkere Chips bevorzugen, was von Ants Bestreben abweicht, im Bereich der Kostenreduktion Fortschritte zu erzielen. So erweisen sich die Strategien der beiden Technologiegiganten als diametral entgegengesetzt.

Kosten für das Training von Modellen

Nach Informationen der Ant Group kostete das Training von einer Billion Tokens – den grundlegenden Einheiten, die von KI-Modellen verwendet werden – etwa 6,35 Millionen Yuan. Durch ihre optimierte Methode konnte Ant diese Ausgaben auf etwa 5,1 Millionen Yuan senken, indem sie Chips mit geringeren Spezifikationen verwendete.

Industrielle Anwendungen der KI-Modelle

Die Ant Group plant, ihre Modelle, genannt Ling-Plus und Ling-Lite, in industriellen Fällen wie Gesundheitswesen und Finanzen einzusetzen. Die Übernahme der medizinischen Plattform Haodf.com zeugt von Ants Ambition, KI-basierte Lösungen im Gesundheitswesen einzuführen. Das Unternehmen bietet auch verschiedene KI-Dienste an, darunter eine Anwendung für einen virtuellen Assistenten und eine Plattform für Finanzberatung.

Open-Source-Modelle und Schlüsselzahlen

Ling-Lite verfügt über 16,8 Milliarden Parameter, während Ling-Plus 290 Milliarden umfasst. Zum Vergleich: das geschlossene Modell GPT-4.5 würde über etwa 1,8 Billionen Parameter verfügen. Ant hat entschieden, seine Modelle als Open Source verfügbar zu machen und fördert so die Innovation im Bereich der KI.

Anhaltende Herausforderungen beim Training der Modelle

Die Forschung der Ant Group hebt hervor, dass trotz der erzielten Fortschritte das Training der Modelle eine technische Herausforderung bleibt. Kleine Anpassungen an der Architektur oder Hardware während des Trainings der Modelle können zu instabilen Leistungen führen, was Spitzen in den Fehlerquoten zur Folge hat.

Für diejenigen, die sich für die Entwicklung der KI und der Big Data interessieren, bietet die Veranstaltung AI & Big Data Expo in Amsterdam, Kalifornien und London eine interessante Gelegenheit, mit Branchenführern in Kontakt zu treten.

Häufig gestellte Fragen

Warum verwendet die Ant Group nationale Chips für ihre KI-Modelle?
Die Ant Group wendet sich nationalen Chips zu, um ihre Kosten für das KI-Training zu senken und ihre Abhängigkeit von eingeschränkter amerikanischer Technologie verringern, insbesondere als Reaktion auf die Exportbeschränkungen für bestimmte elektronische Komponenten.

Welche Arten von nationalen Chips verwendet die Ant Group für das Training ihrer Modelle?
Die Ant Group nutzt Chips von nationalen Anbietern, einschließlich solcher, die mit Alibaba und Huawei verbunden sind, um KI-Modelle unter Verwendung innovativer Methoden wie der Mixture of Experts (MoE) zu trainieren.

Hat die Ant Group es geschafft, mit nationalen Chips vergleichbare Leistungen wie die von Nvidia zu erreichen?
Ja, Berichten zufolge wären die Ergebnisse der Ant Group-Modelle, die auf nationalen Chips trainiert wurden, mit denen vergleichbar, die mit den H800-Chips von Nvidia entwickelt wurden.

Was sind die Vorteile der Verwendung nationaler Chips für KI im Vergleich zu ausländischen Chips?
Zu den Vorteilen gehören eine signifikante Reduzierung der Trainingskosten, eine erhöhte technologische Unabhängigkeit und der Umgehung von Exportbeschränkungen, die den Zugang zu Hochleistungs-Chips einschränken.

Was ist das Hauptziel der von der Ant Group verwendeten MoE-Methode?
MoE teilt die Trainingsaufgaben in kleinere Datensätze auf, die von separaten Komponenten verwaltet werden, was den Trainingsprozess effizienter und kostengünstiger macht.

Plant die Ant Group, ihre KI-Modelle in anderen Sektoren anzuwenden?
Ja, die Ant Group plant, ihre Modelle, darunter Ling-Plus und Ling-Lite, in industriellen Anwendungsfällen wie Gesundheitswesen und Finanzen einzusetzen.

Welche Auswirkungen hat das Open Source für die Modelle der Ant Group?
Indem sie ihre Modelle als Open Source zur Verfügung stellt, ermöglicht die Ant Group anderen Organisationen, ihre Arbeiten zu nutzen und zu verbessern, was die Innovation im KI-Bereich beschleunigen könnte.

Welche Herausforderungen hat die Ant Group beim Training ihrer KI-Modelle mit nationalen Chips?
Die Ant Group hat Herausforderungen in Bezug auf die Instabilität der Leistung gemeldet, wenn kleine Anpassungen an Hardware oder Struktur der Modelle vorgenommen werden, was zu Spitzen in den Fehlerquoten führen kann.

Wie unterscheidet sich die Strategie der Ant Group von der von Nvidia im Bereich KI-Training?
Während Nvidia sich darauf konzentriert, leistungsstärkere GPUs mit mehr Kernen und Speicher zu entwickeln, zielt die Ant Group darauf ab, die Trainingskosten mit Chips geringerer Spezifikationen zu senken.

Wie hoch sind die Trainingskosten für eine Billion Tokens laut den Recherchen der Ant Group?
Die Trainingskosten für eine Billion Tokens werden auf etwa 5,1 Millionen Yuan geschätzt, aufgrund der Verwendung von weniger leistungsstarken Chips, im Vergleich zu 6,35 Millionen Yuan mit herkömmlicher Hardware.

actu.iaNon classéAnt Group stützt sich auf nationale Chips, um seine KI-Modelle zu trainieren...

Des Passanten, die von einem etwas zu ehrlichen KI-Werbeschild schockiert sind

des passants ont été surpris en découvrant un panneau publicitaire généré par l’ia, dont le message étonnamment honnête a suscité de nombreuses réactions. découvrez les détails de cette campagne originale qui n’a laissé personne indifférent.

Apple beginnt mit dem Versand eines Flaggschiffprodukts, das in Texas hergestellt wurde

apple débute l’expédition de son produit phare fabriqué au texas, renforçant sa présence industrielle américaine. découvrez comment cette initiative soutient l’innovation locale et la production nationale.
plongez dans les coulisses du fameux vol au louvre grâce au témoignage captivant du photographe derrière le cliché viral. entre analyse à la sherlock holmes et usage de l'intelligence artificielle, découvrez les secrets de cette image qui a fait le tour du web.

Ein innovatives Unternehmen auf der Suche nach Mitarbeitern mit klaren und transparenten Werten

rejoignez une entreprise innovante qui recherche des employés partageant des valeurs claires et transparentes. participez à une équipe engagée où intégrité, authenticité et esprit d'innovation sont au cœur de chaque projet !

Die Europäische Union: Eine vorsichtige Regulierung gegenüber den amerikanischen Big-Tech-Riesen

découvrez comment l'union européenne impose une régulation stricte et réfléchie aux grandes entreprises technologiques américaines, afin de protéger les consommateurs et d’assurer une concurrence équitable sur le marché numérique.

Des schmeichelnden Chatbots: Eine Studie zeigt, dass KI sich an die Wünsche der Nutzer anpasst

découvrez comment une nouvelle étude démontre que les chatbots intelligents modifient leurs réponses pour flatter et satisfaire les attentes des utilisateurs, révélant ainsi une facette surprenante de l'adaptabilité de l'ia.