Ant Groupは、国内チップを自社のテクノロジーエコシステムに組み込むことで、AI業界を革新しています。この戦略は、モデルのトレーニングコストを削減し、制限されたアメリカのテクノロジーへの依存を軽減することを目的としています。Mixture of Expertsのような革新的な手法の導入は、中国企業にとって大きな進展を示しています。Ant Groupは、特定の資源へのアクセスの課題に取り組むことで、人工知能における重要な進化の始まりを告げています。予備的な結果は、中国企業が技術が優位な国々と競争できる未来を予見させます。
AIモデルのトレーニングにおける中国チップの利用
Ant Groupは、AIモデルのトレーニングに国内チップを使用するという大胆な戦略を採用しています。この取り組みは、コスト削減と制限されたアメリカ技術への依存を減らす必要に応じています。確認された情報によると、同社はすでにAlibabaやHuawei Technologiesに関連する国内サプライヤーのチップをトレーニングプロセスに組み込んでいます。
Nvidiaと同等のパフォーマンス
Ant Groupのモデルの結果は、Mixture of Experts (MoE)メソッドの使用により、すでにNvidiaのH800チップのパフォーマンスに匹敵します。企業は依然としてAI開発にNvidiaのチップを使用していますが、AMDや中国のチップメーカーが提供する代替品の探求を進めています。この多様化は、Antが中国企業とアメリカ企業の間で高まる競争への取り組みを強調しています。
コスト削減の進展
Ant Groupは、同社のモデルが時折Metaの生成物を超えていることを詳細に示す研究文書を発表しました。モデルのパフォーマンスが確認されれば、AntはAIアプリケーションの実行に関連するコストを削減する新たなステップを踏むことができ、外国のハードウェアへの依存を減らすことができます。アナリストや専門家は、高級GPUを使用せずに有意な結果を生産する能力について疑問を呈しています。
MoEモデルの原理
MoEモデルは、タスクを小さなデータセットに分割し、異なるコンポーネントによって管理します。このアプローチは、AI研究者やデータサイエンティストの間で大きな関心を呼んでいます。Ant Groupは、ハイパフォーマンスのGPUの取得に関連するコストの壁を削減することを明確に目指しています。研究文書のタイトルには「Scaling Models without premium GPUs」と記されています。
AI業界への影響
Ant Groupが取っている戦略は、NvidiaのCEOであるJensen Huangが継続的な計算能力の向上の必要性を強調していることと深く対照を成しています。彼によれば、企業はより強力なチップを優先するとのことですが、Antはコスト削減を求めて前進しようとしています。このように、二つのテクノロジーの巨人の戦略は真逆の方向にあります。
モデルのトレーニングコスト
Ant Groupによると、AIモデルで使用される基本単位である1兆トークンのトレーニングには約635万人民元の費用がかかっていました。最適化されたメソッドのおかげで、Antはこの費用を約510万人民元に削減することに成功し、仕様の低いチップを使用しています。
AIモデルの産業用途
Antは、Ling-PlusおよびLing-Liteと名付けられたモデルを、医療や金融などの産業用途に適用することを計画しています。医療プラットフォームHaodf.comの買収は、Antが健康分野でAIベースのソリューションを展開する意欲を示しています。同社はまた、バーチャルアシスタントアプリや金融コンサルティングプラットフォームなど、さまざまなAIサービスも提供しています。
オープンソースモデルと重要な数字
Ling-Liteは168億のパラメータを持ち、Ling-Plusは2900億のパラメータを持っています。比較のために言えば、現在閉じられているGPT-4.5モデルは約1.8兆のパラメータを持っているとされています。Antは自社のモデルをオープンソース化することを決定し、AI分野の革新を促進しています。
モデルのトレーニングにおける依然としての課題
Antの研究は、進展があったにもかかわらず、モデルのトレーニングが技術的な挑戦であることを強調しています。トレーニング中にモデルのアーキテクチャやハードウェアに軽微な調整を加えることで、パフォーマンスが不安定になり、エラー率の急激な上昇を引き起こすことがあります。
AIとビッグデータの進化に関心のある方にとって、カリフォルニアとロンドンで開催されるAI & Big Data Expoは、業界のリーダーとの交流のための興味深い機会を提供します。
よくある質問
Ant GroupはなぜAIモデルに国内チップを使用しているのですか?
Ant Groupは、AIトレーニングのコストを削減し、制限されたアメリカ技術への依存を減らすために国内チップに目を向けています。これは、一部の電子部品の輸出に対する制限に対する対応としてもなっています。
Ant Groupはどのような国内チップをAIモデルのトレーニングに使用していますか?
Ant Groupは、AlibabaやHuaweiに関連する国内サプライヤーのチップを使用し、Mixture of Experts (MoE)のような革新的な方法でAIモデルをトレーニングしています。
Ant Groupは国内チップでNvidiaのチップと同等のパフォーマンスを達成しましたか?
はい、情報筋によると、Ant Groupの国内チップでトレーニングされたモデルの結果はNvidiaのH800チップで開発されたものと同等であるとされています。
国内チップをAIに使用することの利点は何ですか?
利点には、トレーニングコストの大幅な削減、技術的な独立性の向上、ハイパフォーマンスのチップへのアクセスを制限する輸出規制の回避が含まれます。
Ant Groupが使用しているMixture of Experts (MoE)メソッドの主な目的は何ですか?
MoEは、トレーニングタスクを異なるコンポーネントで管理される小さなデータセットに分割することで、トレーニングプロセスをより効率的でコスト効果の高いものにします。
Ant Groupは他の分野にAIモデルを適用する予定ですか?
はい、Ant GroupはLing-PlusやLing-Liteを医療や金融などの産業用途に適用することを計画しています。
Ant Groupのモデルに対するオープンソースの意味は何ですか?
自社のモデルをオープンソースにすることで、Ant Groupは他の組織がその成果を利用し、改良することを可能にし、AI分野の革新を加速する可能性があります。
国内チップでAIモデルをトレーニングする際のAnt Groupの課題は何ですか?
Ant Groupは、モデルのハードウェアや構造に小さな調整を加えた際のパフォーマンスの不安定性の課題を報告しており、これがエラー率の急激な上昇を引き起こす可能性があります。
Ant GroupのAIトレーニング戦略はNvidiaとどのように異なりますか?
Nvidiaがより多くのコアやメモリを持つより強力なGPUの開発に重点を置いているのに対し、Ant Groupは仕様の低いチップを使用してトレーニングコストを削減することを目指しています。
Ant Groupによると、1兆トークンのトレーニングコストはどの程度ですか?
1兆トークンのトレーニングコストは、従来のハードウェアを使用した場合の635万人民元に対して、低性能なチップを使用することで510万人民元となると推定されています。