Ant Group 正在通过将 本地芯片 集成到其技术生态系统中,彻底改变人工智能行业。该策略旨在降低模型训练的成本,同时减轻对受限美国技术的依赖。使用创新方法如 专家混合(Mixture of Experts) 是中国企业的重大突破。Ant Group 正在应对特定资源获取的挑战,从而推动人工智能的重大演变。初步结果显示,未来中国企业可以与技术主导国家竞争。
使用中国芯片训练AI模型
Ant Group 采取大胆策略,转向 本地芯片 来训练其人工智能模型。此项举措响应了减少成本及降低对受限美国技术依赖的需要。已披露的消息称,该公司已经在其模型训练流程中集成了国内供应商的芯片,包括与阿里巴巴和华为相关的芯片。
与Nvidia的性能可比
Ant Group 使用 专家混合(MoE) 方法训练的模型结果,已与 Nvidia 的 H800 芯片性能相当。尽管该公司依然使用某些 Nvidia 芯片进行人工智能开发,但它越来越多地探索 AMD 和中国芯片制造商提供的替代方案。这种多样化反映了 Ant 参与中美科技公司日益激烈竞争的承诺。
降低成本的进展
Ant Group 发布的一份研究文件详细说明,其模型在某些情况下超越了 Meta 的创作,这对于公司来说是显著的进展。如果模型性能得到证明,Ant 可能在减少人工智能应用执行成本上迈出新的一步,同时降低对外国硬件的依赖。分析师和专家对在不使用 高端GPU 的情况下实现可验证结果的能力表示关注。
MoE模型的原理
MoE模型将任务分解为更小的数据集,由不同的组件管理。这种方法在人工智能研究人员和数据科学家中引起了广泛关注。Ant Group 清晰地确定了 降低高性能GPU获取成本的障碍。研究文件标题强调:“在没有高级GPU的情况下扩展模型”。
对AI行业的影响
Ant Group 的发展方向与 Nvidia 的方向形成了鲜明对比,后者的首席执行官 Jensen Huang 强调计算能力的持续提升是必要的。他认为公司将优先选择更强大的芯片,这与 Ant 在降低成本方面的追求背道而驰。因此,这两家科技巨头的战略显然截然相反。
训练模型的成本
根据 Ant 透露的信息,训练一万亿个 token —— 人工智能模型使用的基本单位 —— 的成本约为635万元人民币。通过其优化的方法,Ant 已成功将这一支出降低到510万元人民币,并使用了 较低规格的芯片。
AI模型的工业应用
Ant 计划将其名为 Ling-Plus 和 Ling-Lite 的模型应用于健康和金融等工业应用案例。收购医疗平台 Haodf.com 证明了 Ant 在健康行业部署基于AI的解决方案的雄心。该公司还提供多种人工智能服务,包括虚拟助手应用程序和财务咨询平台。
开源模型和关键数字
Ling-Lite 拥有 168 亿个参数,而 Ling-Plus 则有 2900 亿个参数。作为对比,现已关闭的 GPT-4.5 模型大约拥有 1.8 万亿个参数。Ant 决定将其模型开源,从而推动人工智能领域的创新。
训练模型中的持续挑战
Ant 的研究强调,尽管取得了进展,模型训练仍然是一个技术挑战。在模型训练期间,架构或硬件的微小调整可能导致性能不稳定,产生错误率的高峰。
对于那些关注人工智能和大数据演变的人来说,在阿姆斯特丹、加利福尼亚和伦敦举行的 AI & Big Data Expo 是与行业领导者互动的绝佳机会。
常见问题解答
为什么 Ant Group 为其 AI 模型使用本地芯片?
Ant Group 转向本地芯片以减少其人工智能训练成本,并降低对美国受限技术的依赖,特别是在对某些电子组件的出口限制的情况下。
Ant Group 使用哪种类型的本地芯片来训练其模型?
Ant Group 使用来自国内供应商的芯片,包括与阿里巴巴和华为相关的芯片,以利用创新方法如专家混合(MoE)来训练人工智能模型。
Ant Group 是否成功利用本地芯片达到了与 Nvidia 芯片相当的性能?
是的,根据消息来源,Ant Group 在本地芯片上训练的模型结果与使用 Nvidia H800 芯片开发的模型可相媲美。
使用本地芯片进行人工智能开发相较于外国芯片有什么优势?
优势包括显著降低训练成本、增强技术独立性以及规避限制出口的技术限制,这些限制限制了高性能芯片的获取。
Ant Group 使用的专家混合(MoE)方法的主要目标是什么?
MoE 将训练任务分为更小的数据集,由不同的组件管理,从而使培训过程更高效、成本更低。
Ant Group 是否计划将其 AI 模型应用于其他行业?
是的,Ant Group 计划将其模型(尤其是 Ling-Plus 和 Ling-Lite)应用于行业案例,如健康和金融。
开源对 Ant Group 模型的含义是什么?
通过开源其模型,Ant Group 允许其他组织使用和改进其工作,这可能会加速人工智能领域的创新。
Ant Group 在使用本地芯片训练其AI模型时遇到了哪些挑战?
Ant Group 报告了在训练模型时硬件或结构的微小调整导致性能不稳定的问题,这可能会导致错误率的高峰。
Ant Group 的策略与 Nvidia 在人工智能训练方面的策略有何不同?
而 Nvidia 专注于开发更强大的 GPU,具有更多的核心和内存,Ant Group 则致力于通过使用低规格芯片来降低训练成本。
根据 Ant Group 的研究,训练一万亿个 token 的成本是多少?
根据使用低性能芯片后的估计,训练一万亿个 token 的成本约为510万元人民币,相较于传统硬件的 635 万元人民币有所降低。