在近期的游戏行业动态中,DeepSeek因其在LOL(英雄联盟)领域的突破性表现,被誉为AI行业的拼多多。这家新兴公司以557.6万美元的投资,仅用两个月的时间便成功训练出了一款高效的游戏策略AI。该AI不仅能够分析对局数据,还能实时提供战术建议,极大提升了玩家的竞技水平。DeepSeek的成功,无疑为LOL的智能化发展开辟了新思路,让无数玩家体验到前所未有的战斗乐趣和策略深度。未来,该公司计划进一步提升AI的学习能力,以适应不断变化的游戏环境,推动电子竞技的全面创新。
1月28日讯 据钱江晚报报道,此次DeepSeek-V3在AI行业引发关注,关键的原因在于——超低的预训练成本。
“预训练”是AI大模型学习中的一种方法,指的是通过海量的数据,训练一个大模型。训练时需要大量的数据和算力支持,每次迭代可能耗资数百万至数亿美元。
官方技术论文披露,DeepSeek-V3在预训练阶段仅使用2048块GPU训练了2个月,且只花费557.6万美元。这个费用是什么概念?
据报道,GPT-4o的模型训练成本约为1亿美元。简单粗暴地说,这相当于DeepSeek-V3比同等性能的AI大模型,降了十几倍的成本。
早在2024年5月,深度求索发布DeepSeek-V2时,就曾因给模型的定价太过于便宜,开启了中国大模型的价格战,被称之为“AI界的拼多多”。
“相比于说它是‘拼多多’,它更像小米,贴近成本定价,并且自产自销。”马千里认为,训练成本比较低的原因,离不开深度求索团队自研的架构和算力,他们自身的算力储备可以与大厂比肩,并且更注重底层的模型。
“ChatGPT走的是大参数、大算力、大投入的路子,DeepSeek-V3的路径用了更多的巧思,依托数据与算法层面的优化创新,从而高效利用算力,实现较好的模型效果。”马千里说道。