Skip to content
DeepSeek的新型高效 AI 模型挑战了行业的高成本范式
- DeepSeek的R1和V3大型语言模型(LLMs)为开源模型,且使用成本显著低于ChatGPT,其应用程序编程接口(API)成本比ChatGPT的o1低96%。
- DeepSeek的高计算效率 AI 模型在性能上与最佳模型相媲美,这对长期以来 AI 行业中认为要实现前沿大规模 AI 模型需要巨额的资金投入和强大的计算能力的观念发起了挑战。
- 虽然现在还不能预测DeepSeek未来能否成功,因为其模型正受到现有行业参与者的密切关注。但投资者现在已经开始意识到通过高效利用资源来提升性能的可能性。
- 这也可能促使 AI 行业内的参与者重新考虑当前的扩展规律以及“训练先进模型需要大量计算能力”这一假设。
- 对计算资源潜在需求的减少引发股市的即时反应,从芯片公司到电力公司,与数据中心相关的股票遭到全面抛售。
- DeepSeek的创新可能限制了部分芯片厂商的增长,尤其是NVIDIA。然而,由于成本降低可能会推动更高质量、更高成本的LLMs的开发,而且许多公司都在瞄准通用人工智能(AGI)和超智能,因此目前要量化影响还为时过早。此外,大多数参与者重申了继续执行现有资本支出计划的意向。
- 一个明显的趋势是,开源 AI 和闭源 AI 之间的差距正在缩小。DeepSeek和Meta的开源 AI 正在为像OpenAI这样的专有模型带来激烈竞争。开源LLMs在性能上接近专有模型,代表了 AI 领域的一次变革性转变。
- 作为一家中国公司,DeepSeek为这一争论增添了地缘政治因素。其关键模型发布的时机恰逢美国宣布 5000 亿美元的“星门计划”,这可能不仅仅是巧合。
- 关于DeepSeek模型训练的实际成本仍存在疑问——600万美元的成本可能并非全貌。然而,DeepSeek在训练效率和低API成本方面的成就则是显而易见的。