外媒:总理接见DeepSeek,让中国赶超美国AGI
DeepSeek-V3展示给外界的教训是:在美国人休息时,中国人在工作,并以更便宜、更快、更强的产品迎头赶上。
多快好省是deepseek给外界的印象,让西方开始反思,之前的投入是不是对的?是不是被技术资本忽悠了,走了弯路,为什么西方投入越大,成果越来越少,反而东大投入越来越小,突破越来越大。
性能超越:DeepSeek-V3在多个Benchmark测试中超越了尚未面世的4o。例如在一些标准测试中,展现出了强大的语言处理能力和生成能力,在算法类和工程类代码场景下也超越了Meta的Llama3.1-405B。
成本优势:DeepSeek训练DeepSeek-V3仅花费约550万美元,而GPT-4o等模型的训练成本约为1亿美元,Llama 3.1训练成本超过6000万美元。相比之下,Meta在研发和投入上属于高投资、高成本模式,这让Meta不得不反思自身投资战略。
Meta的反应:Meta内部出现了恐慌情绪,工程师们开始紧急拆解DeepSeek的技术方案,试图复制其成功要素。
Meta首席执行官马克·扎克伯格宣布2025年将AI投资预算提升至600亿至650亿美元,主要集中在增强AI算力和扩大人才队伍上,目标是年底前拥有130万块GPU,这个预算是否是正确的。
西方和东方大厂25年预算规划是否合理?把全年绝大多数利润投入到算力建设是否是正确决策?!投入问题在deepseek成功之后,成为高层要考虑的核心问题,毕竟地主家余粮也不多了。
声明:该文仅代表作者本人观点,欢迎在下方【顶/踩】按钮中亮出您的态度。