2025-11-18
国产模型低成本突围
微博Vibe Thinker以7800美元后训练成本、15亿参数在数学等任务上超越DeepSeek R1;国产Kimi K2接入Perplexity,显示中国团队凭数据与工程优化实现“小参数、高性能”的低成本突围,冲击海外大模型性价比格局。
2025-10-15
大模型训练范式革新
谷歌、腾讯、斯坦福等相继提出“无需微调”或“极低成本”即可让大模型自我进化的新框架,标志传统重训练/微调模式正在被上下文学习、自我改进、无训练优化颠覆,显著降低算力与资金门槛,将加速模型平民化与行业落地。
2025-09-18
大模型科研突破与Nature封面
DeepSeek-R1成为首篇登上《Nature》封面的国产大模型论文,训练成本仅29.4万美元,通过强化学习实现高效推理,标志着中国大模型研究获得国际顶级学术认可,为低成本高性能模型树立新标杆。
2025-05-16
模型架构与训练效率突破
DeepSeek-V3 论文公开低成本训练细节,MiniMax Speech-02 登顶 TTS 榜单,字节 Seed 提出 AttentionInfluence 数据筛选,港科大-vivo PreSelect 提升数据效率 10 倍,共同推高大模型性能天花板并降低算力门槛。
2025-04-14
国产开源模型集体爆发
过去一周,清华、上海AI Lab、昆仑万维、字节、月之暗面等密集开源推理或多模态大模型,32B以内参数即可对标甚至超越GPT-4o,训练成本降至百元级,标志国产大模型进入“小而强”时代,大幅降低落地门槛并重塑全球竞争格局。
2025-03-14
开源视频生成大爆发
Open-Sora 2.0以11B参数、224张GPU、20万美元成本开源复现百万美元级闭源效果,训练成本降低10倍,推动视频AIGC进入“平民化”时代,加速内容创作与广告营销变革。
2025-02-07
低成本推理范式
李飞飞、上交等团队用不足1K样本+预算强制,在16张H100上26分钟蒸馏出媲美o1-preview的推理模型,挑战“数据越大越好”共识,为中小团队提供新范式。
2025-02-06
低成本训练范式革命
斯坦福等提出s1方法,50美元即可复现o1级推理;Ai2开源Tülu 3 8B/70B以强化学习打破性能瓶颈;北大港科大发布多模态版DeepSeek-R1,显示小预算+算法创新也能训练顶尖模型,冲击算力神话。
2025-02-02
DeepSeek冲击波
中国团队DeepSeek-R1以低成本高性能突袭全球,微软、英伟达、亚马逊火速接入,OpenAI紧急降价上线o3-mini应对,并罕见反思“开源错误”。事件标志中国大模型首次在技术与商业层面同时撼动硅谷格局,引发知识产权、芯片管制等连锁议题,被视为全球AI权力转移的里程碑。
2025-02-01
DeepSeek冲击波
DeepSeek-R1以低成本高性能震撼全球,引发OpenAI融资反击、硅谷巨头“打不过就加入”、中美数据安全摩擦,标志中国大模型首次在技术、商业与地缘三线同时产生连锁冲击。
2025-01-31
DeepSeek生态爆发
DeepSeek-V3/R1以1/10成本逼近GPT-4性能,绕过CUDA垄断,48小时内获微软Azure、Amazon Bedrock、Cursor、英伟达等全栈接入,成为首个被硅谷巨头集体采用的中国大模型,直接触发OpenAI紧急融资与Anthropic政策报告,标志中国AI模型首次反向定义全球基础设施标准。
2025-01-12
低成本开源推理模型
UC伯克利团队以不足450美元成本复现OpenAI o1-preview级推理能力,开源32B参数模型Sky-T1,打破“大模型=高算力”神话,引爆社区二次创新热潮,预示推理范式平民化。
2024-12-28
国产DeepSeek-V3低成本突围
DeepSeek-V3以600万美元、671亿参数MoE架构实现媲美GPT-4o的性能,训练算力仅传统1/10,全栈开源并附53页论文,引爆海外社区,验证“小预算+算法创新”可挑战硅谷巨鳄,重塑大模型成本曲线与开源生态。