2025-11-29
AI重塑科研范式
AlphaFold计划融合大模型,AI智能体驱动药物发现闭环,LLM显著提升医生研究效率,显示AI正从工具升级为科研“副驾驶”,加速生命科学、医学等领域知识发现。
2025-11-09
多智能体协同与工具调用
UCSD发布首个多智能体“群体强化”框架PettingLLMs,使大模型工具调用能力暴升5.8倍;IEEE图智能体综述提出GLA统一蓝图,为复杂系统决策提供新架构。多体协同正成为提升LLM落地效率的核心路径,影响机器人、游戏、运维等场景。
2025-11-02
桌面Agent开启自然语言操作系统时代
阶跃星辰发布悬浮球Agent“小跃”,可直接用自然语言操控操作系统、执行任务与命令行,摆脱传统浏览器限制。这一产品把“LLM as OS”理念推向消费级桌面场景,预示未来PC交互或全面转向语言驱动,带动开发者生态与操作系统架构重塑。
2025-10-26
Transformer架构反思与后注意力时代
“Attention”作者公开呼吁告别Transformer,叠加NeurIPS高分论文用判别式监督重塑推理LLM,凸显社区对Scaling Law边际效应的担忧,后Transformer架构与训练策略成为下一波核心竞争点。
2025-10-14
AI安全与监管收紧
OpenAI、Anthropic、DeepMind联合发文称现有LLM安全防御“不堪一击”;加州通过新法要求聊天机器人明确标识AI身份并保护未成年人,最高罚款25万美元。顶级厂商罕见一致呼吁强化监管,预示全球立法将加速,合规成本成为模型落地新变量。
2025-09-18
端侧小模型与推理优化潮
Meta发布MobileLLM-R1瞄准手机端小型推理,Groq融资7.5亿美元推超高速芯片,Ring-mini-2.0以1B参数超10B性能,显示“小而强”模型+专用硬件正成为边缘AI新趋势。
2025-09-17
开源生态洗牌与模型迭代
阿里开源通义DeepResearch轻量代理性能超OpenAI旗舰,小红书彻底开源音频大模型,宇树开源机器人世界模型UnifoLM,LLM开源2.0榜单60款模型出局,开源正从“参数释放”转向“数据+工具链+标准”全方位竞争。
2025-09-13
小模型长工具链与搜索Agent突破
MiniMax&港科大提出WebExplorer,用高质量数据让8B小模型完成100轮工具调用,复杂长搜索任务反超大模型;Meta开源MobileLLM-R1以<1B参数击败Qwen3,验证“数据>参数”的新范式,推动端侧Agent落地。
2025-09-12
AI for Science与科研新范式
AI共同科学家平台成功预测噬菌体跨菌种传播机制;清华MIT提出AI+规划师新范式,城市规划效果超越90%人类专家;Thinking Machines Lab首发长文攻克LLM推理不确定性,显示AI正从辅助工具升级为科研合作者。
2025-09-11
垂直行业Agent渗透
Thinking Machines Lab宣称实现LLM 100%一致输出,瞄准医疗、金融等高可靠场景;武大等机构发布Healthcare Agent,问诊表现超越GPT-4;法律科技Legora估值7亿美元,垂直Agent在医疗、法律、教育等专业领域率先商业化。
2025-07-12
科研专用LLM评估新基准
Ai2、耶鲁、NYU上线全球首个科研LLM竞技场SciArena,23款顶级模型实测,o3夺冠、DeepSeek-R1第四,暴露自动指标难捕捉科研人员偏好的痛点,将推动学术写作辅助模型迭代。
2025-06-29
AGI路线争议再升温
Gary Marcus援引MIT、芝大、哈佛最新研究断言纯LLM无法通向AGI,引发社区对混合符号、世界模型等新路线的重新评估与资本关注。
2025-06-14
自主Agent路线反思
华人团队提出LLM-HAS框架,质疑“越自主越好”的主流Agent研发逻辑,强调AI应转向“协作智能”,通过人机协同提升任务解决效果,为行业重新审视Agent评价标准提供理论依据。
2025-06-03
AI推理加速新框架
英伟达联合MIT、港大推出Fast-dLLM,通过稀疏激活与并行调度把大模型推理速度提升27倍,显著降低延迟与算力成本,为端侧部署和实时交互打开新空间。
2025-06-01
大模型可解释性突破
Anthropic与Claude团队相继开源“归因图”与“电路追踪”工具,把LLM内部运算可视化,支持节点级干预,帮助研究者像研究大脑一样剖析模型“脑回路”,为对齐、压缩与安全提供新抓手。
2025-06-01
无奖励自进化推理
UC伯克利提出仅靠“自信度”即可让LLM自我训练,无需外部奖励便在数学与编程任务上显著跃升,挑战传统RLHF范式,为低成本持续提升模型推理能力提供新思路。
2025-05-25
大模型数据合成新框架
麦吉尔大学提出统计可控的数据合成框架LLMSynthor,解决大模型自生成数据偏差与崩溃难题,为后训练阶段提供高质量、可扩展的“合成燃料”,降低对真实数据依赖。
2025-05-05
推理效率新范式
伯克利Letta提出“睡眠时计算”,让LLM在空闲期预先生成推理链,显著降低在线延迟;若与边缘小模型结合,有望打造“随时可用”的低功耗智能体。
2025-04-26
大模型安全与治理共识
Hinton携10位OpenAI前员工发公开信阻击OpenAI重组,南大/新国立等40校发布首份LLM全链路安全综述,把数据-训练-部署风险纳入统一框架,凸显AGI治理已从业界自律走向全球学术-政策协同。