【概览】
6月1日,AI底层优化、Scaling瓶颈与AI4Science三箭齐发:斯坦福让AI用纯CUDA-C自动生成GPU内核,性能反超PyTorch手写版本;OpenAI o3虽在10×算力下刷新纪录,但“撞墙”预警仅剩一年;DeepMind AlphaEvolve携手顶尖数学家一周两破18年极值纪录,AI科研协作进入加速期。
01 | AI自生成内核颠覆框架
斯坦福华人团队首次用纯CUDA-C让大模型自写GPU内核,在主流算子上实现最高4倍加速,直接超越PyTorch专家手工调优版本。该成果证明AI已具备自动优化底层算子的能力,为深度学习框架与编译器开辟“自进化”新范式,或将重塑高性能计算开发流程。
02 | 大模型推理极限预警
OpenAI最新o3模型在10倍算力助推下推理能力飙升,但多方研究警告:沿用现有Scaling Law,性能“撞墙”仅剩约一年。显存、能耗与高质量数据同步告急,行业或将被迫转向稀疏化、硬件-算法协同设计等新路线,全球大模型竞赛节奏与投资风向面临再平衡。
03 | AI数学协作连破纪录
DeepMind新系统AlphaEvolve与陶哲轩等顶尖数学家合作,一周内两次刷新已沉寂18年的数学极值纪录,并同步开源形式化习题集。实验验证“AI广度扫描+人类深度优化”的协作模式可显著放大科研效率,标志着AI4Science进入可复现、可扩展的加速期。
04 | 大模型可解释性突破
Anthropic与Claude团队相继开源“归因图”与“电路追踪”工具,将LLM内部运算首次可视化至节点级别,并支持精准干预。研究者得以像剖析大脑神经回路一样分析模型行为,为对齐、压缩与安全治理提供可直接操作的“手术刀”。
05 | 无奖励自进化推理
UC伯克利提出仅靠模型自身“自信度”即可完成自我训练的新范式,无需外部奖励便在数学与编程任务上取得显著跃升。该方法挑战了传统RLHF流程,为低成本、持续迭代提升大模型推理能力提供全新思路。
06 | 中文大模型测评洗牌
SuperCLUE发布5月榜单,中兴星云大模型凭借安全与推理双优表现夺得推理总分第一,并与顶尖模型并列总榜第二。结果显示,国产大模型在合规、数学及科学推理赛道已具备对标GPT-4级竞争力,中文生态格局加速重构。
07 | AIGC可信水印新方案
南洋理工与A*STAR联合推出MaskMark,可在生成图像中嵌入局部水印并实现篡改定位,同时支持人脸/LOGO选择性保护,成本仅为传统方案的1/15。该技术为AIGC图像溯源与版权保护提供了高实用性新SOTA。
08 | 学术知识可视化创新
推特网友将280万篇arXiv论文打造成可沉浸式交互的3D“星空图”,国内集智学园早在2018年即获得类似专利。两项进展共同推动海量学术资源可视化,为科研导航与知识发现带来全新体验。
【展望】
当AI开始重写底层算子、逼近Scaling极限又刷新数学纪录,行业正站在“自进化”与“硬瓶颈”交汇的十字路口;未来一年,稀疏架构、硬件协同与无奖励自训练能否接力 Scaling Law,将决定大模型竞赛的下一程速度。