AI快开门

发现最好的AI工具

2026-01-13

扩散模型并行推理革新

腾讯微信AI团队提出WeDLM,首次用因果注意力重构扩散语言模型,兼容KV缓存,实现并行生成与高效推理兼得,突破GPT类自回归模型速度瓶颈,为大模型端侧部署提供新范式。
2026-01-03

视觉生成新范式

NEPA 提出「下一嵌入预测」自回归框架,谢赛宁团队参与,验证无需扩散也能做强视觉模型;同期多项研究探索自回归图像/视频生成,有望重塑生成式 AI 技术路线与算力需求。
2025-12-28

AI医疗跨界再思辨

清华百川楼启用圆桌中,王小川提出AI医疗应摆脱“医生复刻”思维,强调技术自主性;AI制药领域亦见扩散模型用于柔性蛋白-配体对接的新成果。学界与产业界共同呼吁AI在医疗、药物研发中突破传统框架,独立探索创新路径。
2025-11-20

小模型逆袭与架构革新

微博15亿参数VibeThinker数学基准反超6710亿DeepSeek-R1;何恺明团队提出无Tokenizer扩散范式,Just Image Transformers简化生成链路;蚂蚁OceanBase三行代码构建AI应用,显示“小即美”与架构简化正成为新趋势。
2025-11-09

AI科研范式革命

谷歌“联合科学家”AI两天破解人类十年难题,字节量子化学模拟登Nature子刊,蛋白轨迹扩散模型PTraj-Diff高效生成动力学,显示生成式AI正从辅助工具升级为科研合作者,显著缩短试错周期,推动医药、材料、化学等领域进入AI驱动发现新时代。
2025-11-05

超级模型与多模态突破

llama.cpp 实现本地多模态革命,360 FG-CLIP2 拿下 29 项中英双语第一,谷歌 Gemini Nano Banana2 升级图像生成,北大&兔展 Uniworld V2 刷新中文细节 SOTA,扩散语言模型推理效率大幅提升。端侧与云侧同步跨越,多模态能力正成为下一代模型标配。
2025-11-01

Transformer架构再突破

月之暗面开源Kimi Linear注意力,首次在同等训练下超越全注意力,长文KV缓存降75%、推理加速6倍;上海AI Lab混合扩散语言模型SDAR突破6600 tgs。新机制冲击传统Transformer垄断,为长上下文、实时交互与端侧部署打开全新可能。
2025-09-12

开源大模型技术突破

阿里Qwen3-Next、字节HuMo、阿里妈妈SDH等多款开源大模型密集发布,MoE与扩散架构成为新主流,训练成本骤降90%,性能逼近GPT-5,标志国产开源进入全球第一梯队,将加速行业落地与生态繁荣。
2025-08-13

国产大模型技术突围

华人团队用扩散模型将上下文潜力提升3倍,商汤发布国内首个“图文交错”多模态大模型日日新6.5,腾讯混元3D、52B视觉模型及阿里Qwen Code相继开源或免费,显示国产模型在3D生成、代码、多模态等细分赛道加速追赶并局部领先。
2025-08-10

生成模型与多模态创新

腾讯X-Omini用强化学习复兴离散自回归生成,扩散模型被证数据效率3倍于自回归且可重复训练数百次仍提升,显示生成式AI在图像-文本统一、长序列建模上仍有巨大潜力,为内容创作、长文本多模态应用提供新基座。
2025-08-02

3D与多模态生成突破

Ultra3D、Nexus-Gen V2、腾讯MixGRPO等模型在3D资产、图像生成/编辑/理解三合一方向取得SOTA,训练时间减半、成本降至几分钱,为游戏、影视、XR内容生产带来即时可用的新流水线。
2025-08-01

国产大模型技术突破

DeepSeek 联合北大提出原生稀疏注意力 NSA 获 ACL 2025 最佳论文,推理提速 11 倍;字节发布扩散语言模型 Seed-Diffusion,推理速度达 2.1k tokens/s;阶跃星辰开源 Step-3、通义开源 Qwen3-Coder-Flash,国产模型在架构、效率与代码能力上集体跃升。
2025-07-19

实时扩散视频生成革命

Karpathy站台投资的“实时、无限时长”扩散视频模型首次亮相,可实现直播零延迟转换,被视为AIGC走向实时媒体生产的关键节点,有望重塑短视频、直播与元宇宙内容生态。
2025-07-12

扩散模型量化加速突破

港科大、北航、莫纳什联合提出TFMQ-DM框架,首次实现4-bit无损压缩+6倍推理加速,通过维护时间特征解决扩散模型量化敏感难题,为端侧高清生成铺平道路,入选TPAMI'25。
2025-07-11

模型架构与训练新范式

北大/华为开源纯卷积DiC,速度超DiT 5倍;Inception Labs推扩散式语言模型Mercury,写代码快10倍;上交团队凭DeepSeek-R1外挂刷新“人类最后考试”国内纪录。后Transformer创新进入爆发期,训练效率与推理质量双升。
2025-07-05

扩散模型颠覆自回归

苹果-港大DiffuCoder、谷歌Gemini Diffusion等扩散式文本/代码模型相继亮相,以非自回归并行采样实现速度-性能双升,挑战Transformer自回归范式,预示大模型架构进入多元竞争阶段。
2025-06-04

多模态生成与编辑

扩散、流匹配等生成式模型在语音、视频、3D、跨模态转换上连续突破,实现局部无痕编辑、离线手机端运行、动漫化一键成片,标志“生成即服务”进入可商用阶段,将重塑内容产业生产链。
2025-05-17

统一多模态模型突破

BLIP3-o、混元图像2.0等模型用“先理解后生成”或实时交互,刷新图文双SOTA,端掉VAE,显示扩散+自回归融合路线已成熟,加速视觉内容生产与编辑平民化。
2025-05-12

多模态生成与编辑新范式

腾讯HunyuanCustom、中科院MCA-Ctrl、ModelScope全能图像模型等集中发布,实现高一致性视频生成、多方协同注意力精准编辑及理解-生成一体化,解决扩散模型误差累积,推动AIGC进入可控生产阶段。
2025-04-21

视频/3D生成进入无限时长时代

昆仑万维SkyReels-V2、VAST新框架相继开源,实现“无限时长”电影级视频与即时3D模型生成,扩散模型+RLHF突破时长与分辨率瓶颈,降低影视、游戏、元宇宙内容成本一个量级;标志着AIGC从“秒级Demo”走向“分钟级商用”,将冲击万亿数字内容市场。