2025-11-01
Transformer架构再突破
月之暗面开源Kimi Linear注意力,首次在同等训练下超越全注意力,长文KV缓存降75%、推理加速6倍;上海AI Lab混合扩散语言模型SDAR突破6600 tgs。新机制冲击传统Transformer垄断,为长上下文、实时交互与端侧部署打开全新可能。