2025-02-13
模型效率与小参数逆袭
清华、北大、普林斯顿、上海AI Lab等相继提出分层RL、Test-Time Scaling、UltraMem稀疏架构等新方法,实现1B-32B小模型在数学、推理任务上超越405B-671B巨无霸,推理成本最高降83%,预示“小即是大”的新Scaling范式。
2024-09-11
AI编程工具激战
Cursor、Replit Agent等AI编程助手能力跃升,支持自然语言一键生成完整应用,手机端亦可使用;谷歌提出Test-Time Compute新Scaling Law,小模型可越级挑战14倍参数大模型,预示编程范式将被彻底改写,开发者生产力迎来拐点。