一家名为Subquadratic的迈阿密初创公司今日在AI学界引发了地震级的讨论。该公司发布了其首个大规模语言模型“SubQ 1M-Preview”,声称该模型完全摒弃了Transformer架构中的平方复杂度注意机制,实现了计算量随上下文长度线性增长的重大突破。在1200万Token的超长文本处理测试中,SubQ模型的推理成本仅为传统架构的千分之一。
如果该声明属实,这意味着AI模型对算力的饥渴程度将大幅下降,百万级长文本的实时交互将不再是少数巨头的特权。Subquadratic团队表示,他们的算法通过一种全新的“稀疏张量折叠”技术,使得模型可以在极低内存占用下保持极高的逻辑一致性。目前,AI研究社区对此评价两极分化,部分专家称其为“AI界的Theranos(骗局)”,而另一部分则认为这可能是自2017年Transformer诞生以来最重要的基础理论变革。无论结果如何,SubQ模型的出现都反映了行业在“算力平权”方向上的极致追求,开源社区正密切关注其权重的开放计划。

