Thinking Machines LabTML发布首个模型TML-Interaction-Small让实时交互能力成为模型原生能力响应延迟比GPT-realtime-2.0快4倍交互质量测评也更优。告别“回合制”AI目前多数AI系统是“回合制”用户输入时模型等待生成时对新信息感知冻结极大限制了人机协作效率。而TML的模型实现了人和AI随时插嘴音频和代码能同时输出。技术实现路径该模型把连续音频、视频、文本切成200ms的“微回合”采用双模型协同架构。前台模型持续接收输入、回应追问后台模型异步跑长推理等工作遇到复杂任务后台结果流式回传。训练方法与工程优化训练阶段采用encoder-free early fusion让各组件与Transformer共同训练。为应对200ms响应带来的工程压力TML做了一层streaming sessions避免反复重分配。TML的过往与未来TML在0产品、0收入阶段就获高融资此前产品只有训练基础设施Tinker。此次发布的TML-Interaction-Small只是第一步更大规模模型计划今年晚些时候发布。编辑观点TML此举有望革新AI交互范式推动人机协作进入新阶段。后续更大规模模型值得期待或将进一步提升AI实时交互能力。