2026年4月23日 · 早间 + 午间采集
腾讯推出的高效混合专家(MoE)模型,面向智能体工作流与生产环境场景,支持 disabled/low/high 三档可调推理强度,上下文长度 262K。
小米旗舰模型,在通用 Agent 能力、复杂软件工程与长程任务上表现强势,在 ClawEval、GDPVal、SWE-bench Pro 等基准上位居前列,上下文 1M。
小米原生全模态模型,以约一半推理成本达到 Pro 级 Agent 能力,图像与视频多模态理解超越前代 MiMo-V2-Omni,上下文 1M。
将 GPT-5.4 推理/代码能力与新一代 GPT Image 2 图像生成结合的多模态模型,可在推理、代码与高质量图像生成之间无缝衔接,上下文 272K。