供应商简介: MiniMax — MiniMax 打造面向智能体工作流的前沿 AI 模型。M2.7 提供强大的推理、编码和多工具编排能力,支持 204K 上下文。Highspeed 变体以约 100 tokens/秒的速度满足低延迟场景需求。
MiniMax
全球7 个模型面向智能体的前沿模型,200K 上下文与交错推理能力
MiniMax 打造面向智能体工作流的前沿 AI 模型。M2.7 提供强大的推理、编码和多工具编排能力,支持 204K 上下文。Highspeed 变体以约 100 tokens/秒的速度满足低延迟场景需求。
- ✓M2.7 旗舰模型,204K 上下文窗口,支持交错思维链进行深度推理
- ✓面向智能体的原生架构 — 专为多工具编排、任务分解和长期规划设计
- ✓Highspeed 变体(约 100 tokens/秒)适用于低延迟编码和实时智能体应用
- ✓全栈多模态平台 — 文本、语音、视频、音乐、图像生成一站式提供
- ✓成立于 2022 年,服务 2.36 亿个人用户和 21.4 万企业客户,覆盖 200+ 国家和地区
快速开始
from openai import OpenAI
client = OpenAI(
base_url="https://api.therouter.ai/v1",
api_key="YOUR_THEROUTER_KEY",
)
response = client.chat.completions.create(
model="minimax/m2.7",
messages=[{"role": "user", "content": "用 React 构建一个支持排序和筛选的数据表格组件"}],
max_tokens=2048,
)
print(response.choices[0].message.content)中国大陆用户:将 api.therouter.ai 替换为 api.therouter.com.cn 可获得更低延迟。
模型
常见问题
MiniMax 是什么公司?有什么特别之处?
MiniMax 是一家 2022 年成立的全球 AI 公司,服务 200+ 国家和地区的 2.36 亿用户。与大多数仅专注文本的 LLM 提供商不同,MiniMax 提供全栈多模态平台,涵盖文本(M2 系列)、语音(Speech 2.8)、视频(海螺 2.3)、音乐(Music 2.6)和图像生成。M2.7 模型支持交错思维链,专为智能体推理和复杂工作流自动化设计。
TheRouter 上有哪些 MiniMax 模型可用?
TheRouter 提供 7 个 MiniMax 模型:M2.7(旗舰)、M2.5、M2.1 和 M2,以及 M2.7、M2.5 和 M2.1 的 Highspeed 变体。所有模型均支持 204K 上下文窗口和函数调用(tools)。Highspeed 变体以 2 倍价格提供约 100 tokens/秒的输出速度,适用于对延迟敏感的应用。
标准版和 Highspeed 版 MiniMax 模型有什么区别?
标准版(如 minimax/m2.7)输出速度约 60 tokens/秒,成本优化,适合批量和后台任务。Highspeed 变体(如 minimax/m2.7-highspeed)以 2 倍价格提供约 100 tokens/秒的速度,专为实时编码助手、交互式智能体和对延迟敏感的 UI 设计。
为什么通过 TheRouter 使用 MiniMax 而不是直接调用?
TheRouter 提供自动故障转移(MiniMax 直连 → AWS Bedrock → SiliconFlow)、跨供应商统一计费、用量分析、消费控制和团队管理 — 全部通过同一个 OpenAI 兼容 API。当 MiniMax 出现故障时,流量会无缝切换到备用供应商。
MiniMax 是否支持函数调用和流式传输?
支持。TheRouter 上所有 MiniMax 模型均支持流式传输(SSE)、通过标准 tools 参数进行函数调用、response_format 输出 JSON 以及 stop 序列。API 完全兼容 OpenAI — 无需修改代码。