供应商简介: SiliconFlowSiliconFlow 为领先的中文开源模型提供优化推理服务,包括 DeepSeek R1、V3.2 和 Qwen3 系列,部署于阿里云基础设施,从中国访问延迟仅 5-30ms(AWS 为 200-400ms)。以最低成本大规模运行 DeepSeek 和 Qwen 的最优选择。

← 全部供应商

SiliconFlow

中国(阿里云)8 个模型

DeepSeek 与 Qwen — 成本降低 40-80%,中国区域优化

SiliconFlow 为领先的中文开源模型提供优化推理服务,包括 DeepSeek R1、V3.2 和 Qwen3 系列,部署于阿里云基础设施,从中国访问延迟仅 5-30ms(AWS 为 200-400ms)。以最低成本大规模运行 DeepSeek 和 Qwen 的最优选择。

  • DeepSeek 和 Qwen 模型成本比 AWS Bedrock 低 40-80%
  • 中国访问延迟仅 5-30ms,AWS 数据中心为 200-400ms
  • OpenAI 兼容 API — 无需修改现有代码即可接入
  • 部署于阿里云,满足中国合规要求
深度推理代码生成中文优化极低成本流式响应

快速开始

from openai import OpenAI

client = OpenAI(
    base_url="https://api.therouter.ai/v1",
    api_key="YOUR_THEROUTER_KEY",
)

response = client.chat.completions.create(
    model="deepseek/deepseek-r1",
    messages=[{"role": "user", "content": "请解释量子纠缠"}],
    max_tokens=512,
)
print(response.choices[0].message.content)

模型

DeepSeek R1DeepSeek 旗舰推理模型,支持扩展思维链
DeepSeek V3.2DeepSeek 最新对话模型,速度与智能兼备
DeepSeek V3.1高性价比对话模型,适合高吞吐量场景
Qwen3 235B阿里巴巴旗舰大模型,混合专家架构
Qwen3 32B高效 Qwen3 中型模型
Qwen Coder 480B专注代码生成的超大规模模型
Qwen Coder 30B轻量级代码生成专用模型
Qwen3 8B快速高效的小型模型

常见问题

为什么要通过 TheRouter 使用 SiliconFlow,而不是直接调用?

TheRouter 提供自动故障转移(SiliconFlow 不可用时切换至 Bedrock)、统一 API 密钥管理、用量分析、费用管控和团队权限 — 无需修改代码。

SiliconFlow 与 AWS Bedrock 相比,DeepSeek 模型便宜多少?

SiliconFlow 提供的 DeepSeek R1 和 V3.2 比通过 AWS Bedrock 运行同等模型便宜 40-80%。具体节省比例取决于您的输入/输出 token 比例 — 请查看定价页面获取最新费率。

SiliconFlow 是否支持流式响应和函数调用?

支持。SiliconFlow 的 API 与 OpenAI 兼容,支持流式输出、函数调用(工具)和推理内容透传。DeepSeek R1 的 reasoning_content 字段可完整端到端保留。

SiliconFlow 部署在哪个地区?

SiliconFlow 的推理服务器位于中国大陆。TheRouter 的 SiliconFlow 供应商服务运行于阿里云,中国用户访问延迟仅 5-30ms,而通过 AWS us-east-2 则需 200-400ms。