大语言模型 API可靠、可扩展、高性价比

使用 API 快速构建生成式 AI 应用

模型列表
精选高能模型,赋能多领域 AI 应用建设
企业私有化部署
企业级性能,弹性扩展,零运维负担
热门模型
NEW
qwen/qwen3.5-397b-a17b
Qwen3.5-397B-A17B
2/Mt输入
12/Mt输出
262.144K上下文
NEW
qwen/qwen3.5-plus
Qwen3.5-Plus
4/Mt输入
24/Mt输出
1000K上下文
0.4/MtCache Read
NEW
minimax/minimax-m2.5
MiniMax M2.5
2.1/Mt输入
8.4/Mt输出
204.8K上下文
0.21/MtCache Read
NEW
zai-org/glm-5
GLM-5
6/Mt输入
22/Mt输出
202.8K上下文
1.5/MtCache Read
HOT
qwen/qwen3-coder-next
Qwen3 Coder Next
1.4/Mt输入
10.5/Mt输出
262.144K上下文
NEW
deepseek/deepseek-ocr-2
DeepSeek-OCR 2
0.216/Mt输入
0.216/Mt输出
8.192K上下文
HOT
M
Kimi K2.5
4/Mt输入
21/Mt输出
262.144K上下文
0.7/MtCache Read
HOT
minimax/minimax-m2.1
MiniMax M2.1
2.1/Mt输入
8.4/Mt输出
204.8K上下文
0.21/MtCache Read
HOT
zai-org/glm-4.7
GLM-4.7
4/Mt输入
16/Mt输出
204.8K上下文
0.8/MtCache Read
HOT
X
XiaomiMiMo/MiMo-V2-Flash
0.7/Mt输入
2.1/Mt输出
262.144K上下文
HOT
zai-org/autoglm-phone-9b-multilingual
AutoGLM-Phone-9B-Multilingual
0.25/Mt输入
1/Mt输出
65.536K上下文
HOT
deepseek/deepseek-v3.2
Deepseek V3.2
2/Mt输入
3/Mt输出
163.84K上下文
HOT
M
Kimi K2 Thinking
4/Mt输入
16/Mt输出
262.144K上下文
1/MtCache Read
HOT
minimax/minimax-m2
MiniMax-M2
2.1/Mt输入
8.4/Mt输出
204.8K上下文
0.21/MtCache Read
HOT
deepseek/deepseek-v3.2-exp
Deepseek V3.2 Exp
2/Mt输入
3/Mt输出
163.84K上下文
HOT
deepseek/deepseek-v3.1-terminus
Deepseek V3.1 Terminus
4/Mt输入
12/Mt输出
131.072K上下文
2/MtCache Read
HOT
zai-org/glm-4.6v
GLM 4.6v
2/Mt输入
6/Mt输出
131.072K上下文
0.4/MtCache Read
zai-org/glm-4.6
GLM 4.6
4/Mt输入
16/Mt输出
204.8K上下文
0.8/MtCache Read
HOT
StreamLake
KAT Coder Pro V1
2.1/Mt输入
8.4/Mt输出
256K上下文
0.42/MtCache Read
HOT
deepseek/deepseek-v3-0324
DeepSeek V3 0324
2/Mt输入
8/Mt输出
163.84K上下文
0.6/MtCache Read
HOT
deepseek/deepseek-v3.1
Deepseek V3.1
4/Mt输入
12/Mt输出
131.072K上下文
2/MtCache Read
HOT
qwen/qwen3-next-80b-a3b-instruct
Qwen3 Next 80B A3B Instruct
1/Mt输入
4/Mt输出
65.536K上下文
HOT
qwen/qwen3-next-80b-a3b-thinking
Qwen3 Next 80B A3B Thinking
1/Mt输入
10/Mt输出
65.536K上下文
简单易用只需一行代码,开发者即可快速使用派欧云的模型服务。
Python
Curl
copy复制
from openai import OpenAI

client = OpenAI(
  base_url='https://api.ppio.com/openai',
  api_key='<你的 API KEY>',
  # 获取 API Key 请参考:https://ppio.com/docs/support/api-key
)

completion_res = client.completions.create(
  model='deepseek/deepseek-v3-0324',
  prompt='大语言模型会给我们的生活带来什么改变?',
  stream=True,
  max_tokens=512,
)

大语言模型 API

为您提供企业级大语言模型服务,比您自行部署 AI Infra,更可靠、更快、更经济、更具扩展性。

您可将精力集中在应用增长和客户服务上,而大型语言模型基础设施可放心交给 PPIO

可靠稳定
可靠稳定
全球网络加速
推理低时延、稳定
超高性价比
超高性价比
按使用量计费
低成本,服务好
快速扩容
快速扩容
高效扩展 AI Infra
解决高峰负载问题
bg

私有化部署,企业级定制化模型服务

如果您的企业需要更高性能保障、定制服务等级协议(SLA)或私有化部署能力,我们提供专属解决方案,满足您的模型定制化需求。

定制化定价方案
在线率与响应延迟保障
无限扩展能力
专属计算集群
私有化部署

典型应用场景

AI 情感陪伴机器人
AI 情感陪伴机器人
AI 小说生成器
AI 小说生成器
AI 总结摘要
AI 总结摘要
AI 代码生成
AI 代码生成

立即体验,开启 AI 应用构建之旅

    联系我们
    安全验证
    拖动下方拼图完成验证
    close
    AI生成背景
    success
    您的速度已超过 99% 的用户
    验证错误,请重试
    load error

    确定
    slider arrow slider arrow slider arrow