Kimi K2.5 是 Kimi 迄今最智能的模型,在 Agent、代码、视觉理解及一系列通用智能任务上取得开源 SoTA 表现。同时 Kimi K2.5 也是 Kimi 迄今最全能的模型,原生的多模态架构设计,同时支持视觉与文本输入、思考与非思考模式、对话与 Agent 任务。
服务商 | 上下文长度 | 最大输入长度 | 最大输出长度 | 吞吐 | 延迟 | 可靠性 | ||
|---|---|---|---|---|---|---|---|---|
| 256k | 200k | 200k | ¥4.00 /M | ¥12.00 /M | 127.33 tokens/s | 1.18s | 100% | |
| 256k | 256k | 200k | ¥4.00 /M | ¥21.00 /M | 88.41 tokens/s | 7.00s | 100% | |
| 256k | 256k | 256k | ¥4.00 /M | ¥21.00 /M | 63.64 tokens/s | 3.17s | 100% | |
| 256k | 256k | 32k | ¥4.00 /M | ¥21.00 /M | 55.49 tokens/s | 29.85s | 100% | |
| 256k | 256k | 256k | ¥4.00 /M | ¥21.00 /M | 50.85 tokens/s | 10.58s | 100% | |
| 256k | 256k | 256k | ¥4.00 /M | ¥21.00 /M | 48.06 tokens/s | 3.23s | 100% | |
| 256k | 256k | 32k | ¥4.00 /M | ¥21.00 /M | 44.16 tokens/s | 9.36s | 100% | |
| 256k | 256k | 256k | ¥4.00 /M | ¥21.00 /M | 43.97 tokens/s | 0.79s | 100% | |
| 256k | 256k | 256k | ¥4.00 /M | ¥21.00 /M | 38.53 tokens/s | 3.04s | 100% | |
| 256k | 256k | 256k | ¥4.00 /M | ¥21.00 /M | 38.22 tokens/s | 3.42s | 100% | |
| 256k | 224k | 16k | ¥4.00 /M | ¥21.00 /M | - | 0.34s | 100% |
AI Ping 会帮你在不同的服务提供商之间规范化处理请求和响应,为你统一接口。
AI Ping 提供了兼容 OpenAI 的 Completion API ,可连接 500 多款模型与服务服务商。 查看文档 获取 API KEY
from openai import OpenAI openai_client = OpenAI( base_url="https://aiping.cn/api/v1", api_key="<API_KEY>" ) response = openai_client.chat.completions.create( model="Kimi-K2.5", stream=True, extra_body={ "enable_thinking": False, "provider": { "only": [], "order": [], "sort": None, "input_price_range": [], "output_price_range": [], "input_length_range": [], "output_length_range": [], "throughput_range": [], "latency_range": [] } }, messages=[ {"role": "user", "content": "Hello"} ] ) for chunk in response: if not getattr(chunk, "choices", None): continue reasoning_content = getattr(chunk.choices[0].delta, "reasoning_content", None) if reasoning_content: print(reasoning_content, end="", flush=True) content = getattr(chunk.choices[0].delta, "content", None) if content: print(content, end="", flush=True)
亲爱的 AI Ping 用户:
由于平台调用量持续攀升,为了提供更流畅、更稳定的服务体验,我们诚挚地邀请您完成个人或企业实名认证,以解锁更高的 API 调用速率,畅享更稳定的服务保障。
自2026年1月26日起,平台将优先保障已完成实名认证用户的 API 调用速率;未完成实名认证的用户,在服务高峰期可能会受到临时性的调用速率限制。具体限流策略,将根据平台实时负载及峰谷时段动态调整,敬请理解与配合。
感谢您一直以来对 AI Ping 的支持与理解,期待与您共同守护更安全、更高效的使用环境!
AI Ping 产品团队
[2026年1月23日]