Kimi-K2.5

    Kimi-K2.5

    复制 ID
    工具调用 Tools
    推理
    视觉 Vision

    Kimi K2.5 是 Kimi 迄今最智能的模型,在 Agent、代码、视觉理解及一系列通用智能任务上取得开源 SoTA 表现。同时 Kimi K2.5 也是 Kimi 迄今最全能的模型,原生的多模态架构设计,同时支持视觉与文本输入、思考与非思考模式、对话与 Agent 任务。

    Kimi-K2.5 服务商|256K
    上下文
    | ¥4/M
    输入 tokens
    | ¥12~¥21/M
    输出 tokens
    若您在撰写学术论文、新闻稿件或自媒体文章时需引用榜单数据敬请注明数据来源于 aiping.cn
    思考
    最新一次数据| 最后更新 2.02 19:00
    服务商
    上下文长度
    最大输入长度
    最大输出长度
    输入价格
    输出价格
    吞吐
    延迟
    可靠性
    256k200k200k¥4.00 /M
    ¥12.00 /M
    127.33 tokens/s1.18s100%
    256k256k200k¥4.00 /M
    ¥21.00 /M
    88.41 tokens/s7.00s100%
    256k256k256k¥4.00 /M
    ¥21.00 /M
    63.64 tokens/s3.17s100%
    256k256k32k¥4.00 /M
    ¥21.00 /M
    55.49 tokens/s29.85s100%
    256k256k256k¥4.00 /M
    ¥21.00 /M
    50.85 tokens/s10.58s100%
    256k256k256k¥4.00 /M
    ¥21.00 /M
    48.06 tokens/s3.23s100%
    256k256k32k¥4.00 /M
    ¥21.00 /M
    44.16 tokens/s9.36s100%
    256k256k256k¥4.00 /M
    ¥21.00 /M
    43.97 tokens/s0.79s100%
    256k256k256k¥4.00 /M
    ¥21.00 /M
    38.53 tokens/s3.04s100%
    256k256k256k¥4.00 /M
    ¥21.00 /M
    38.22 tokens/s3.42s100%
    256k224k16k¥4.00 /M
    ¥21.00 /M
    -0.34s100%
    吞吐
    延迟

    Kimi-K2.5

    Kimi-K2.5 的示例代码与 API 说明

    AI Ping 会帮你在不同的服务提供商之间规范化处理请求和响应,为你统一接口。

    AI Ping 提供了兼容 OpenAI 的 Completion API ,可连接 500 多款模型与服务服务商。 查看文档 获取 API KEY

    思考
    智能路由策略

    API 示例

    OpenAI Python SDK
    Requests
    Curl
    复制
    from openai import OpenAI
    openai_client = OpenAI(
    base_url="https://aiping.cn/api/v1",
    api_key="<API_KEY>"
    )
    response = openai_client.chat.completions.create(
    model="Kimi-K2.5",
    stream=True,
    extra_body={
    "enable_thinking": False,
    "provider": {
    "only": [],
    "order": [],
    "sort": None,
    "input_price_range": [],
    "output_price_range": [],
    "input_length_range": [],
    "output_length_range": [],
    "throughput_range": [],
    "latency_range": []
    }
    },
    messages=[
    {"role": "user", "content": "Hello"}
    ]
    )
    for chunk in response:
    if not getattr(chunk, "choices", None):
    continue
    reasoning_content = getattr(chunk.choices[0].delta, "reasoning_content", None)
    if reasoning_content:
    print(reasoning_content, end="", flush=True)
    content = getattr(chunk.choices[0].delta, "content", None)
    if content:
    print(content, end="", flush=True)
    Copyright © 2023-2026 aiping.cn. All Rights Reserved.
    北京清程极智科技有限公司 版权所有
    📣

    关于平台高峰时期调用速率的调整通知

    亲爱的 AI Ping 用户:

    由于平台调用量持续攀升,为了提供更流畅、更稳定的服务体验,我们诚挚地邀请您完成个人或企业实名认证,以解锁更高的 API 调用速率,畅享更稳定的服务保障。

    2026年1月26日起,平台将优先保障已完成实名认证用户的 API 调用速率;未完成实名认证的用户,在服务高峰期可能会受到临时性的调用速率限制。具体限流策略,将根据平台实时负载及峰谷时段动态调整,敬请理解与配合。

    感谢您一直以来对 AI Ping 的支持与理解,期待与您共同守护更安全、更高效的使用环境!

    AI Ping 产品团队

    [2026年1月23日]