¥6新人礼
    ¥1
    待解锁
    ¥5
    待领取
    选择模型系列
    全部
    全部
    DeepSeek
    DeepSeek
    Ernie
    Ernie
    GLM
    GLM
    HunYuan
    HunYuan
    Kimi
    Kimi
    MiniMax
    MiniMax
    Qwen
    Qwen
    Ring
    Ring
    Ling
    Ling
    bge
    bge
    Doubao
    Doubao
    Kolors
    Kolors
    即梦
    即梦
    Wan
    Wan
    Kling
    Kling
    MiMo
    MiMo
    查看更多
    模型类型
    在本站为你找到 121 个模型
    @GLM
    GLM-5
    工具调用 Tools
    推理
    编程 Coder
    GLM-5 是面向 Coding 与 Agent 场景的新一代大模型,在复杂系统工程与长程任务中达到开源 SOTA,真实编程体验逼近 Claude Opus 级别;基于 744B 新基座、异步强化学习与稀疏注意力,实现从“写代码”到“写工程”的全面升级。
    ...
    128K~200K 上下文
    |
    ¥0~¥6/M 输入
    |
    ¥0~¥22/M 输出
    hot
    @MiniMax
    MiniMax-M2.5
    工具调用 Tools
    推理
    编程 Coder
    顶尖性能与极致性价比,轻松驾驭复杂任务
    128K~200K 上下文
    |
    ¥0~¥2.1/M 输入
    |
    ¥0~¥8.4/M 输出
    hot
    @Kimi
    Kimi-K2.5
    工具调用 Tools
    推理
    编程 Coder
    视觉 Vision
    Kimi K2.5 是 Kimi 迄今最智能的模型,在 Agent、代码、视觉理解及一系列通用智能任务上取得开源 SoTA 表现。同时 Kimi K2.5 也是 Kimi 迄今最全能的模型,原生的多模态架构设计,同时支持视觉与文本输入、思考与非思考模式、对话与 Agent 任务。
    ...
    128K~256K 上下文
    |
    ¥0~¥4/M 输入
    |
    ¥0~¥21/M 输出
    hot
    @Qwen
    Qwen3.5-Plus
    工具调用 Tools
    推理
    视觉 Vision
    Qwen3.5原生视觉语言系列Plus模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。在多项任务评测中,3.5系列均展现出与当前顶尖前沿模型相媲美的卓越性能,模型效果在纯文本与多模态方面相较3系列均实现飞跃式进步。
    ...
    1000K 上下文
    |
    ¥0.8/M 输入
    |
    ¥4.8/M 输出
    new
    hot
    @Doubao
    Doubao-Seed-2.0-pro
    工具调用 Tools
    推理
    视觉 Vision
    旗舰级全能通用模型,面向 Agent 时代的复杂推理与长链路任务执行场景。强调多模态理解、长上下文推理、结构化生成与工具增强执行。复杂指令与多约束执行能力突出,可稳定应对多步复杂规划、复杂图文推理、视频内容理解与高难度分析等场景。
    ...
    256K 上下文
    |
    ¥0.64~¥3.2/M 输入
    |
    ¥16/M 输出
    new
    @DeepSeek
    DeepSeek-V3.2
    工具调用 Tools
    推理
    DeepSeek-V3.2 的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用 Agent 任务场景。
    128K~164K 上下文
    |
    ¥0.1~¥2/M 输入
    |
    ¥0.1~¥3/M 输出
    hot
    @Doubao
    Doubao-Seed-2.0-Code
    工具调用 Tools
    编程 Coder
    视觉 Vision
    面向真实编程环境优化的 Coding 模型,能稳定调用 Claude Code 等常见 IDE 中的工具。模型特别优化了前端能力,在使用常见的前端框架时能有良好表现。模型支持使用 Skills,可以配合多种自定义技能使用。
    ...
    256K 上下文
    |
    ¥0.64~¥3.2/M 输入
    |
    ¥16/M 输出
    new
    @GLM
    GLM-4.7
    工具调用 Tools
    推理
    编程 Coder
    GLM-4.7 是智谱最新旗舰模型,GLM-4.7 面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的领先表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。
    ...
    128K~200K 上下文
    |
    ¥0~¥4/M 输入
    |
    ¥0~¥16/M 输出
    hot
    @DeepSeek
    DeepSeek-V3
    工具调用 Tools
    DeepSeek-V3 是一款强大的专家混合(MoE)语言模型,总参数量为 6710 亿,每个 token 激活 37 亿个参数。为实现高效推理和具成本效益的训练,该模型采用了多头潜在注意力(MLA)机制和在 DeepSeek-V2 中已验证有效的 DeepSeekMoE 架构。此外,DeepSeek-V3 首次引入无辅助损失(auxiliary-loss-free)策略进行负载均衡,并设定多 token 预测的训练目标以提升性能。 模型在 14.8 万亿个多样且高质量的 token 上进行了预训练,随后通过监督微调(Supervised Fine-Tuning)和强化学习(Reinforcement Learning)阶段充分发挥其潜力。综合评估结果显示,DeepSeek-V3 性能优于其他开源模型,并达到与领先闭源模型相当的水平。 尽管性能优异,DeepSeek-V3 的完整训练仅耗费 278.8 万 H800 GPU 小时。其训练过程高度稳定,未出现任何无法挽回的损失峰值,也未进行任何回滚操作。
    ...
    32K~128K 上下文
    |
    ¥1.6~¥4/M 输入
    |
    ¥6.4~¥16/M 输出
    hot
    @bge
    bge-reranker-v2-m3
    BAAI/bge-reranker-v2-m3 是一个轻量级的多语言重排序模型。它基于 bge-m3 模型开发,具有强大的多语言能力,易于部署,并且推理速度快。该模型采用查询和文档作为输入,直接输出相似度分数,而不是嵌入向量。它适用于多语言场景,特别是在中文和英文处理方面表现出色
    ...
    4K~8K 上下文
    |
    ¥0~¥0.2/M 输入
    @DeepSeek
    DeepSeek-OCR
    视觉 Vision
    DeepSeek-OCR 是由深度求索(DeepSeek AI)推出的一个视觉语言模型,专注于光学字符识别(OCR)与“上下文光学压缩”。该模型旨在探索从图像中压缩上下文信息的边界,能够高效处理文档并将其转换为如 Markdown 等结构化文本格式
    ...
    8K 上下文
    |
    ¥0~¥0.3/M 输入
    |
    ¥0~¥1.2/M 输出
    @DeepSeek
    DeepSeek-OCR-2
    视觉 Vision
    DeepSeek团队开源DeepSeek-OCR 2模型,采用创新的DeepEncoder V2方法,让AI能够根据图像的含义动态重排图像的各个部分,更接近人类的视觉编码逻辑。
    ...
    8K 上下文
    |
    ¥0~¥2.8/M 输入
    |
    ¥0~¥2.8/M 输出
    @DeepSeek
    DeepSeek-R1
    工具调用 Tools
    推理
    DeepSeek-R1-Zero 和 DeepSeek-R1 属于第一代推理模型。 DeepSeek-R1-Zero 通过大规模强化学习(RL)进行训练,未将监督微调(SFT)作为初步步骤,在推理方面展现出卓越性能。通过 RL,模型自然涌现出多种强大且有趣的推理行为。然而,该模型也面临无限重复、可读性差和语言混合等挑战。 为解决这些问题并进一步提升推理性能,引入了 DeepSeek-R1。该模型在 RL 之前加入了冷启动数据,从而在数学、代码和推理任务上取得了与 OpenAI-o1 相当的表现。
    ...
    64K~144K 上下文
    |
    ¥4/M 输入
    |
    ¥16/M 输出
    @DeepSeek
    DeepSeek-R1-0528
    推理
    DeepSeek R1 模型已经进行了小版本升级,当前版本为 DeepSeek-R1-0528。在最新更新中,DeepSeek R1 通过增加计算资源并引入算法优化机制在后续训练中,显著提升了其推理深度和推理能力。该模型在数学、编程和通用逻辑等各个基准评估中均表现出色。其整体性能现已接近 O3 和 Gemini 2.5 Pro 等领先模型。
    ...
    32K~160K 上下文
    |
    ¥0.1~¥4/M 输入
    |
    ¥0.1~¥16/M 输出
    @DeepSeek
    DeepSeek-R1-Distill-Llama-70B
    推理
    DeepSeek为支持研究社区,DeepSeek-R1-Zero、DeepSeek-R1 以及基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出的六个密集模型已开源。其中,DeepSeek-R1-Distill-Qwen-32B 在多项基准测试中优于 OpenAI-o1-mini,为密集模型实现了新的最先进结果。
    ...
    32K 上下文
    |
    ¥0.1~¥4.1/M 输入
    |
    ¥4.1~¥6/M 输出
    @DeepSeek
    DeepSeek-R1-Distill-Llama-8B
    推理
    DeepSeek为支持研究社区,DeepSeek-R1-Zero、DeepSeek-R1 以及基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出的六个密集模型已开源。其中,DeepSeek-R1-Distill-Qwen-32B 在多项基准测试中优于 OpenAI-o1-mini,为密集模型实现了新的最先进结果。
    ...
    32K 上下文
    |
    ¥0/M 输入
    |
    ¥0/M 输出
    @DeepSeek
    DeepSeek-R1-Distill-Qwen-14B
    工具调用 Tools
    推理
    DeepSeek为支持研究社区,DeepSeek-R1-Zero、DeepSeek-R1 以及基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出的六个密集模型已开源。其中,DeepSeek-R1-Distill-Qwen-32B 在多项基准测试中优于 OpenAI-o1-mini,为密集模型实现了新的最先进结果。
    ...
    8K~128K 上下文
    |
    ¥0~¥2/M 输入
    |
    ¥0~¥6/M 输出
    @DeepSeek
    DeepSeek-R1-Distill-Qwen-32B
    工具调用 Tools
    推理
    DeepSeek为支持研究社区,DeepSeek-R1-Zero、DeepSeek-R1 以及基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出的六个密集模型已开源。其中,DeepSeek-R1-Distill-Qwen-32B 在多项基准测试中优于 OpenAI-o1-mini,为密集模型实现了新的最先进结果。
    ...
    8K~128K 上下文
    |
    ¥0.35~¥2.9/M 输入
    |
    ¥0.35~¥6/M 输出
    @DeepSeek
    DeepSeek-R1-Distill-Qwen-7B
    工具调用 Tools
    推理
    DeepSeek为支持研究社区,DeepSeek-R1-Zero、DeepSeek-R1 以及基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出的六个密集模型已开源。其中,DeepSeek-R1-Distill-Qwen-32B 在多项基准测试中优于 OpenAI-o1-mini,为密集模型实现了新的最先进结果。
    ...
    8K~32K 上下文
    |
    ¥0~¥1/M 输入
    |
    ¥0~¥2/M 输出
    @DeepSeek
    DeepSeek-V3-0324
    工具调用 Tools
    DeepSeek-V3-0324 在核心架构和功能维度实现系统性升级,其技术突破已全面覆盖认知推理、工程实践与语言创作三大领域。在技术架构层面,通过重构推理引擎与优化参数调度机制,模型展现出更强大的复杂任务处理能力:在MMLU-Pro、GPQA等权威基准测试中取得突破性进展,分数分别提升至81.2(+5.3)和68.4(+9.3),AIME数学解题能力更实现近50%的跨越式增长。工程实践领域实现双重突破,代码生成准确率提升至59.4(+19.8)的同时,前端开发产出在代码可执行性及界面美观度方面达到工业级标准,成功构建起从原型设计到功能落地的完整开发闭环。 中文创作能力完成从量变到质变的跃升,在保持与R1系列一致的风格体系基础上,中长篇文本的叙事连贯性与细节刻画深度达到专业创作水准。技术团队特别针对多模态交互场景进行深度优化,使函数调用准确率提升至98.7%,历史对话重写响应速度缩短40%,有效解决多轮交互中的语义漂移问题。在功能生态建设方面,通过建立动态知识更新机制,中文搜索响应的深度分析能力显著增强,报告生成维度扩展至12类专业领域,翻译系统在信达雅三重指标上均实现正向突破。经第三方评测,该版本综合性能指标已全面进入行业第一梯队,在复杂系统建模、跨模态创作等前沿场景中展现出与顶尖模型同量级的工程化落地能力。
    ...
    32K~160K 上下文
    |
    ¥0.6~¥2/M 输入
    |
    ¥8/M 输出
    hot
    @DeepSeek
    DeepSeek-V3.1
    工具调用 Tools
    DeepSeek-V3.1本次升级包含以下主要变化: 混合推理架构:一个模型同时支持思考模式与非思考模式; 更高的思考效率:相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 能在更短时间内给出答案; 更强的 Agent 能力:通过 Post-Training 优化,新模型在工具使用与智能体任务中的表现有较大提升。
    ...
    128K~160K 上下文
    |
    ¥2~¥4/M 输入
    |
    ¥8~¥16/M 输出
    @DeepSeek
    DeepSeek-V3.1-Terminus
    工具调用 Tools
    此次更新在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括: 语言一致性: 缓解了中英文混杂、偶发异常字符等情况; Agent 能力: 进一步优化了 Code Agent 与 Search Agent 的表现。 DeepSeek-V3.1-Terminus 的输出效果相比前一版本更加稳定
    ...
    128K 上下文
    |
    ¥2~¥4/M 输入
    |
    ¥12/M 输出
    @DeepSeek
    DeepSeek-V3.2-Exp
    工具调用 Tools
    推理
    DeepSeek-V3.2-Exp 模型,这是一个实验性(Experimental)的版本。作为迈向新一代架构的中间步骤,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。
    ...
    64K~160K 上下文
    |
    ¥2/M 输入
    |
    ¥3/M 输出
    @Doubao
    Doubao-lite-32k
    Doubao-lite,拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持32k上下文窗口的推理和精调。
    ...
    32K 上下文
    |
    ¥0.3/M 输入
    |
    ¥0.6/M 输出
    @Doubao
    Doubao-Seed-1.8
    Doubao-Seed-1.8 面向多模态 Agent 场景定向优化。Agent 能力上,Tool Use、复杂指令遵循等能力均大幅增强。多模态理解方面,视觉基础能力显著提升,可低帧率理解超长视频,视频运动理解、复杂空间理解及文档结构化解析能力也有所优化,还原生支持智能上下文管理,用户可配置上下文策略。
    ...
    256K 上下文
    |
    ¥0.8/M 输入
    |
    ¥2/M 输出
    @Doubao
    Doubao-Seed-2.0-lite
    工具调用 Tools
    推理
    视觉 Vision
    面向高频企业场景兼顾性能与成本的均衡型模型,综合能力超越上一代Doubao-Seed-1.8。胜任非结构化信息处理、内容创作、搜索推荐、数据分析等生产型工作,支持长上下文、多源信息融合、多步指令执行与高保真结构化输出。在保障稳定效果的同时显著优化成本。
    ...
    256K 上下文
    |
    ¥0.12~¥0.6/M 输入
    |
    ¥3.6/M 输出
    new
    @Doubao
    Doubao-Seed-2.0-mini
    工具调用 Tools
    推理
    视觉 Vision
    面向低时延、高并发与成本敏感场景,强调快速响应与灵活推理部署。模型效果与Doubao-Seed-1.6相当。支持256k上下文、4档思考长度和多模态理解,适合成本和速度优先的轻量级任务。
    ...
    256K 上下文
    |
    ¥0.04~¥0.2/M 输入
    |
    ¥2/M 输出
    new
    @Doubao
    Doubao-Seedream-4.0
    Seedream 4.0 是基于领先架构的SOTA级多模态图像创作模型,其生成美感、指令遵循、结构完整度、主体保持一致性处于世界头部水平。模型采用同一套架构实现文生图与编辑能力的统一,原生支持文本 、单图和多图输入,并能通过对提示词的深度推理,自动适配最优的图像比例尺寸与生成数量,可一次性连续输出最多 15 张内容关联的图像,支持 4K 超高清输出
    ...
    ¥0.2/张 输出
    @Doubao
    Doubao-Seedream-4.5
    Seedream 4.5 是字节跳动最新推出的图像多模态模型,整合了文生图、图生图、组图输出等能力,融合常识和推理能力。相比前代4.0模型生成效果大幅提升,具备更好的编辑一致性和多图融合效果,能更精准的控制画面细节,小字、小人脸生成更自然
    ...
    ¥0.25/张 输出
    @Doubao
    Doubao-Seedream-5.0-lite
    Doubao-Seedream-5.0-lite是字节跳动发布的最新图像创作模型。该模型首次搭载联网检索功能,能融合实时网络信息,提升生图时效性。同时,模型的聪明度进一步升级,能够精准解析复杂指令和视觉内容。此外,模型在世界知识广度、参考一致性及专业场景生成质量上均有增强,可更好地满足企业级视觉创作需求。
    ...
    ¥0.22/张 输出
    new
    @Ernie
    ERNIE-4.5-21B-A3B
    推理
    ERNIE-4.5-21B-A3B 是 MoE 结构的对齐开源模型, 总参 21B,激活 3B。
    120K~128K 上下文
    |
    ¥0~¥1/M 输入
    |
    ¥0~¥2/M 输出
    @Ernie
    ERNIE-4.5-300B-A47B
    推理
    ERNIE-4.5-300B-A47B 是一个文本 MoE Post-trained 模型,每个 token 总参数为 300B,激活参数为 47B。
    32K~128K 上下文
    |
    ¥2~¥2.9/M 输入
    |
    ¥2.9~¥8/M 输出
    @GLM
    GLM-4-32B-0414
    工具调用 Tools
    GLM-4-32B-0414 系列是新一代开源模型,拥有 320 亿参数,性能可与 OpenAI 的 GPT 系列及 DeepSeek 的 V3/R1 系列相媲美,并支持便捷的本地部署功能。GLM-4-32B-Base-0414 在 15 万亿高质量数据上完成预训练,其中包含大量推理类型的合成数据,为后续强化学习扩展奠定了基础。在后训练阶段,除在人类偏好对齐以适配对话场景外,还通过拒绝采样和强化学习等技术,在指令遵循、工程代码和函数调用方面提升性能,增强了智能体任务所需的基础能力。该系列模型在工程代码、Artifact 生成、函数调用、基于搜索的问答以及报告生成等任务上表现出色,在部分基准测试中可媲美更大规模的模型,如 GPT-4o 和 DeepSeek-V3-0324(671B)。
    ...
    32K 上下文
    |
    ¥1.89/M 输入
    |
    ¥1.89/M 输出
    @GLM
    GLM-4-9B-0414
    工具调用 Tools
    GLM-4-9B-0414 由于模型容量较小,未进行与 GLM-4-32B-0414 类似的智能体能力强化,优化重点放在翻译等需要大批量调用的场景,以提升此类任务的执行效率。
    ...
    32K 上下文
    |
    ¥0/M 输入
    |
    ¥0/M 输出
    @GLM
    GLM-4.5
    工具调用 Tools
    推理
    GLM-4.5 和 GLM-4.5-Air 是最新的旗舰模型系列,作为智能体应用的基础模型构建,均采用混合专家(Mixture-of-Experts)架构。GLM-4.5 总参数为 3550 亿,激活参数为 320 亿;GLM-4.5-Air 设计更加精简,总参数为 1060 亿,激活参数为 120 亿。两者的训练流程相似:首先在 15 万亿令牌的通用数据上进行预训练,其后在代码、推理、智能体等领域的数据上进行针对性训练,将上下文长度扩展至 128k,最后通过强化学习进一步增强推理、代码及智能体能力。 GLM-4.5 和 GLM-4.5-Air 针对工具调用、网页浏览、软件工程、前端编程等领域进行了优化,可集成至 Claude Code、Roo Code 等代码智能体中使用,也可通过工具调用接口支持各类智能体应用。两者均采用混合推理模式,提供两种模式:适用于复杂推理和工具使用的思考模式,以及适用于即时响应的非思考模式,可通过 thinking.type 参数进行启用或关闭(支持 enabled 和 disabled 两种设置),默认开启动态思考功能。GLM-4.5-Air 作为轻量版,在性能与性价比之间实现平衡,并支持灵活切换混合思考模型。智谱最新旗舰模型,支持思考模式切换,综合能力达到开源模型的 SOTA 水平,上下文长度可达128K。
    ...
    128K 上下文
    |
    ¥0.8~¥4/M 输入
    |
    ¥8~¥16/M 输出
    @GLM
    GLM-4.5-Air
    工具调用 Tools
    推理
    GLM-4.5 和 GLM-4.5-Air 是最新的旗舰模型系列,作为智能体应用的基础模型构建,均采用混合专家(Mixture-of-Experts)架构。GLM-4.5 总参数为 3550 亿,激活参数为 320 亿;GLM-4.5-Air 设计更加精简,总参数为 1060 亿,激活参数为 120 亿。两者的训练流程相似:首先在 15 万亿令牌的通用数据上进行预训练,其后在代码、推理、智能体等领域的数据上进行针对性训练,将上下文长度扩展至 128k,最后通过强化学习进一步增强推理、代码及智能体能力。 GLM-4.5 和 GLM-4.5-Air 针对工具调用、网页浏览、软件工程、前端编程等领域进行了优化,可集成至 Claude Code、Roo Code 等代码智能体中使用,也可通过工具调用接口支持各类智能体应用。两者均采用混合推理模式,提供两种模式:适用于复杂推理和工具使用的思考模式,以及适用于即时响应的非思考模式,可通过 thinking.type 参数进行启用或关闭(支持 enabled 和 disabled 两种设置),默认开启动态思考功能。GLM-4.5-Air 作为轻量版,在性能与性价比之间实现平衡,并支持灵活切换混合思考模型。
    ...
    128K 上下文
    |
    ¥0.24~¥2/M 输入
    |
    ¥2~¥8/M 输出
    @GLM
    GLM-4.5V
    工具调用 Tools
    推理
    视觉 Vision
    GLM-4.5V 是智谱新一代基于 MOE 架构的视觉推理模型,以 106B 的总参数量和 12B 激活参数量,在各类基准测试中达到全球同级别开源多模态模型 SOTA,涵盖图像、视频、文档理解及 GUI 任务等常见任务。
    ...
    64K~128K 上下文
    |
    ¥0.8~¥4.57/M 输入
    |
    ¥6~¥13.71/M 输出
    @GLM
    GLM-4.6
    工具调用 Tools
    推理
    编程 Coder
    GLM-4.6 是智谱最新的旗舰模型,其总参数量 355B,激活参数 32B,上下文提升至 200K,8 大权威基准全面提升,稳居国产模型首位。在编程、推理、搜索、写作、智能体应用等核心能力均完成对 GLM-4.5 的超越。
    ...
    198K~202K 上下文
    |
    ¥0.4~¥7.2/M 输入
    |
    ¥8~¥16/M 输出
    @GLM
    GLM-4.6V
    视觉 Vision
    GLM-4.6V 是 GLM 系列在多模态方向上的一次重要迭代,它将训练时上下文窗口提升到128k tokens,在视觉理解精度上达到同参数规模 SOTA,并首次在模型架构中将 Function Call(工具调用)能力原生融入视觉模型,打通从「视觉感知」到「可执行行动(Action)」的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。
    ...
    128K~200K 上下文
    |
    ¥0.4~¥2.29/M 输入
    |
    ¥3~¥6.86/M 输出
    @GLM
    GLM-4.7-Flash
    GLM-4.7-Flash 作为 30B 级 SOTA 模型,提供了一个兼顾性能与效率的新选择。面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得同尺寸开源模型中的领先表现。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。
    ...
    128K~200K 上下文
    |
    ¥0~¥0.5/M 输入
    |
    ¥0~¥3/M 输出
    @GLM
    GLM-Image
    GLM-Image 是智谱新旗舰图像生成模型, 模型全程基于国产芯片完成训练,采用独创的「自回归+扩散解码器」混合架构,兼顾全局指令理解与局部细节刻画,克服了海报、PPT、科普图等知识密集型场景生成难题,是面向以 Nano Banana Pro 为代表的新一代「认知型生成」技术范式的一次重要探索。
    ...
    ¥0.1/张 输出
    @GLM
    GLM-Z1-32B-0414
    工具调用 Tools
    推理
    GLM-Z1-32B-0414 是一款具备深度思考能力的推理模型,基于 GLM-4-32B-0414 通过冷启动、强化学习扩展以及在数学、代码和逻辑等任务上的进一步训练而构建。与基础模型相比,GLM-Z1-32B-0414 在数学能力和复杂任务求解能力方面有显著提升。在训练过程中引入了基于成对排序反馈的通用强化学习,进一步增强了模型的综合能力。
    ...
    128K 上下文
    |
    ¥1/M 输入
    |
    ¥4/M 输出
    @GLM
    GLM-Z1-9B-0414
    工具调用 Tools
    推理
    GLM-Z1-9B-0414 是一款小规模(9B 参数)的模型,延续了开源传统,基于此前系列模型的多项技术进行训练。尽管规模较小,该模型在数学推理及通用任务中依然表现优异,在同等规模的开源模型中处于领先水平。尤其在资源受限的场景下,GLM-Z1-9B-0414 在效率与效果之间实现了良好平衡,为轻量化部署需求提供了高效且性能出色的选择。
    ...
    128K 上下文
    |
    ¥0/M 输入
    |
    ¥0/M 输出
    gte-rerank
    gte-rerank-v2是通义实验室研发的多语言文本统一排序模型,面向全球多个主流语种,提供高水平的文本排序服务。通常用于语义检索、RAG等场景,可以简单、有效地提升文本检索的效果。给定查询 (Query) 和一系列候选文本 (documents),模型会根据与查询的语义相关性从高到低对候选文本进行排序。
    ...
    30K 上下文
    |
    ¥0.8/M 输入
    @HunYuan
    Hunyuan-A13B-Instruct
    推理
    Hunyuan-A13B 是一款创新且开源的大型语言模型(LLM),基于细粒度的混合专家(Mixture-of-Experts, MoE)架构构建。该模型在设计上兼顾高效性与可扩展性,以较低的计算开销实现前沿性能,适用于高级推理和通用型应用,尤其适合资源受限的环境。
    ...
    128K 上下文
    |
    ¥1/M 输入
    |
    ¥4/M 输出
    @HunYuan
    HunyuanImage-3.0
    Hunyuan Image 3 是一款先进的文生图模型。只需提供文字描述,即可生成高质量、富有情感和故事性的图片,助力您的创意表达与艺术创作。
    ...
    ¥0.5~¥0.73/张 输出
    @Kimi
    Kimi-K2-0905
    工具调用 Tools
    上下文长度 256k,在 0711 版本基础上增强了 Agentic Coding 能力、前端代码美观度和实用性、以及上下文理解能力
    ...
    256K 上下文
    |
    ¥1~¥4.5/M 输入
    |
    ¥16~¥18/M 输出
    @Kimi
    Kimi-K2-Instruct
    工具调用 Tools
    kimi-k2 是一款具备超强代码和 Agent 能力的 MoE 架构基础模型,总参数 1T,激活参数 32B。在通用知识推理、编程、数学、Agent 等主要类别的基准性能测试中,K2 模型的性能超过其他主流开源模型
    ...
    128K~256K 上下文
    |
    ¥1~¥4/M 输入
    |
    ¥16/M 输出
    @Kimi
    Kimi-K2-Thinking
    工具调用 Tools
    推理
    K2 长思考模型,支持 256k 上下文,支持多步工具调用与思考,擅长解决更复杂的问题
    256K 上下文
    |
    ¥1~¥4/M 输入
    |
    ¥16/M 输出
    @Kling
    Kling-V1
    ¥0.03/张 输出
    @Kling
    Kling-V1.5
    细腻真实的人像
    ¥0.1/张 输出
    @Kling
    Kling-V2
    电影质感与独特美学,多元画面表现
    ¥0.1/张 输出
    @Kling
    Kling-V2-New
    电影质感与独特美学,多元画面表现
    ¥0.2/张 输出
    @Kling
    Kling-V2.1
    指令遵循强,文字强化,出图稳定
    ¥0.1/张 输出
    @Kling
    Kling-V2.6
    音画同步生成,有声音更精彩
    ¥0.3/秒
    |
    ¥0.5~¥1.2/秒
    @Kling
    Kling-Video-O1
    全新引擎、全新指令、全面掌控
    ¥0.6~¥1.2/秒
    @Kolors
    Kolors
    Kolors 是由快手 Kolors 团队开发的基于潜在扩散的大规模文本到图像生成模型。该模型通过数十亿文本-图像对的训练,在视觉质量、复杂语义准确性以及中英文字符渲染方面展现出显著优势。它不仅支持中英文输入,在理解和生成中文特定内容方面也表现出色
    ...
    ¥0/张 输出
    @Ling
    Ling-1T
    工具调用 Tools
    Ling-1T 是百灵混合专家(MoE)架构系列的,万亿参数量旗舰版自然语言大模型,在 20T+ 高质量语料上完成了预训练。本模型是最新发布的万亿参数级别开源模型,在各项评测集中都有上佳表现,适合作为下一代开放模型中最易用,使用体验最好的开源基础模型的选择。
    ...
    128K 上下文
    |
    ¥4/M 输入
    |
    ¥16/M 输出
    @MiMo
    MiMo-V2-Flash
    工具调用 Tools
    MiMo-V2-Flash是一个专为极致推理效率自研的总参数 309B(激活 15B)的 MoE 模型,通过 Hybrid 注意力架构创新及多层 MTP 推理加速,在多个 Agent 测评基准上保持进入全球开源模型 Top 2;代码能力超过所有开源模型,比肩标杆闭源模型 Claude 4.5 Sonnet,但推理成本仅为其 2.5%,生成速度提升 2 倍,成功将大模型推理效率推向极致。
    ...
    256K 上下文
    |
    ¥0.7~¥2.1/M 输入
    |
    ¥2.1~¥8.4/M 输出
    @MiniMax
    MiniMax-Hailuo-02
    新一代视频生成模型,1080p 原生,SOTA 指令遵循,极致物理表现
    ¥0.1~¥0.58/秒
    @MiniMax
    MiniMax-Hailuo-2.3
    MiniMax-Hailuo-2.3 是 MiniMax 于 2025 年 10 月 28 日发布的 AI 视频生成模型,基于 Hailuo 02 迭代而来,核心升级动态表现力、风格化与人物微表情,同时优化运动指令响应,支持文本生成视频(T2V)和图像生成视频(I2V),兼顾效果与成本MiniMax。
    ...
    ¥0.33~¥0.58/秒
    @MiniMax
    MiniMax-M1-80k
    推理
    MiniMax-M1 是全球首个开源的大规模混合架构推理模型。在面向生产力的复杂场景中,其能力位于开源模型的顶尖水平,超越国内闭源模型,接近海外最先进模型,同时具备业内最高的性价比。
    ...
    128K~1000K 上下文
    |
    ¥0.8~¥4/M 输入
    |
    ¥8~¥16/M 输出
    @MiniMax
    MiniMax-M2
    工具调用 Tools
    推理
    编程 Coder
    专为高效编码与Agent工作流而生
    128K~200K 上下文
    |
    ¥0.1~¥2.1/M 输入
    |
    ¥0.1~¥8.4/M 输出
    @MiniMax
    MiniMax-M2.1
    工具调用 Tools
    推理
    强大多语言编程实力,全面升级编程体验
    96K~200K 上下文
    |
    ¥0~¥2.1/M 输入
    |
    ¥0~¥8.4/M 输出
    @Qwen
    Qwen-Image
    通义千问系列首个图像生成模型,参数规模200亿。具备卓越的文本渲染能力,在复杂文本渲染、各类生成与编辑任务重表现出色,在多个公开基准测试中获得SOTA。
    ...
    ¥0.15~¥0.3/张 输出
    @Qwen
    Qwen-Image-Edit
    通义千问系列首个图像编辑模型,成功将Qwen-Image的文本渲染能力拓展到编辑任务上。支持精准的中英双语文字编辑、视觉外观与语义双重编辑、具备强大的跨基准性能表现。
    ...
    ¥0.15~¥0.3/张 输出
    @Qwen
    Qwen-Image-Edit-Plus
    通义千问系列图像编辑Plus模型,在首版Edit模型基础上进一步优化了推理性能与系统稳定性,大幅缩短图像生成与编辑的响应时间;支持单次请求返回多张图片,显著提升用户体验。
    ...
    ¥0.2/张 输出
    @Qwen
    Qwen-Image-Plus
    通义千问系列图像生成模型,参数规模200亿。具备卓越的文本渲染能力,在复杂文本渲染、各类生成与编辑任务重表现出色,在多个公开基准测试中获得SOTA,模型性能大幅提升。
    ...
    ¥0.2/张 输出
    @Qwen
    Qwen-Max
    通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级。如果希望使用固定版本,请使用历史快照版本。
    ...
    32K 上下文
    |
    ¥2.4/M 输入
    |
    ¥9.6/M 输出
    @Qwen
    Qwen2.5-14B-Instruct
    工具调用 Tools
    Qwen2.5系列14B模型,相较于 Qwen2,Qwen2.5 获得了显著更多的知识,并在编程能力和数学能力方面有了大幅提升。此外,新模型在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。
    ...
    8K~128K 上下文
    |
    ¥0.7~¥2/M 输入
    |
    ¥0.7~¥6/M 输出
    @Qwen
    Qwen2.5-32B-Instruct
    工具调用 Tools
    Qwen2.5 是 Qwen 大型语言模型的最新系列,包括一系列基础语言模型和指令微调语言模型,参数量范围从 50 亿到 720 亿。与 Qwen2 相比,Qwen2.5 在多个方面进行了改进: 知识量显著增加,并且由于在相关领域配备了专门的专家模型,编码和数学能力得到了极大提升。 在指令遵循能力、长文本生成(超过 8K 个 token)、结构化数据(例如表格)理解以及结构化输出(尤其是 JSON)的生成等方面均有显著进步。 对系统提示的多样性具备更高的韧性,增强了角色扮演的实现能力以及聊天机器人的条件设置功能。
    ...
    32K~128K 上下文
    |
    ¥1.26~¥2.9/M 输入
    |
    ¥1.26~¥6/M 输出
    @Qwen
    Qwen2.5-72B-Instruct
    工具调用 Tools
    Qwen2.5 是 Qwen 大型语言模型的最新系列,包括一系列基础语言模型和指令微调语言模型,参数量范围从 50 亿到 720 亿。与 Qwen2 相比,Qwen2.5 在多个方面进行了改进: 知识量显著增加,并且由于在相关领域配备了专门的专家模型,编码和数学能力得到了极大提升。 在指令遵循能力、长文本生成(超过 8K 个 token)、结构化数据(例如表格)理解以及结构化输出(尤其是 JSON)的生成等方面均有显著进步。 对系统提示的多样性具备更高的韧性,增强了角色扮演的实现能力以及聊天机器人的条件设置功能。
    ...
    32K~128K 上下文
    |
    ¥2.75~¥5.71/M 输入
    |
    ¥2.88~¥17.14/M 输出
    @Qwen
    Qwen2.5-7B-Instruct
    工具调用 Tools
    Qwen2.5系列7B模型,相较于 Qwen2,Qwen2.5 获得了显著更多的知识,并在编程能力和数学能力方面有了大幅提升。此外,新模型在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。
    ...
    32K~128K 上下文
    |
    ¥0.35~¥1/M 输入
    |
    ¥0.35~¥1/M 输出
    @Qwen
    Qwen2.5-Coder-32B-Instruct
    编程 Coder
    Qwen2.5系列编程专家32B模型,相较于 Qwen2,Qwen2.5 获得了显著更多的知识,并在编程能力和数学能力方面有了大幅提升。此外,新模型在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。
    ...
    32K~128K 上下文
    |
    ¥1.26~¥2.9/M 输入
    |
    ¥1.26~¥6/M 输出
    @Qwen
    Qwen2.5-VL-32B-Instruct
    视觉 Vision
    Qwen2.5VL系列模型,在math和学科问题解答达到了接近Qwen2.5VL-72B的水平,回复风格面向人类偏好进行大幅调整,尤其是数学、逻辑推理、知识问答等客观类query,模型回复详实程度和格式清晰度明显改善。此版本为32B版本。
    ...
    32K~128K 上下文
    |
    ¥1.89~¥8/M 输入
    |
    ¥1.89~¥24/M 输出
    @Qwen
    Qwen2.5-VL-72B-Instruct
    视觉 Vision
    指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。
    ...
    8K~128K 上下文
    |
    ¥4.13~¥16/M 输入
    |
    ¥4.13~¥48/M 输出
    @Qwen
    Qwen2.5-VL-7B-Instruct
    视觉 Vision
    指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为7B版本,计算量与性能相对平衡。
    ...
    16K~128K 上下文
    |
    ¥0.35~¥2/M 输入
    |
    ¥0.35~¥5/M 输出
    hot
    @Qwen
    Qwen3-1.7B
    实现思考模式和非思考模式的有效融合,可在对话中切换模式。通用能力显著超过Qwen2.5小规模系列,模型人类偏好能力显著增强,创意写作、角色扮演、多轮对话、指令遵循能力均有明显提升,用户体验预期明显更佳。
    ...
    32K 上下文
    |
    ¥0~¥0.3/M 输入
    |
    ¥0~¥1.2/M 输出
    @Qwen
    Qwen3-14B
    工具调用 Tools
    推理
    实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-14B。
    ...
    16K~128K 上下文
    |
    ¥0.5~¥5/M 输入
    |
    ¥1.6~¥10/M 输出
    @Qwen
    Qwen3-235B-A22B
    工具调用 Tools
    推理
    实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-72B-Instruct,达到同规模业界SOTA水平。
    ...
    32K~128K 上下文
    |
    ¥0~¥5/M 输入
    |
    ¥0~¥40/M 输出
    @Qwen
    Qwen3-235B-A22B-Instruct-2507
    工具调用 Tools
    基于Qwen3的非思考模式开源模型,相较上一版本(通义千问3-235B-A22B)主观创作能力与模型安全性均有小幅度提升。
    ...
    128K~256K 上下文
    |
    ¥0~¥2.86/M 输入
    |
    ¥0~¥11.43/M 输出
    @Qwen
    Qwen3-235B-A22B-Thinking-2507
    工具调用 Tools
    基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-235B-A22B)逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景。
    ...
    32K~256K 上下文
    |
    ¥0.1~¥2.86/M 输入
    |
    ¥0.1~¥28.57/M 输出
    @Qwen
    Qwen3-30B-A3B
    工具调用 Tools
    推理
    实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-14B,达到同规模业界SOTA水平。
    ...
    32K~128K 上下文
    |
    ¥0.45~¥2.2/M 输入
    |
    ¥3~¥8.7/M 输出
    @Qwen
    Qwen3-30B-A3B-Instruct-2507
    工具调用 Tools
    基于Qwen3的非思考模式开源模型,相较上一版本(通义千问3-30B-A3B)中英文和多语言整体通用能力有大幅提升。主观开放类任务专项优化,显著更加符合用户偏好,能够提供更有帮助性的回复。
    ...
    32K~256K 上下文
    |
    ¥0.1~¥1.07/M 输入
    |
    ¥0.1~¥4.29/M 输出
    @Qwen
    Qwen3-30B-A3B-Thinking-2507
    工具调用 Tools
    推理
    基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-30B-A3B)复杂推理类任务性能优秀,包括逻辑推理、数学、科学、代码类等具有一定难度的任务场景,指令遵循、文本理解、多语言翻译等能力显著提高。
    ...
    126K~256K 上下文
    |
    ¥0.7~¥1.07/M 输入
    |
    ¥2.8~¥10.71/M 输出
    @Qwen
    Qwen3-32B
    工具调用 Tools
    推理
    Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集模型和专家混合模型(MoE)。基于广泛的训练,Qwen3 在推理、指令遵循、代理能力和多语言支持方面取得了突破性进展
    ...
    8K~128K 上下文
    |
    ¥0~¥2.9/M 输入
    |
    ¥0~¥20/M 输出
    @Qwen
    Qwen3-4B
    实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、模型人类偏好能力显著增强,创意写作、角色扮演、多轮对话、指令遵循能力均有明显提升,用户体验预期明显更佳。
    ...
    16K~128K 上下文
    |
    ¥0~¥0.3/M 输入
    |
    ¥0~¥3/M 输出
    @Qwen
    Qwen3-8B
    工具调用 Tools
    推理
    实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。
    ...
    16K~128K 上下文
    |
    ¥0~¥0.5/M 输入
    |
    ¥0~¥5/M 输出
    @Qwen
    Qwen3-Coder-30B-A3B-Instruct
    工具调用 Tools
    编程 Coder
    基于Qwen3的代码生成模型,继承Qwen3-Coder-480B-A35B-Instruct的coding agent能力,代码能力达到同尺寸规模模型SOTA。
    ...
    32K~256K 上下文
    |
    ¥0.7~¥1.5/M 输入
    |
    ¥2.8~¥6/M 输出
    @Qwen
    Qwen3-Coder-480B-A35B-Instruct
    工具调用 Tools
    编程 Coder
    基于Qwen3的代码生成模型,具有强大的Coding Agent能力,代码能力达到开源模型 SOTA。
    64K~262K 上下文
    |
    ¥4~¥15/M 输入
    |
    ¥16~¥60/M 输出
    @Qwen
    Qwen3-Embedding-0.6B
    Qwen3-Embedding-0.6B 是 Qwen3 嵌入模型系列的最新专有模型,专为文本嵌入和排序任务设计。该模型基于 Qwen3 系列的密集基础模型,具有 6 亿参数规模,支持长达 32K 的上下文长度,可生成最高 1024 维的嵌入向量。模型继承了基础模型卓越的多语言能力,支持超过 100 种语言,具备长文本理解和推理能力。在 MTEB 多语言排行榜上表现优异(得分 64.33),在文本检索、代码检索、文本分类、文本聚类和双语挖掘等多项任务中表现出色。模型支持用户自定义输出维度(32 到 1024)和指令感知功能,可根据特定任务、语言或场景进行优化,为需要平衡效率和效果的应用场景提供理想选择
    ...
    8K~32K 上下文
    |
    ¥0~¥0.5/M 输入
    @Qwen
    Qwen3-Embedding-4B
    Qwen3-Embedding-4B 是 Qwen3 嵌入模型系列的最新专有模型,专为文本嵌入和排序任务设计。该模型基于 Qwen3 系列的密集基础模型,具有 40 亿参数规模,支持长达 32K 的上下文长度,可生成最高 2560 维的嵌入向量。模型继承了基础模型卓越的多语言能力,支持超过 100 种语言,具备长文本理解和推理能力。在 MTEB 多语言排行榜上表现卓越(得分 69.45),在文本检索、代码检索、文本分类、文本聚类和双语挖掘等多项任务中表现出色。模型支持用户自定义输出维度(32 到 2560)和指令感知功能,可根据特定任务、语言或场景进行优化,在效率和效果之间达到良好平衡
    ...
    8K~32K 上下文
    |
    ¥0~¥0.5/M 输入
    @Qwen
    Qwen3-Embedding-8B
    Qwen3-Embedding-8B 是 Qwen3 嵌入模型系列的最新专有模型,专为文本嵌入和排序任务设计。该模型基于 Qwen3 系列的密集基础模型,具有 80 亿参数规模,支持长达 32K 的上下文长度,可生成最高 4096 维的嵌入向量。该模型继承了基础模型卓越的多语言能力,支持超过 100 种语言,具备长文本理解和推理能力。在 MTEB 多语言排行榜上排名第一(截至 2025 年 6 月 5 日,得分 70.58),在文本检索、代码检索、文本分类、文本聚类和双语挖掘等多项任务中表现出色。模型支持用户自定义输出维度(32 到 4096)和指令感知功能,可根据特定任务、语言或场景进行优化
    ...
    8K~32K 上下文
    |
    ¥0~¥0.5/M 输入
    @Qwen
    Qwen3-Max
    通义千问3系列Max模型,相较preview版本在智能体编程与工具调用方向进行了专项升级。本次发布的正式版模型达到领域SOTA水平,适配场景更加复杂的智能体需求。
    ...
    256K 上下文
    |
    ¥3.2/M 输入
    |
    ¥12.8/M 输出
    @Qwen
    Qwen3-Max-Thinking
    工具调用 Tools
    推理
    通义千问3系列Max模型,相较2025年9月23日快照,此版本实现思考模式和非思考模式的有效融合,模型整体效果得到全方位的大幅度提升。在思考模式下,同时发布Web搜索、Web信息提取和代码解释器工具能力,使得模型在慢思考的同时,能够通过引入外部工具,以更高的准确性解决更有难度的问题。
    ...
    256K 上下文
    |
    ¥2.5/M 输入
    |
    ¥10/M 输出
    @Qwen
    Qwen3-Next-80B-A3B-Instruct
    工具调用 Tools
    基于Qwen3的新一代非思考模式开源模型,相较上一版本(通义千问3-235B-A22B-Instruct-2507)中文文本理解能力更佳、逻辑推理能力有增强、文本生成类任务表现更好。
    ...
    64K~256K 上下文
    |
    ¥1/M 输入
    |
    ¥4/M 输出
    @Qwen
    Qwen3-Next-80B-A3B-Thinking
    工具调用 Tools
    推理
    基于Qwen3的新一代思考模式开源模型,相较上一版本(通义千问3-235B-A22B-Thinking-2507指令遵循能力有提升、模型总结回复更加精简。
    ...
    64K~256K 上下文
    |
    ¥1/M 输入
    |
    ¥4~¥10/M 输出
    @Qwen
    Qwen3-Reranker-0.6B
    Qwen3-Reranker-0.6B 是一款来自 Qwen3 系列的文本重排模型。 它专为优化初始检索系统的结果而设计,其核心功能是根据给定查询对文档的相关性进行重新排序。 该模型拥有 6 亿参数和 32k 的上下文长度,并继承了其 Qwen3 基础模型强大的多语言(支持超过 100 种语言)、长文本理解及推理能力。评测结果显示,Qwen3-Reranker-0.6B 在 MTEB-R、CMTEB-R 和 MLDR 等多个文本检索基准测试中均取得了优异的性能
    ...
    8K~32K 上下文
    |
    ¥0~¥0.8/M 输入
    @Qwen
    Qwen3-Reranker-8B
    Qwen3-Reranker-8B 是 Qwen3 系列中拥有 80 亿参数的文本重排模型。 它的设计目标是通过根据查询对文档的相关性进行精确重排,从而优化并提升搜索结果的质量。 该模型构建于强大的 Qwen3 基础模型之上,擅长理解长文本(支持 32k 上下文长度),并支持超过 100 种语言。 Qwen3-Reranker-8B 作为其灵活系列的一员,在多种文本和代码检索场景中展现了顶尖的性能
    ...
    8K~32K 上下文
    |
    ¥0.28~¥0.8/M 输入
    @Qwen
    Qwen3-VL-235B-A22B-Instruct
    视觉 Vision
    Qwen3系列视觉理解模型,在视觉coding、空间感知等方向全面升级;视觉感知与识别能力大幅提升,支持超长视频理解,OCR能力迎来重大升级。
    ...
    128K~256K 上下文
    |
    ¥2~¥2.85/M 输入
    |
    ¥8~¥11.43/M 输出
    @Qwen
    Qwen3-VL-235B-A22B-Thinking
    视觉 Vision
    Qwen3系列视觉理解模型,多模态思考能力显著增强,模型在STEM与数学推理方面进行了重点优化;视觉感知与识别能力全面提升、OCR能力迎来重大升级。
    ...
    128K~256K 上下文
    |
    ¥2~¥2.85/M 输入
    |
    ¥10~¥28.57/M 输出
    @Qwen
    Qwen3-VL-30B-A3B-Instruct
    视觉 Vision
    Qwen3-VL系列第二大MoE模型的Instruct版本,响应速度快,支持长视频长文档等超长上下文;全面升级图像/视频理解、空间感知与万物识别能力;具备视觉2D/3D定位能力,胜任复杂现实任务。
    ...
    128K~256K 上下文
    |
    ¥0.7~¥1.07/M 输入
    |
    ¥2.8~¥4.29/M 输出
    @Qwen
    Qwen3-VL-30B-A3B-Thinking
    视觉 Vision
    Qwen3-VL系列第二大MoE模型的Thinking版本,响应速度快,具备更强多模态理解与推理、视觉智能体、长视频长文档等超长上下文支持能力;全面升级图像/视频理解、空间感知与万物识别能力,胜任复杂现实任务。
    ...
    128K~256K 上下文
    |
    ¥0.7~¥1.07/M 输入
    |
    ¥2.8~¥10.71/M 输出
    @Qwen
    Qwen3.5-122B-A10B
    Qwen3.5系列122B-A10B原生视觉语言模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。该模型的综合表现仅次于Qwen3.5-397B-A17B,文本能力显著优于Qwen3-235B-2507,视觉能力优于Qwen3-VL-235B。
    ...
    256K 上下文
    |
    ¥0.8/M 输入
    |
    ¥6.4/M 输出
    new
    @Qwen
    Qwen3.5-27B
    Qwen3.5系列27B原生视觉语言Dense模型,融合了线性注意力机制;响应速度快,兼具推理速度和性能。该模型的综合能力接近于Qwen3.5-122B-A10B。
    ...
    256K 上下文
    |
    ¥0.6/M 输入
    |
    ¥4.8/M 输出
    new
    @Qwen
    Qwen3.5-35B-A3B
    Qwen3.5系列35B-A3B原生视觉语言模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。该模型的综合表现接近于Qwen3.5-27B。
    ...
    64K~256K 上下文
    |
    ¥0.4/M 输入
    |
    ¥3.2/M 输出
    new
    @Qwen
    Qwen3.5-397B-A17B
    工具调用 Tools
    推理
    编程 Coder
    视觉 Vision
    Qwen3.5系列397B-A17B原生视觉语言模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。在语言理解、逻辑推理、代码生成、智能体任务、图像理解、视频理解、图形用户界面(GUI)等多种任务中,均展现出与当前顶尖前沿模型相媲美的卓越性能。具备强大的代码生成与智能体能力,对于各类智能体场景具有良好的泛化性。
    ...
    128K~262K 上下文
    |
    ¥0.8~¥1.2/M 输入
    |
    ¥4.8~¥7.2/M 输出
    new
    @Qwen
    Qwen3.5-Flash
    Qwen3.5原生视觉语言系列Flash模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。模型效果在纯文本与多模态方面相较3系列均实现飞跃式进步;响应速度快,兼具推理速度和性能。
    ...
    1000K 上下文
    |
    ¥0.2/M 输入
    |
    ¥2/M 输出
    new
    @Qwen
    QwQ-32B
    工具调用 Tools
    推理
    基于Qwen2.5-32B模型训练的QwQ推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、livecodebench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平,各指标均显著超过同样基于 Qwen2.5-32B 的 DeepSeek-R1-Distill-Qwen-32B。
    ...
    32K~128K 上下文
    |
    ¥1~¥2.9/M 输入
    |
    ¥2.9~¥6/M 输出
    @Ring
    Ring-1T
    Ring-1T 是全球首个开源的万亿参数推理大模型,也是百灵混合专家(MoE)推理模型 Ring 系列中尺寸最大,推理能力最强的旗舰版模型。本模型基于 icepop 方法进行 RLVR 训练,有卓越的自然语言推理能力,在 AIME 25,CodeForces,HMMT25、LiveCodeBench,ARC-AGI- v1 等测试中均有 SOTA 表现,多项指标位列开源模型首位。
    ...
    128K 上下文
    |
    ¥4/M 输入
    |
    ¥16/M 输出
    Step-3.5-Flash
    阶跃星辰的旗舰语言推理模型。该模型具备顶尖推理能力与快速可靠的执行能力。能够完成对复杂任务的分解、计划,可快速可靠地调用工具执行任务,胜任逻辑推理、数学、软件工程、深度研究等各种复杂任务。
    ...
    256K 上下文
    |
    ¥0.7/M 输入
    |
    ¥2.1/M 输出
    text-embedding-v1
    通用文本向量,是通义实验室基于LLM底座的多语言文本统一向量模型,面向全球多个主流语种,提供高水准的向量服务,帮助开发者将文本数据快速转换为高质量的向量数据。
    ...
    2K 上下文
    |
    ¥0.7/M 输入
    @Wan
    Wan2.5-I2I-Preview
    通义万相2.5-文生图-Preview,全新升级模型架构。画面美学、设计感、真实质感显著提升,精准指令遵循,擅长中英文和小语种文字生成,支持复杂结构化长文本和图表、架构图等内容生成。
    ...
    ¥0.2/张 输出
    @Wan
    Wan2.5-T2I-Preview
    通义万相2.5-图像编辑-Preview,全新升级模型架构。支持指令控制实现丰富的图像编辑能力,指令遵循能力进一步提升,支持高一致性保持的多图参考生成,文字生成表现优异。
    ...
    ¥0.2/张 输出
    @Wan
    Wan2.6-I2V
    通义万相2.6-图生视频,智能分镜调度支持多镜头叙事,更高品质的声音生成,多人稳定对话,更自然真实音色,最高支持15秒时长生成
    ...
    ¥0.6~¥1/秒
    @Wan
    Wan2.6-R2V
    通义万相2.6-参考生视频,支持指定人物或任意物品进行参考,精准保持形象和声音的一致性,支持多角色参考合拍。提醒:当使用视频进行参考时,输入视频也会计入费用,详见模型计费文档。
    ...
    ¥0.6~¥1/秒
    @Wan
    Wan2.6-T2V
    通义万相2.6-文生视频,智能分镜调度支持多镜头叙事,能够生成主体、场景和氛围一致的多镜头叙事视频,最高支持15秒时长,更高品质的声音生成,更好的指令遵循和视觉质量
    ...
    ¥0.6~¥1/秒
    @即梦
    即梦图片生成 4.0
    即梦4.0是即梦同源的图像生成能力,该能力在统一框架内集成了文生图、图像编辑及多图组合生成的功能:支持单次输入最多 10 张图像及进行复合编辑,并能通过对提示词的深度推理,智能适配最优的图像比例尺寸与生成数量,可一次性输出最多 15 张内容关联的图像。此外,模型显著提升了中文生成的准确率与内容多样性,且支持 4K 超高清输出,为专业图像创作提供了从生成到编辑的一站式解决方案。
    ...
    ¥0.22/张 输出
    @即梦
    即梦文生图 3.0
    文生图3.0是即梦同源的文生图能力,在文字响应准确度、图文排版、层次美感和语义理解能力上相较之前版本均有显著提升,人像质感更逼真,且支持输出高清大图。此外,在文字响应更精准的基础下,还支持响应大小字、各类艺术字体和不同字重。
    ...
    ¥0.2/张 输出
    @即梦
    即梦文生图 3.1
    文生图3.0是即梦同源的文生图能力,在文字响应准确度、图文排版、层次美感和语义理解能力上相较之前版本均有显著提升,人像质感更逼真,且支持输出高清大图。此外,在文字响应更精准的基础下,还支持响应大小字、各类艺术字体和不同字重。
    ...
    ¥0.2/张 输出
    @即梦
    即梦视频生成 3.0 Pro
    即梦同源的文生视频与图生视频能力,在视频生成效果上实现飞跃,各维度均表现优异。该版本具备多镜头叙事能力,能更精准遵循指令,动态表现流畅自然,支持生成1080P高清且具专业级质感的视频,还可实现更丰富多元的风格化表达。
    ...
    ¥1/秒
    模型类型
    输入格式
    全部
    文字
    图片
    视频
    输出格式
    全部
    文字
    图片
    视频
    模型类型
    全部
    文本生成
    视觉理解
    Embedding
    Reranker
    图像生成
    视频生成
    上下文长度
    全部
    16k 以下
    16-64k
    64k 以上
    Copyright © 2023-2026 aiping.cn. All Rights Reserved.
    北京清程极智科技有限公司 版权所有