豆包大模型1.6是什么
豆包大模型1.6(Doubao-Seed-1.6)是字节跳动推出的多模态深度思考大模型。模型支持auto、thinking和non-thinking三种思考模式,能处理文字、图片、视频等多种输入形式,支持输出高质量的文字内容。模型具备256k长上下文窗口,最大输入长度可达224k tokens,输出长度支持最大16k tokens,推理能力强大。模型在多个权威测评中表现优异,推理和数学能力显著提升。豆包1.6广泛应用在内容创作、智能对话、代码生成等领域,为企业和开发者提供强大的AI生产力工具。豆包1.6已在火山引擎上线,企业和开发者可调用API体验。
豆包大模型1.6的主要功能
推理能力:在推理速度、准确度与稳定性上显著提升,能支撑更复杂的业务场景落地。边想边搜与DeepResearch:具备边想边搜能力,能基于缺失信息进行搜索,经过多轮思考和搜索给出推荐。DeepResearch功能支持快速生成调研报告。多模态理解能力:全系列原生支持多模态思考能力,支持理解和处理文本、图像、视频等多种模态数据。图形界面操作能力(GUI操作):基于视觉深度思考与精准定位,能与浏览器及其他软件进行交互和操作,高效执行各类任务。豆包大模型1.6的三个模型
doubao-seed-1.6:全能综合型模型,是全能型的综合模型,也是国内首个支持 256K 上下文的思考模型。模型具备深度思考、多模态理解及图形界面操作等多项能力。用户根据需求灵活选择开启或关闭深度思考功能,支持自适应思考模式。自适应模式根据提示词的难度自动判断是否开启深度思考,在提升效果的同时,大幅减少 tokens 的消耗。doubao-seed-1.6-thinking:深度思考强化版,是豆包大模型 1.6 系列中专注于深度思考的强化版本。模型在代码编写、数学计算、逻辑推理等基础能力上进行进一步提升,能处理更复杂的任务。同时支持 256K 的上下文,能理解和生成更长的文本内容,适合需要深度分析和复杂推理的场景。doubao-seed-1.6-flash:极速响应版本,是豆包大模型 1.6 系列中的极速版本,具备深度思考和多模态理解能力,支持 256K 上下文。模型的延迟极低,TOPT(Top-of-Pipeline Time)仅需 10ms,能快速响应用户的请求。模型视觉理解能力与友商旗舰模型相当,适合对响应速度要求极高的场景,例如实时交互和视觉任务处理。豆包大模型1.6的性能表现
GPQA Diamond测试:豆包1.6-thinking模型取得81.5分的成绩,达到全球第一梯队水平,是目前最好的推理模型之一。数学测评AIME25:豆包1.6-thinking模型的成绩达到86.3分,相比豆包1.5深度思考模型提升12.3分。豆包大模型1.6的定价模式
豆包大模型1.6基于统一的定价模式,无论是否开启深度思考模式,无论是文本还是视觉输入,tokens价格均一致。
输入长度0-32K:输入价格:0.8元/百万tokens。输出价格:8元/百万tokens。输入长度32K-128K:输入价格:1.2元/百万tokens。输出价格:16元/百万tokens。输入长度128K-256K:输入价格:2.4元/百万tokens。输出价格:24元/百万tokens。输入32K、输出200 tokens以内:输入价格:0.8元/百万tokens。输出价格:2元/百万tokens。