
新模型以工具调用的差异化能力,将图像融入其思维链中,实现对图片的定位、剪裁、点选、画线、缩放、旋转等精细处理。 并通过模拟人类从“从全局扫描到局部聚焦”的视觉推理过程,在增强推理可解释性的同时,可高效精准地完成图像操作。

豆包大模型1.6-vision支持Responses API,可自主选择调用工具,大幅度减少Agent开发过程中的代码量,提升开发效率,让开发 者应用开发更加高效。
此外,对比上一版视觉理解模型Doubao-1.5-thinking-vision-pro,综合成本降低约50%,以更低成本解锁更强性能。
