OpenVINO 2025.1 正式发布!

内容摘要我们很高兴地宣布 OpenVINO™ 2025 的最新版本正式发布!本次更新带来了来自工程团队的更多增强功能和新特性。每一次发布,我们都在不断适应日新月异的 AI 发展趋势,迎接层出不穷的新机遇与复杂挑战。在此次版本中,我们重点增强了新模型

我们很高兴地宣布 OpenVINO™ 2025 的最新版本正式发布!本次更新带来了来自工程团队的更多增强功能和新特性。每一次发布,我们都在不断适应日新月异的 AI 发展趋势,迎接层出不穷的新机遇与复杂挑战。在此次版本中,我们重点增强了新模型的覆盖和实际应用场景的支持,同时在性能优化上也进行了深度打磨,帮助你的 AI 解决方案运行得更快、更高效。

本文引用地址:

新模型和应用场景 

在 2025.1 版本中,我们新增了以下模型的支持: Phi-4 Mini、Jina CLIP v1 和 BCE Embedding base v1。其中,Phi-4 Mini 来自微软最新发布的开源小模型 Phi 系列。你可以在 GitHub 上尝试这个模型用它构建 LLM 聊天机器人或探索其他众多 LLM 模型。我们也非常高兴地宣布支持 Jina CLIP v1,这是一种多模态 AI 模型,可连接图像与文本数据,广泛应用于视觉搜索、多模态问答及内容生成等场景。我们在 GitHub 上提供了新的交互式示例供开发者上手体验。下图展示了该模型的输出效果:

图片1: 使用 Jina CLIP 以及 OpenVINO™ 的 CLIP 模型

(openvinotoolkit/openvino_notebooks/tree/442edcdf618126dd966eed5c687455edba332257/notebooks/jina-clip)

在上一版本中,我们预览发布了 OpenVINO™ GenAI 图像到图像(image-to-image)转换与修复(inpainting)功能的支持。本次更新,这两项功能已全面支持,你可以通过 OpenVINO™ 快速部署如 Flux.1 和 Stable Diffusion v3 等图像生成模型的端到端流程。

OpenVINO™ 模型服务器(OVMS) 现已支持视觉语言模型(VLMs),如 Qwen2-VL、Phi-3.5-Vision 和 InternVL2。借此你可以在对话场景中发送图像进行推理,就像处理 LLM 一样。我们提供了连续批处理(continuous batching)下 VLM 部署的演示示例。此外,现在你还可以使用 OVMS 将 LLM 与 VLM 模型部署到 NPU 加速器上,在 AI PC 上实现高能效的低并发应用。我们提供了在 Docker 与裸机环境下部署 NPU 上 LLM 与 NPU 上 VLM 的完整示例代码。

(openvinotoolkit/model_server/tree/main/demos/continuous_batching/vlm)

(openvinotoolkit/model_server/tree/main/demos/llm_npu)

(openvinotoolkit/model_server/tree/main/demos/vlm_npu)

图2:使用 OpenVINO™ GenAI  Notebook 生成不同强度的图像到图像输出示例

(openvinotoolkit/openvino_notebooks/blob/latest/notebooks/image-to-image-genai/image-to-image-genai.ipynb)

性能提升 

我们的开发团队也在英特尔® 酷睿™ Ultra 200H 系列处理器上进一步优化了 LLM 性能。与上一版 2025.0 相比,在 2025.1 版本中 GPU 上的第二个 token 吞吐量提高了 1.4 倍,具体基准测试结果见下图。

图3:OpenVINO™ 2025.1 提升英特尔® 酷睿™ Ultra 200H 系列处理器上 LLM 性能,详见附录中的负载与配置。结果可能因场景而异。

本次更新的一个重要亮点是预览支持 Token Eviction(token 清除)机制,用于智能管理 KV 缓存大小。该机制可自动保留重要 token、清除不必要信息,在保证模型表现的同时,大幅降低内存占用,尤其适用于处理长输入提示的 LLM 和 VLM 应用。Token 被清除后,KV 缓存会自动“重排”以保持上下文连贯性。

Executorch

对于 PyTorch 模型,Executorch 提供了在边缘设备上高效运行模型的能力,适用于计算资源与内存受限的场景。在此次 OpenVINO™ 新版本中,我们引入了 Executorch 的 OpenVINO™ 后端预览支持,可加速推理并提升模型在英特尔 CPU、GPU 与 NPU 上的执行效率。如需开始使用 OpenVINO™ 后端运行 Executorch,请参考 GitHub 上的相关文档。

(pytorch/executorch/blob/main/docs/source/build-run-openvino.md)

OpenVINO™ 模型中心(OpenVINO™ Model Hub)

如果你对性能基准感兴趣,可以访问全新上线的 OpenVINO™ 模型中心(Model Hub)。这里提供了在 Intel CPU、集成 GPU、NPU 及其他加速器上的模型性能数据,帮助你找到最适合自己解决方案的硬件平台。

图4:OpenVINO™ 模型中心展示 AI 推理基准性能

小结

感谢你关注并参与 OpenVINO™ 的最新版本发布。我们始终致力于推动 AI 无处不在。

附录

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备19001410号-1