AI应用正从云端逐渐向边缘和终端设备扩展。 微控制器(MCU)作为嵌入式系统的核心,正在经历一场由AI驱动的技术变革。 传统的MCU主要用于控制和管理硬件设备,但在AI时代,MCU不仅需要满足传统应用的需求,还需具备处理AI任务的能力。
本文引用地址:
满足边缘与终端设备的需求
边缘计算(Edge Computing)是指将数据处理和计算任务从云端转移到靠近数据源的设备上进行。 这种方式能够减少数据传输的延迟,提升系统的实时性和隐私保护。 边缘设备通常资源有限,因此需要高效且低功耗的AI处理器来支持复杂的AI任务。
为了满足边缘与终端设备的需求,AI处理器需要具备以下特点:
● 低功耗:边缘设备通常依赖电池供电,因此AI处理器必须在低功耗下运行。
● 高效能:AI任务如图像识别、语音处理等需要高效的计算能力。
● 小型化:边缘设备的空间有限,AI处理器需要高度集成且体积小巧。
● 实时性:许多边缘应用(如自动驾驶、工业控制)要求实时响应,AI处理器必须能够快速处理数据。
传统MCU主要用于控制任务,而AI处理器则专注于数据处理和模型推理。 为了满足边缘设备的需求,现代MCU开始集成专用的AI加速器(如NPU,神经网络处理单元),以实现高效的AI运算。
Arm 物联网事业部亚太区资深经理黄晏祥指出,边缘运算跟云端运算主要的差异应该是应用的最佳化vs.产品的泛用性,边缘运算为了更接近使用场景,通常会有功耗与布建成本的局限性,因此效能与功耗的产品平衡与多重的选择是最重要的。
例举Arm的 AI 处理器专注于实现高效能与低功耗的平衡,尤其是对边缘与终端设备的特殊需求进行优化。 透过Arm Cortex系列处理器和Arm Ethos系列类神经处理器,提供多样化的解决方案,满足不同应用场景所需效能。 同时,也专注于提供灵活的软硬件架构,以支持 AI 模型得以高效率的执行,并加速产品上市进程。
针对快速崛起的 AI 市场,Arm 积极布局 AI 处理器技术,以满足边缘和终端设备的需求。 Arm 提供 Cortex-A、Cortex-M、Cortex-R 与Ethos NPU系列等处理器,这些处理器都可具备 AI 处理能力,可根据不同的应用场景和需求选择。 例如,Cortex-A系列适用于高性能计算,Cortex-M系列则针对低功耗和嵌入式应用进行了优化。 在选择处理器时,需要考量效能、功耗和成本等因素,才能做出最佳决策。
专为人工智能物联网(AIoT)应用设计的Arm Cortex-M52,是因应更高的数码信号处理和机器学习性能需求设计,无需负担专门配置数字信号处理与机器学习加速器的成本。 Cortex-M52 能在低于目前市场的价位优势之上,充分发挥机器学习在嵌入式运算解决方案的潜能。
Arm Cortex-M85则为最高效能的Cortex-M处理器,采用Arm Helium技术,提供Cortex-M系列处理器最高的纯量、数字信号处理及机器学习效能。 并为需要特高效能和更高安全性的 Cortex-M 架构的应用提供自然升级路径。
Cortex-M55 和 Cortex-M85 处理器支持 Helium 的处理器。 该项技术是 Arm Cortex-M 处理器系列的 M 系列向量扩充方案 (MVE)。
Arm 也积极与开发人员社区合作,提供开发工具、软件库和开放源代码资源,帮助开发人员快速开发和部署 AI 应用。 Arm Kleidi 库,提供具有弹性的各种核心组合,协助在框架上强化人工智能。 Kleidi 技术已整合到主要的AI框架如 PyTorch 和 ExecuTorch,促使新一代的应用在 Arm CPU 上运行大型语言模型(LLM)。 Kleidi 将继续与 PyTorch 和 ExecuTorch 的各版本以及其他主要 AI 框架进行整合。 从云端数据中心到边缘端装置,开发人员现在可以即刻在各类设备上基于 Arm 平台高效率的运行高效能 AI 工作负载。
在传统应用与AI之间取得平衡
MCU在传统应用中主要负责控制和管理硬件设备,例如家电、工业自动化、汽车电子等。 这些应用对MCU的要求包括:
● 稳定性:系统必须稳定可靠,能够长时间运行。
● 实时性:需要快速响应外部事件。
● 低功耗:许多应用场景依赖电池供电,功耗必须尽可能低。
随着AI技术的普及,MCU需要支持更多的AI功能,例如语音识别、图像处理、预测性维护等。 这些功能对MCU的计算能力和存储空间提出了更高的要求。 然而,MCU的资源有限,如何在传统应用与AI功能之间取得平衡成为一个关键问题。
为了在传统应用与AI功能之间取得平衡,MCU的设计可以采取以下策略:
● 模块化设计:将AI功能作为可选模块,用户可以根据需求选择是否启用。
● 资源分配优化:通过动态资源分配,确保传统控制任务和AI任务都能获得足够的资源。
● 多核架构:采用多核设计,将传统控制任务和AI任务分配到不同的核心上运行,避免资源竞争。
● 软硬件协同设计:通过优化硬件架构和软件算法,提升MCU的整体性能。
为了提升AI模型的运行效率,许多MCU开始整合专用的AI加速器。 这些加速器针对神经网络计算进行了优化,能够大幅提升模型的推理速度。 例如,Arm的Cortex-M系列MCU已经支持AI加速功能,能够高效运行机器学习模型。
Arm主任应用工程师林宜均指出,Arm 的 MCU 产品策略中结合了对传统应用的深厚技术基础,与对新兴AI 技术发展的积极投入。 产品不仅支持传统的低功耗嵌入式应用,还加入了对 AI 推论的支持,尤其是在语音识别、影像处理和传感器数据分析等场景。
新一代Armv8-M架构为Cortex-M处理器带来更强大的安全性和效能,可更加满足未来MCU应用的需求,包括AI功能的导入。 Arm Helium 技术是Arm Cortex-M处理器系列的M系列向量扩充方案(MVE)。 Helium 为 Armv8.1-M 架构的延伸,可协助机器学习 (ML) 与数字讯号处理 (DSP) 应用大幅提升效能
在MCU产品中导入AI功能的同时,必须兼顾传统应用的需求,例如低功耗和实时性。 例如Arm 的 Cortex-M 系列处理器,它在提供 AI 处理能力的同时,也保持了低功耗的特性,适合应用于各种嵌入式装置。
软件可以释放硬件的效能与潜力。 Arm 除了提供硬件平台之外,也提供软件库和开发工具,协助开发人员进行软件优化。
为了满足客户于互联网市场复杂且多样化的设计,和署具有智能又安全的物联网装置,Arm提供物联网参考设计平台Arm Corstone系列,借此协助降低设计复杂度,并加快上市时程。 Corstone 提供大量软件、IP 区块,以及可配置和可修改的异质化子系统,以达到兼具效能与能源效率的目标。 SoC 设计人员可使用Arm Corstone 作为框架,以可修改及可配置的异质化子系统构建SOC。 软件开发人员可使用 Corstone 软件组件和工具,在硬件准备就绪之前就能开始开发软件,大幅减少开发时的等待时间。
未来发展趋势
未来,MCU将整合更高效的AI加速器,以支持更复杂的AI任务。 基于RISC-V架构的AI加速器正在成为一个热门研究方向。 随着AI技术的普及,MCU将在更多领域得到应用,例如智能家居、智慧城市、医疗设备等。 而AI开发生态也将更完善,开发工具和框架将更加成熟,帮助开发者更高效地实现AI功能。
MCU的计算能力和存储空间有限,直接运行大型AI模型是不现实的。 因此,模型压缩和量化成为优化AI模型在MCU上运行效率的关键技术。
为了降低开发难度,许多厂商提供了专门的开发工具和生态系统。 例如TensorFlow Lite for MCUs是专为MCU设计的机器学习框架,能够帮助开发者快速部署AI模型。 许多厂商还提供了丰富的示例代码和开发文档,进一步降低了开发门槛。
结论
微控制器在AI时代面临着新的挑战和机遇。 透过整合AI处理器、优化资源分配、压缩和量化AI模型,MCU能够在传统应用与AI功能之间取得平衡,并在边缘与终端设备中发挥重要作用。 未来,随着技术的不断进步,MCU将在更多领域实现智能化,为AI的普及和应用提供强大的支持。
0 条