新闻动态
景行锐创作为具备多年行业经验的高新软件企业,我们始终在高性能计算和云仿真领域进行研究和总结,如何在嵌入式系统中运行 AI 推理服务
2025-03-15
在大语言模型和深度学习技术风靡全球的当下,AI 推理服务已成为工业、商业及消费领域的关键需求。然而,在智能工厂、农业监测、边缘网关等实际场景中,设备面临着硬件资源的严重限制。现场设备可能仅配备低端 CPU,内存仅有 KB 至 MB 级别,运行的是实时操作系统(RTOS)或精简版 Linux,甚至无法满足 Python 程序运行所需的依赖环境。
那么,如何在这种 “资源匮乏” 的环境中部署 AI 模型呢?本文将聚焦于轻量级框架 TensorFlow Lite,并结合景行人工智能平台的真实案例,详细解析从模型训练到嵌入式落地的完整流程。
传统的 AI 模型通常基于 TensorFlow 或 PyTorch 进行训练,训练过程依赖 GPU 服务器或高性能计算资源。但在嵌入式场景中,设备硬件条件往往不尽如人意:
TensorFlow Lite 是 TensorFlow 的轻量化子集,专为移动端和嵌入式设备设计,具有以下核心优势:
在工业现场,常常需要部署手写文字识别服务。本案例以树莓派 5(1GB 内存,无 GPU)为设备进行部署。
模型转换流程
步骤 1:模型设计与训练
创建方案:在景行人工智能平台打开模型开发模块,选择 “方案设计”,点击 “新建方案”。输入方案名称,选择 “图像识别” 方案类型,创建模型训练方案。
新建方案
设计流程:在方案设计界面,通过拖拽组件并配置属性,构建由模型网络结构流程和数据处理流程组成的方案。
模型训练方案流程
训练模型:方案设计完成后,选择运行资源,开始训练模型。训练过程中的日志会在方案实例的实例日志中动态输出,训练完成后模型会自动保存到模型库。由于模型参数等因素的调整,每次运行生成的模型会以不同版本保存。
选择训练资源
训练资源
模型自动保存到模型库
模型列表
步骤 2:模型转换及推送
在景行人工智能平台的模型库中,选择具体的模型版本,点击 “转换模型”,设置相关参数,将模型转换并保存为.tflite 格式。模型转换会提交作业,完成后会在指定的模型目录下生成 tflite 文件,之后可一键推送到树莓派设备上。
模型转换
转换生成的tflite文件
一键推送到设备
步骤 3:嵌入式运行环境部署
从景行人工智能平台导出适用于树莓派系统的 tensorflowlite,并推送到树莓派设备。同时,在平台的开发环境中编写 C++ 推理代码,代码主要包括加载模型、输入预处理、执行推理以及获取结果等步骤。
步骤 4:在嵌入式环境中运行模型
完成上述步骤后,即可在树莓派设备上运行手写识别模型,实现工业现场的手写文字识别服务。
通过上述实战案例可以看出,景行人工智能平台为用户实现嵌入式 AI 落地提供了便捷途径:
从工业质检到智能家居,AI 推理服务正不断突破传统服务器机房的限制,向边缘设备延伸。借助 TensorFlow Lite 等轻量级工具,即使是资源有限的物联网设备,也能成为 AI 落地的重要节点。
立即行动:访问景行人工智能平台,开启您的嵌入式 AI 之旅!
联系我们
售前:sales@jhinno.com
售后:support@jhinno.com
010-84369601(北京)
029-89521139(西安)
4008875666分机:254401(传真)
销售热线:
13910720439(北京总部)
13519122505(西南区)
13438870307(西南区)
13991832535(西北区)
18653177303(华南区)
17665168855(华南区)
13260485348(华中区)
13324579433(技术支持热线)
微信公众号:JHinnovation
7*24小时专家团队,随时静候您的访问