发布时间:2020-10-13 10:05 作者:未知
长期以来很多小伙伴对百度大脑EasyEdge产品以及使用流程比较陌生,应众多小伙伴的强烈要求,今天腾佑AI人工智能对EasyEdge产品详情及使用流程做了相关整理,我们一起来看下吧!
一、EasyEdge产品详情
百度EasyEdge端计算模型生成平台
EasyEdge是基于百度飞桨轻量化推理框架Paddle Lite研发的端计算模型生成平台,能够帮助深度学习开发者将自建模型快速部署到设备端。只需上传模型,最快2分种即可生成端计算模型并获取SDK。
平台支持范围简介如下,如需查看所有支持的网络、AI芯片、具体加速效果,可前往上传原模型-了解芯片加速。
上传模型支持5种框架:Caffe(ssd)、PyTorch(1.4)、TensorFlow(1.14)、PaddlePaddle(1.6.2)、MXNet
上传模型支持50+种网络:MobileNet系列、ResNeXt系列、DenseNet系列、Inception/Xception系列、SSD系列、YoloV3系列等
适配10+种AI芯片:通用ARM芯片、通用x86芯片、英伟达GPU、高通Snapdragon GPU/DSP、百度EdgeBoard、英特尔Movidius VPU、华为HiSilicon NPU、华为海思NNIE、苹果A-Bionic等
二、使用流程
进入EasyEdge主页:ai.baidu.com/easyedge,点击“立即使用”即可使用平台。
1、上传深度学习模型
在目录【上传原模型】中:
1,填写模型名称
2,依次选择模型类型、模型框架、网络模型
3,依次上传网络参数文件、网络结构文件、模型标签、其他配置(点击左侧划线处可查看上传要求)
4,自定义分组并描述模型功能
5,提交上传
模型上传成功后,可以在【我的模型】中看到上传的模型。
2、生成端计算模型
成功上传模型后,在目录【生成端模型】中:
1,选择模型
2,选择并添加“芯片/硬件”、“操作系统”的组合,支持添加多种组合
3,如需SDK支持离在线混合,需勾选同意EasyEdge在云端加密部署模型
4,开始生成模型
在【我的模型】点击模型名称,即可查看端计算模型的生成状态
3、获取离线SDK
若某版本端计算模型已成功生成,则可点击右侧操作中的“获取SDK”,跳转到【SDK列表】下载Demo体验或正式的SDK
4、激活离线SDK
1,在【SDK列表】页面下载SDK后,点击“获取序列号激活”,打开【序列号列表】
2,选择鉴权方式:如需开发APP可选择按产品线鉴权,否则需按设备鉴权
3,点击“新增序列号”,填写相关信息
按单台设备获得授权并使用SDK时:
Android或iOS操作系统的SDK可以选择按产品线激活,序列号与包名(Package Name/Bundle ID)绑定:
4,用新增的序列号激活之前下载的SDK,参考开发文档:Android|iOS|Linux Python|Linux CPP|Windows
高级功能
评测模型
目前评测模型功能仅对“图像分类”类型的模型开放,在目录【评测端模型】中:
1,选择模型和版本
2,上传测试集
注意1:同一模型生成的不同版本的端计算模型只能用一个测试集评测,一旦开始评测即不可修改
注意2:需要将准备好的图片按标签整理在不同的文件夹里,并提供说明文件夹名与标签名对应关系的文本文件,标签名必须与之前上传的模型标签文件完全一致
注意3:评测集压缩包仅支持zip格式,压缩包大小需要在100M之内,解压后图片数不超过1000张
3,开始评测模型
更多百度大脑EasyEdge相关内容,腾佑AI人工智能持续分享中!