Firefly开源社区

打印 上一主题 下一主题

[人工智能] 有关于模型转换、量化问题

89

积分

0

威望

0

贡献

技术小白

积分
89

有关于模型转换、量化问题

发表于 2022-5-6 22:36:09      浏览:5259 | 回复:2        打印      只看该作者   [复制链接] 楼主
本帖最后由 kaaier 于 2022-5-6 22:42 编辑

您好,有在手册中看到rknn.build构建模型的配置参数,do_quantization参数表示是否进行量化, 请问默认量化为int8模型,设置为True为什么模型FP16还是FP32,  看到两个手册地方描述有歧义(RKNN_Toolkit2和RKNPU的手册),麻烦解释下!








问题1. 一个支持fp16,一个说不支持,目前支持什么量化方式,是只支持int8量化,int8推理和fp16推理吗?

问题2. fp32直接转为fp16,模型为何无精度损失
回复

使用道具 举报

24

积分

0

威望

0

贡献

技术小白

积分
24
发表于 2022-5-17 14:07:56        只看该作者  沙发
同问
回复

使用道具 举报

24

积分

0

威望

0

贡献

技术小白

积分
24
发表于 2022-5-17 14:11:05        只看该作者  板凳
yolov5 的demo   RKNPU自带的模型比用RKNN_Toolkit2转换得到的模型要快一倍,也不知道什么原因。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

友情链接 : 爱板网 电子发烧友论坛 云汉电子社区 粤ICP备14022046号-2
快速回复 返回顶部 返回列表