Firefly开源社区

标题: 有关于模型转换、量化问题 [打印本页]

作者: kaaier    时间: 2022-5-6 22:36
标题: 有关于模型转换、量化问题
本帖最后由 kaaier 于 2022-5-6 22:42 编辑

您好,有在手册中看到rknn.build构建模型的配置参数,do_quantization参数表示是否进行量化, 请问默认量化为int8模型,设置为True为什么模型FP16还是FP32,  看到两个手册地方描述有歧义(RKNN_Toolkit2和RKNPU的手册),麻烦解释下!








问题1. 一个支持fp16,一个说不支持,目前支持什么量化方式,是只支持int8量化,int8推理和fp16推理吗?

问题2. fp32直接转为fp16,模型为何无精度损失

作者: jessbrick    时间: 2022-5-17 14:07
同问
作者: jessbrick    时间: 2022-5-17 14:11
yolov5 的demo   RKNPU自带的模型比用RKNN_Toolkit2转换得到的模型要快一倍,也不知道什么原因。




欢迎光临 Firefly开源社区 (https://dev.t-firefly.com/) Powered by Discuz! X3.1