深度学习中,模型训练完后,查看模型的参数量和浮点计算量,在此记录下:1 THOP在pytorch中有现成的包thop用于计算参数数量和FLOP,首先安装thop:注意安装thop时可能出现如下错误:解决方法:使用方法如下:对于自己构建的函数也一样,例如shuffleNetV2更多细节,可参考thop GitHub链接: 2 计算参数pytorch本身带有计算参数的方法FLOPs,FLOP时指浮点运算次数,s是指秒,即每秒浮点运算次数的意思,考量一个网络模型的计算量的标准。Params,是指网络模型中需要训练的参数总数。第一步:安装模块第二步:计算注意:输入input的第一维度是批量,批量的大小不回影响参数量, 计算量是batch_size=1的倍数profile的 中必须加上逗号,否者会报错
暂无评论