mmrotate自己训练修改参数

1.tools/train.py 

修改训练所需的模型  和  训练获得权重的目标文件夹(文件夹会自动创建)

parser.add_argument('--config', defualt='/home/zhh/download/mmrotate-main/tools/train-/s2anet_r50_fpn_1x_dota_le135.py', help='train config file path')
parser.add_argument('--work-dir', default='/home/zhh/download/mmrotate-main/tools/train-/run', help='the dir to save logs and models')

 

2.s2anet_r50_fpn_1x_dota_le135.py

 改为绝对路径

--------------------------------------------------------------------------------------------------------------------------------

 模型选择

--------------------------------------------------------------------------------------------------------------------------------

 

 想要训练成几类,就改成几

--------------------------------------------------------------------------------------------------------------------------------

3.mmrotate-main/mmrotate/datasets/dota.py

修改文件中的类别名字(CLASSES)

 

4._base_/datasets/dotav1.py

 选择裁剪好的三个文件夹train、val、test的父文件夹

--------------------------------------------------------------------------------------------------------------------------------

 分别填写刚刚父文件夹下的路径

5._base_/schedules/schedule_1x.py

# evaluation
evaluation = dict(interval=1, metric='mAP')        #每训练1轮报一遍mAP
# optimizer
optimizer = dict(type='SGD', lr=0.0025, momentum=0.9, weight_decay=0.0001)    #     调整学习率
optimizer_config = dict(grad_clip=dict(max_norm=35, norm_type=2))
# learning policy    
lr_config = dict(policy='step',warmup='linear',warmup_iters=500,warmup_ratio=1.0 / 3,step=[130, 180])    #  在第130轮降低一次学习率,在第180轮再降低一次学习率
runner = dict(type='EpochBasedRunner', max_epochs=200)    #  训练200轮
checkpoint_config = dict(interval=10)     #  模型每10轮保存一次


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部