【MindSpore第七期两日集群营】使用Dataflow Fragment进行可扩展分布式训练
打开 https://gitee.com/mindspore/reinforcement/tree/master/example/dqn
MindSpore Reinforcement 是MindSpore提供的强化学习框架,它把强化学习算法转换为一系列编译好的计算图,然后使用MindSpore框架在CPU、GPU或者昇腾芯片上高效运行。
要实现MindSpore Reinforcement的强化学习训练,需要先安装MindSpore,然后再安装MindSpore Reinforcement。他们之间的版本依赖有以下的关系:
当然,这次我们暂时不考虑自己去安装这些内容,而是利用MindSpore的羲和完成“运行强化学习DQN算法”的任务。
打开 https://xihe.mindspore.cn/projects/VectorSL/MSRL_openday
点击fork :
点击确定。
点击 训练-训练列表:
点击创建训练实例:
加载 train/config.json文件:
修改参数:500个episodes,训练中的eval间隔改为20一次
试试手工修改 https://xihe.mindspore.cn/projects/zhanghui_china/MSRL_openday/blob/train/trainDir/train.py
将原来的650改为500:
点击确认,保存:
修改该文件,将eval从10改为20
按确定后保存。
回到前面创建训练作业的窗口,点击创建。
系统会显示训练列表:此时可以看到训练已经开始了~~~
点击job名称 zhanghui_china-DQN,查看训练详情:
耐心等待,左边的日志会时不时的闪动,更新训练的进度:
显示以上内容,就表示训练完毕了!
返回训练列表:
状态为Completed。
可见使用羲和,可以完全屏蔽掉安装的过程,仅需要fork项目后,调整适当的参数即可完成相关的强化学习算法的训练,真的是简单的爸爸和简单的妈妈为啥子做了一桌子菜——简单到家了。
朋友们,你们赶紧来试一试吧!
(全文完,谢谢阅读)
- 点赞
- 收藏
- 关注作者
评论(0)