您当前的位置: 首页 >  算法

耐心的小黑

暂无认证

  • 1浏览

    0关注

    323博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

pytorch学习笔记十:torch.optim下的优化算法的使用方法详解

耐心的小黑 发布时间:2020-04-09 18:46:32 ,浏览量:1

这里,我们不对每一个具体的优化算法做解释,只是对torch.optim下的算法的使用方法以及有哪些属性做一下说明。

一、torch.optim

torch.optim是一个实现了各种优化算法的库。大部分常用的方法得到支持,并且接口具备足够的通用性,使得未来能够集成更加复杂的方法。

二、如何使用optimizer

为了使用torch.optim,你需要构建一个optimizer对象。这个对象能够保持当前参数状态并基于计算得到的梯度进行参数更新。

  • 构建:为了构建一个Optimizer,你需要给它一个包含了需要优化的参数(必须都是Variable对象)的iterable。然后,你可以设置optimizer的参数选项,比如学习率,权重衰减,等等。
optimizer = optim.SGD(model.parameters()
关注
打赏
1640088279
查看更多评论
立即登录/注册

微信扫码登录

0.0382s