Pytorch自定义优化器Optimizer简单总结(附AdamW代码分析)
写在前面虽然pytorch,tensorflow等主流框架已经为我们内置了很多已经被广泛使用的优化算法,比如SGD,Adam,Adagrad等等,但是有的时候往往需要对优化器做一定的改动,才能使我们的模型收敛到最优解;或者说我们就是对SGD系列算法展开研究,发现了其中的问题并且提出了一个更好的优化器,如何把他封装到pytorch或者tensorflow里呢?让其可以简单的使用。本文就针对pytorch重载Optimizer进行简单的讲解,接下来的几篇还会逐步讲解,如何自己写cuda,如何自己定制back