Python代码-Python方法查询

Python函数的方法查询网站:
纯净天空–查询方便,讲解详细,内容全面

简介

目前在看一个spherenet项目源码,看到了好多自己不会的地方,先总结一下问题的点,链接。
等到后面在细致的详细的写一下把!

1.关于__call__, __init__,forward

详细参考:https://blog.csdn.net/hufei_neo/article/details/100153336
参考:https://www.cnblogs.com/Guang-Jun/p/14496689.html
参考:https://blog.csdn.net/weixin_41912543/article/details/108147378#:~:text=forward%E6%98%AF%E5%9C%A8__call__%E4%B8%AD%E8%B0%83%E7%94%A8%E7%9A%84%EF%BC%8C%E8%80%8C__call__%E5%87%BD%E6%95%B0%E6%98%AF%E5%9C%A8%E7%B1%BB%E7%9A%84%E5%AF%B9%E8%B1%A1%E4%BD%BF%E7%94%A8%E2%80%98,%28%29%E2%80%99%E6%97%B6%E8%A2%AB%E8%B0%83%E7%94%A8%E3%80%82
参考:https://zhuanlan.zhihu.com/p/357021687

2.关于Pytorch的reset_parameters()函数

参考:https://blog.csdn.net/Zhangsan0219/article/details/121141747
参考:https://www.csdn.net/tags/OtDaEg3sMjkzMjMtYmxvZwO0O0OO0O0O.html

3.关于Pytorch的nn.Linear

参考:https://www.freesion.com/article/21111361137/

4.关于torch.nn.ModuleList

官网介绍:https://pytorch.org/docs/1.10/generated/torch.nn.ModuleList.html?highlight=modulelist#torch.nn.ModuleList
参考:https://blog.csdn.net/m0_46653437/article/details/111058663
推荐书籍:Deep Learning With PyTorch

5.关于网络层-池化-线性-激活函数层

https://blog.csdn.net/qq_24739717/article/details/102838520

net[0].weight.data.normal_(0, 0.01)
net[0].bias.data.fill_(0)

通过net[0]选择网络中的第一个图层,然后使用weight.data和bias.data方法访问参数
使用替换方法normal_和fill_来重写参数值。就是w和b

6.关于线性回归的简洁实现

https://blog.csdn.net/weixin_43137437/article/details/121123363

7.关于torch.nn.Parameter()

参考:https://blog.csdn.net/weixin_44966641/article/details/118730730

8.关于scipy中的有界根查找-brentq()函数

参考:https://qa.1r1g.com/sf/ask/2296992141/
参考:http://www.manongjc.com/detail/30-pkbixaobvrqdsvk.html
官网:https://docs.scipy.org/doc/scipy/reference/generated/scipy.optimize.brentq.html#scipy.optimize.brentq

9.关于python二维数组取值,python中[j,:],[:,i]

创建二维数组:https://cloud.tencent.com/developer/article/1729124?from=15425
参考:https://blog.csdn.net/qq_35290785/article/details/97052436

10.关于pycharm快捷键小知识-通过ctrl进入函数,如何返回到原函数

用pycharm时,想要进入对应的函数内部按住Ctrl,然后鼠标点击对应的方法,即可查看当前方法调用的函数。

要想返回到调用原始函数处,按时ctrl+alt+←

11.关于pytorch中.to(device) 和.cuda()的区别说明

参考:https://www.jb51.net/article/213143.htm

12.关于Adam优化器

pytorch优化器详解:RMSProp:https://blog.csdn.net/weixin_39228381/article/details/108511882
pytorch优化器详解:Adam:https://blog.csdn.net/weixin_39228381/article/details/108548413
PyTorch-Adam优化算法原理,公式,应用:https://www.cnblogs.com/dylancao/p/9878978.html

13.关于StepLR

pytorch StepLR 实现细节:https://www.pythonheidong.com/blog/article/53310/6cfe3eed64ff6ea14905/

14.关于“{}“.format()函数的详细用法-python字符串和变量混合输出的情况

计算机二级python——“{}“.format()函数的详细用法:https://blog.csdn.net/weixin_44956965/article/details/120319507

15.关于zero_grad()

参考:http://www.cppcns.com/jiaoben/python/397644.html

  调用backward()函数之前都要将梯度清零,因为如果梯度不清零,pytorch中会将上次计算的梯度和本次计算的梯度累加。
  这样逻辑的好处是,当我们的硬件限制不能使用更大的bachsize时,使用多次计算较小的bachsize的梯度平均值来代替,更方便,坏处当然是每次都要清零梯度。

  根据pytorch中的backward()函数的计算,当网络参量进行反馈时,梯度是被积累的而不是被替换掉;但是在每一个batch时毫无疑问并不需要将两个batch的梯度混合起来累积,因此这里就需要每个batch设置一遍zero_grad 了。

  其实这里还可以补充的一点是,如果不是每一个batch就清除掉原有的梯度,而是比如说两个batch再清除掉梯度,这是一种变相提高batch_size的方法,对于计算机硬件不行,但是batch_size可能需要设高的领域比较适合,比如目标检测模型的训练。

16.关于enumerate用法举例

https://wenku.baidu.com/view/0b91aadb971ea76e58fafab069dc5022aaea46da.html
如果对一个列表,既要遍历索引又要遍历元素时

17.关于tqdm介绍及常用方法

https://blog.51cto.com/u_15274944/2924165

18.关于to(device)无法将数据放到GPU上

https://blog.csdn.net/qq_35357274/article/details/120764641

19.关于pytorch 中autograd.grad()函数的用法说明

https://www.jb51.net/article/212002.htm

20.关于torch.ones_like函数和torch.zero_like函数

https://wenku.baidu.com/view/380df8d74593daef5ef7ba0d4a7302768e996f9a.html

21.关于拟合多项式回归

https://blog.csdn.net/Marlene_Jiang/article/details/122984391

22.关于unsequeeze()函数

https://blog.csdn.net/weixin_43734080/article/details/124135284

23.关于关于loss.backward ()以及其参数retain_graph的一些坑

https://wenku.baidu.com/view/fba211c5514de518964bcf84b9d528ea81c72fce.html

24.关于聊聊pytorch中 Optimizer与optimizer.step ()的用法

https://wenku.baidu.com/view/93c9344e1dd9ad51f01dc281e53a580217fc5076.html

25.关于Pytorch中model.eval()的作用分析

https://blog.csdn.net/weixin_43977640/article/details/109694244

26.关于.detach() .detach_() 的作用和区别

https://jingyan.baidu.com/article/d8072ac42d0350ad94cefd27.html
https://blog.csdn.net/qq_27825451/article/details/95498211
https://blog.csdn.net/u013289254/article/details/102557070

27.关于pytorch writer.add_scalar 与writer.add_scalars区别

https://blog.csdn.net/zouxiaolv/article/details/105192739
https://blog.csdn.net/sdnuwjw/article/details/107305358

28.关于torch.save()

https://blog.csdn.net/caihuanqia/article/details/108837279

29.关于torch.save()模型的保存于加载

https://blog.csdn.net/weixin_38145317/article/details/111152491

30.关于“

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2022年5月20日
下一篇 2022年5月20日

相关推荐

此站出售,如需请站内私信或者邮箱!