Python
函数的方法查询网站:
纯净天空–查询方便,讲解详细,内容全面
简介
目前在看一个
spherenet
项目源码,看到了好多自己不会的地方,先总结一下问题的点,链接。
等到后面在细致的详细的写一下把!
1.关于__call__
, __init__
,forward
详细参考:https://blog.csdn.net/hufei_neo/article/details/100153336
参考:https://www.cnblogs.com/Guang-Jun/p/14496689.html
参考:https://blog.csdn.net/weixin_41912543/article/details/108147378#:~:text=forward%E6%98%AF%E5%9C%A8__call__%E4%B8%AD%E8%B0%83%E7%94%A8%E7%9A%84%EF%BC%8C%E8%80%8C__call__%E5%87%BD%E6%95%B0%E6%98%AF%E5%9C%A8%E7%B1%BB%E7%9A%84%E5%AF%B9%E8%B1%A1%E4%BD%BF%E7%94%A8%E2%80%98,%28%29%E2%80%99%E6%97%B6%E8%A2%AB%E8%B0%83%E7%94%A8%E3%80%82
参考:https://zhuanlan.zhihu.com/p/357021687
2.关于Pytorch的reset_parameters()函数
参考:https://blog.csdn.net/Zhangsan0219/article/details/121141747
参考:https://www.csdn.net/tags/OtDaEg3sMjkzMjMtYmxvZwO0O0OO0O0O.html
3.关于Pytorch的nn.Linear
参考:https://www.freesion.com/article/21111361137/
4.关于torch.nn.ModuleList
官网介绍:https://pytorch.org/docs/1.10/generated/torch.nn.ModuleList.html?highlight=modulelist#torch.nn.ModuleList
参考:https://blog.csdn.net/m0_46653437/article/details/111058663
推荐书籍:Deep Learning With PyTorch
5.关于网络层-池化-线性-激活函数层
https://blog.csdn.net/qq_24739717/article/details/102838520
net[0].weight.data.normal_(0, 0.01)
net[0].bias.data.fill_(0)
通过net[0]选择网络中的第一个图层,然后使用weight.data和bias.data方法访问参数
使用替换方法normal_和fill_来重写参数值。就是w和b
6.关于线性回归的简洁实现
https://blog.csdn.net/weixin_43137437/article/details/121123363
7.关于torch.nn.Parameter()
参考:https://blog.csdn.net/weixin_44966641/article/details/118730730
8.关于scipy中的有界根查找-brentq()函数
参考:https://qa.1r1g.com/sf/ask/2296992141/
参考:http://www.manongjc.com/detail/30-pkbixaobvrqdsvk.html
官网:https://docs.scipy.org/doc/scipy/reference/generated/scipy.optimize.brentq.html#scipy.optimize.brentq
9.关于python二维数组取值,python中[j,:],[:,i]
创建二维数组:https://cloud.tencent.com/developer/article/1729124?from=15425
参考:https://blog.csdn.net/qq_35290785/article/details/97052436
10.关于pycharm
快捷键小知识-通过ctrl进入函数,如何返回到原函数
用pycharm时,想要进入对应的函数内部按住Ctrl,然后鼠标点击对应的方法,即可查看当前方法调用的函数。
要想返回到调用原始函数处,按时ctrl+alt+←
11.关于pytorch中.to(device) 和.cuda()的区别说明
参考:https://www.jb51.net/article/213143.htm
12.关于Adam优化器
pytorch优化器详解:RMSProp:https://blog.csdn.net/weixin_39228381/article/details/108511882
pytorch优化器详解:Adam:https://blog.csdn.net/weixin_39228381/article/details/108548413
PyTorch-Adam优化算法原理,公式,应用:https://www.cnblogs.com/dylancao/p/9878978.html
13.关于StepLR
pytorch StepLR 实现细节:https://www.pythonheidong.com/blog/article/53310/6cfe3eed64ff6ea14905/
14.关于“{}“.format()函数的详细用法
-python字符串和变量混合输出的情况
计算机二级python——“{}“.format()函数的详细用法:https://blog.csdn.net/weixin_44956965/article/details/120319507
15.关于zero_grad()
参考:http://www.cppcns.com/jiaoben/python/397644.html
调用backward()函数之前都要将梯度清零,因为如果梯度不清零,pytorch中会将上次计算的梯度和本次计算的梯度累加。
这样逻辑的好处是,当我们的硬件限制不能使用更大的bachsize时,使用多次计算较小的bachsize的梯度平均值来代替,更方便,坏处当然是每次都要清零梯度。
根据pytorch中的backward()函数的计算,当网络参量进行反馈时,梯度是被积累的而不是被替换掉;但是在每一个batch时毫无疑问并不需要将两个batch的梯度混合起来累积,因此这里就需要每个batch设置一遍zero_grad 了。
其实这里还可以补充的一点是,如果不是每一个batch就清除掉原有的梯度,而是比如说两个batch再清除掉梯度,这是一种变相提高batch_size的方法,对于计算机硬件不行,但是batch_size可能需要设高的领域比较适合,比如目标检测模型的训练。
16.关于enumerate
用法举例
https://wenku.baidu.com/view/0b91aadb971ea76e58fafab069dc5022aaea46da.html
如果对一个列表,既要遍历索引又要遍历元素时
17.关于tqdm介绍及常用方法
https://blog.51cto.com/u_15274944/2924165
18.关于to(device)无法将数据放到GPU上
https://blog.csdn.net/qq_35357274/article/details/120764641
19.关于pytorch 中autograd.grad()函数的用法说明
https://www.jb51.net/article/212002.htm
20.关于torch.ones_like函数和torch.zero_like函数
https://wenku.baidu.com/view/380df8d74593daef5ef7ba0d4a7302768e996f9a.html
21.关于拟合多项式回归
https://blog.csdn.net/Marlene_Jiang/article/details/122984391
22.关于unsequeeze()函数
https://blog.csdn.net/weixin_43734080/article/details/124135284
23.关于关于loss.backward ()以及其参数retain_graph的一些坑
https://wenku.baidu.com/view/fba211c5514de518964bcf84b9d528ea81c72fce.html
24.关于聊聊pytorch中 Optimizer与optimizer.step ()的用法
https://wenku.baidu.com/view/93c9344e1dd9ad51f01dc281e53a580217fc5076.html
25.关于Pytorch中model.eval()的作用分析
https://blog.csdn.net/weixin_43977640/article/details/109694244
26.关于.detach() .detach_() 的作用和区别
https://jingyan.baidu.com/article/d8072ac42d0350ad94cefd27.html
https://blog.csdn.net/qq_27825451/article/details/95498211
https://blog.csdn.net/u013289254/article/details/102557070
27.关于pytorch writer.add_scalar 与writer.add_scalars区别
https://blog.csdn.net/zouxiaolv/article/details/105192739
https://blog.csdn.net/sdnuwjw/article/details/107305358
28.关于torch.save()
https://blog.csdn.net/caihuanqia/article/details/108837279
29.关于torch.save()模型的保存于加载
https://blog.csdn.net/weixin_38145317/article/details/111152491
30.关于“
文章出处登录后可见!