神经网络
-
【论文笔记】一文读懂残差网络ResNet(附代码)
Residual Net论文笔记 1. 传统深度网络的问题 2. 残差结构和残差网络 2.1 残差是什么 2.2 残差模块 Residual Block 2.3 基本模块Basic…
-
(HGNN) Hypergraph Neural Networks
Hypergraph Neural Networks 1.Abstract 提出了一个用于数据表示学习的超图神经网络(HGNN)框架,它可以在超图结构中编码高阶数据相关性。面对在实…
-
【Java SE】 带你走近Java的抽象类与接口
🌹🌹🌹【JavaSE】专栏🌹🌹🌹 🌹🌹🌹个人主页🌹🌹🌹 🌹🌹🌹上一篇文章🌹🌹🌹 上一章:【Java SE】 带你走近Java的抽象类与接口 下一章:【Java SE】 带你在Str…
-
【头歌】机器学习 — 神经网络
第1关:神经网络基本概念 c 第2关:激活函数 #encoding=utf8 def relu(x): ”’ x:负无穷到正无穷的实数 ”’ #********* Begin …
-
yolov5源码解析(10)–损失计算与anchor
本文章基于yolov5-6.2版本。主要讲解的是yolov5在训练过程中是怎么由推理结果和标签来进行损失计算的。损失函数往往可以作为调优的一个切入点,所以我们首先要了解它。 一。…
-
基于VGG16的猫狗分类实战
1 使用卷积神经网络识别猫和狗数据集 1.1 理论基础 1.1.1 VGG架构 VGG16是由Karen Simonyan和Andrew Zisserman于2014年在论文“V…
-
人工智能 — 神经网络
1、什么是神经网络 什么是人工智能?通俗来讲,就是让机器能像人一样思考。这个无需解释太多,因为通过各种科幻电影我们已经对人工智能很熟悉了。大家现在感兴趣的应该是——如何实现人工智能…
-
Pytorch学习笔记(7):优化器、学习率及调整策略、动量
目录 一、优化器 1.1 优化器的介绍 1.2 optimizer的属性 1.3 optimizer的方法 1.4 常用优化器 torch.optim.SGD 二、学习率 …
-
optimizer.zero_grad(), loss.backward(), optimizer.step()的理解及使用
optimizer.zero_grad,loss.backward,optimizer.step 用法介绍 optimizer.zero_grad(): loss.backward…
-
【深度学习】李宏毅2021/2022春深度学习课程笔记 – Generative Adversarial Network 生成式对抗网络(GAN)
文章目录 一、神经网络作为生成器 1.1 什么是生成器? 1.2 为什么需要输出一个分布? 1.3 什么时候需要生成器? 二、Generative Adversarial Netw…