自编码器

  • 深度学习项目示例使用自动编码器进行模糊图像修复

    图像模糊是由相机或拍摄对象移动、对焦不准确或光圈配置不当引起的不清晰图像。为了获得更清晰的照片,我们可以使用相机镜头的首选焦距重新拍摄同一张照片,或者使用深度学习知识再现模糊图像。…

    技术文章 2022年4月4日
    4230
  • GAN 并不是你所需要的全部:从AE到VAE的自编码器全面总结

    说到计算机生成的图像肯定就会想到deep fake:将马变成的斑马或者生成一个不存在的猫。在图像生成方面GAN似乎成为了主流,但是尽管这些模型在生成逼真的图像方面取得了巨大成功,但…

    2022年3月18日
    8720
  • 变分自编码器(VAE)直观理解and 数学推导

    这两天在学习VAE相关的内容,感觉云里雾里emm…写个博客记录一下~内容借鉴并整合了以下领导者:变分自编码器VAE:原来是这么一回事在半小时内了解变分自动编码器花式解释AutoEn…

    2022年2月24日
    1.5K0
  • GAN(对抗生成网络)原理及数学推导

    本文主要涉及GAN网络的直观理解和其背后的数学原理。参考课程:计算机视觉与深度学习 北京邮电大学 陆鹏 概述 在所有生成模型中,GAN属于“密度函数未知,直接硬train”的那一类…

    2022年2月24日
    6730
  • 机器学习(七) 自编码器

    文章目录前言1 自编码器1.1 原理1.2 PyTorch实现1.2.1 Fashion MNIST 数据集1.2.2 网络结构前言  目前我们可以通过爬虫等方式获取海量的样本数据????,如照片、语音、文本等,是相对容易的,但困难的是获取这些数据所对应的标签信息,例如机器翻译,除了收集源语言的对话文本外,还需要待翻译的目标语言文本数据。数据的标注工作目前主要还是依赖人的先验知识来完成。因此,面对海量的无标注数据,我们需要从中学习到数据的分布????(????)的算法,而无监督算法模型就是针对这类问题而

    技术文章 2022年1月23日
    6940
  • 基于词向量使用Pytorch常规自编码器对句子进行向量表示与降维

    其实句子建模进行向量化表示,应该使用递归自编码器比较合理,即基于句法树或者误差最小的原则词两两之间进行重构,重构后的再继续与剩下的进行重构,道理大概都懂,但是理论和实际还是有差距的,因为我目前还没有找到实例,找了些论文里面说的也是模模糊糊,因此我还无法使用递归自编码器实现句子建模,但是我发现许多实例是对手写数字图片进行自编码器的降维,因此我斗胆有了以下思路:1.使用jieba切词然后使用word2vec训练词向量,每个词词向量维度v为1282.计算每个句子词数多少,然后根据数量分布取每句的词数d为11(

    技术文章 2022年1月23日
    6580
  • KDD 2016 | SDNE:结构化深层网络嵌入

    KDD 2016 | SDNE:结构化深层网络嵌入

    2022年1月23日
    3840