transformer
-
【人工智能】LLM 大型语言模型和 Transformer 架构简介
目录 大型语言模型 (LLM) 一、LLM的起源 二、LLM的发展阶段 三、LLM的应用领域
-
锂电池寿命预测 | Pytorch实现基于Transformer 的锂电池寿命预测(NASA数据集)
文章目录 效果一览 文章概述 模型描述 程序设计 参考资料 效果一览 文章概述 Pytorch实现基于Transformer 的锂电池寿命预测,环境为pytorch 1.8.0,p…
-
BEVFormer转onnx,并优化
以下记录均是在bevformer_tiny版本上进行的实验,且不考虑时序输入 参考了https://github.com/DerryHub/BEVFormer_tensorrt,但…
-
【读论文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer
【读论文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transf…
-
【代码笔记】Transformer代码详细解读
Transformer代码详细解读 文章目录 Transformer代码详细解读 简介 1. 数据准备 1.1 词表构建 1.2 数据构建 2. 模型整体架构 2.1 超参数设置 …
-
深度学习网络模型————Swin-Transformer详细讲解与代码实现
深度学习网络模型——Swin-Transformer详细讲解与代码实现 一、网路模型整体架构 二、Patch Partition模块详解 三、Patch Merging模块 四、W…
-
浅析Swin transformer模型(通俗易懂版)
Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 1. 论文信息 原文地址:https…
-
基于Transformer的交通预测模型部分汇总【附源代码】
交通预测一直是一个重要的问题,它涉及到交通运输系统的可靠性和效率。随着人工智能的发展,越来越多的研究者开始使用深度学习模型来解决这个问题。其中,基于Transformer的交通预测…
-
从零实现Transformer、ChatGLM-6B、LangChain+LLM的本地知识库问答
前言 最近一直在做类ChatGPT项目的部署 微调,关注比较多的是两个:一个LLaMA,一个ChatGLM,会发现有不少模型是基于这两个模型去做微调的,说到微调,那具体怎么微调呢…
-
ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》
这是一篇ICLR2023 top 5%论文 论文链接:https://openreview.net/pdf?id=vSVLM2j9eie 代码:https://github.com…