transformer
-
【Transformer】基于Transformer的目标检测算法综述
本文参考文献:基于Transformer的目标检测算法综述 网络首发时间:2023-01-19 15:01:34 网络首发地址:https://kns.cnki.net/kcms/…
-
llama.cpp部署通义千问Qwen-14B
llama.cpp是当前最火热的大模型开源推理框架之一,支持了非常多的LLM的量化推理,生态比较完善,是个人学习和使用的首选。最近阿里开源了通义千问大语言模型,在众多榜单上刷榜了,…
-
T5模型:打破Few-shot Learning的次元壁垒
❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关…
-
大模型入门(一)—— LLaMa/Alpaca/Vicuna
LLaMa模型是Meta开源的大模型,模型参数从7B到65B不等,LLaMa-7B在大多数基准测试上超过了GPT3-173B,而LLaMa-65B和Chinchilla-70B、P…
-
使用Gradio搭建Stable Diffusion模型生成图像:简单快捷的图像生成体验
目录 0 开发环境 作者:嘟粥yyds 时间:2023年7月31日 集成开发工具:Google Colab和PyCharm Professional 2021.1 集成开发环境:p…
-
在Linux系统下部署Llama2(MetaAI)大模型教程
Llama2是Meta最新开源的语言大模型,训练数据集2万亿token,上下文长度是由Llama的2048扩展到4096,可以理解和生成更长的文本,包括7B、13B和70B三个模型…
-
深度学习之图像分类(十五)DINAT: Dilated Neighborhood Attention Transformer详解(一)
Dilated Neighborhood Attention Transformer Abstract Transformers 迅速成为跨模态、领域和任务中应用最广泛的深度学习架…
-
阿里团队轻量级语义分割框架——AFFormer:Head-Free Lightweight Semantic Segmentation with Linear Transformer
代码地址:dongbo811/AFFormer (github.com) 文章地址 摘要 现有的语义分割工作主要集中在设计有效的解码器上;然而,整体结构引入的计算负载长期被忽视,阻…
-
本地部署LLaMA-中文LoRA部署详细说明
在Ubuntu18.04 部署中文LLaMA模型 环境准备 硬件环境 AMD 5950X 128GB RAM RTX 3090(24G VRAM) 操作系统 Ubuntu 18.0…
-
一文回顾生成式AI的发展:GANs、GPT、自编码器、扩散模型和Transformer系列
ChatGPT的推出引起了全球关注,标志着生成人工智能领域的一个重要里程碑。尽管生成人工智能在过去十年中一直存在,但ChatGPT的引入引发了人工智能领域的新一轮研究和创新浪潮。这…