NLP
-
【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca
昨天在github上看到一个在本地部署中文大模型的项目,和大家分享一下。先把地址po出来。 项目名称:中文LLaMA&Alpaca大语言模型+本地部署 (Chinese L…
-
NLP与ChatGPT的碰撞:大模型和小模型联合发力
ChatGPT真的太火了!作为NLP的终结者,ChatGPT又会与NLP发生怎么样的碰撞?大模型可以替代小模型吗?NLP又将何去何从?今天给大家推荐一本好书:《基于NLP的内容理解…
-
【申请加入New Bing遇到的问题:当前无法使用此页面,cn.bing.com 重定向次数过多】
目录 一.前言 二.问题描述 三.解决方案 解决方案1: 解决方案2: 四.总结 一.前言 前面的文章我们详细的讲解了如何加入New Bing,之前我们直接加入还可以直接访问,但是…
-
ChatGPT Prompt工程浅谈
ChatGPT 火爆出圈了,有些人惊叹于它的能力,当然也有部分人觉得也就那样。这就不得不提 Prompt 了,据说【相关文献1】,ChatGPT 效果好不好完全取决于你的 Prom…
-
清华 ChatGLM-6B 中文对话模型部署简易教程
本文目录 一、前言 二、下载 三、部署 3.1 配置环境 3.2 启动 demo 程序 3.2.1 启动 cli_demo.py 3.2.2 启动 web_demo.py 四、【最…
-
AGI:人工智能大模型领域实战篇—设计一个类似GPT-3.5/GPT-4的大模型从开发→部署→应用需要经过的八大步骤之详细介绍
AGI:人工智能大模型领域实战篇—设计一个类似GPT-3.5/GPT-4的大模型从开发→部署→应用需要经过的八大步骤之详细介绍 解读:近期,博主通过与国内外人工智能领域一线大佬们的…
-
我让API版的ChatGPT长了记性!
OpenAI的API接口是基于请求/响应模式的,每次请求的上下文是独立的,不会被记录和保存。因此,ChatGPT机器人无法记录和理解上一次请求的内容,也不会把上下文信息带入到下一次…
-
利用GPT-3 Fine-tunes训练专属语言模型
利用GPT-3 Fine-tunes训练专属语言模型 文章目录 什么是模型微调(fine-tuning)? 为什么需要模型微调? 微调 vs 重新训练 微调 vs 提示设计 训练专…
-
Transformer中解码器decoder的详细讲解(图文解释)
假设我们想把英语句子i am good翻译成法语句子 Je Vais bein,首先将原句送入编码器,使编码器学习原句,并计算特征值,在上一篇博客中已经讲解了编码器是如何计算原句的…
-
ChatGPT应用场景与工具推荐
目录 写在前面 本文会简单介绍ChatGPT的特点、局限以及存在的问题,相信随着科技的发展,ChatGPT功能会越来越强大,也会有更多类似ChatGPT的大模型出现…