深度解析 Llama 2 的资源汇总:不容错过

 探索 Llama 2 背后的过程,包括了模型的全面解析,在线体验,微调,部署等,这份资源汇总将带您深入了解其内涵。

1017b4c6d1ee4f680e259a2ba1c396c7.png

01

周二发布了文章《中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用》后,不少朋友们对开源模型LLaMA2比较感兴趣。

LLaMA 2 是 Meta 开发的大型语言模型,是 LLaMA 1 的后续版本。LLaMA 2 可通过 AWS、Hugging Face 等平台提供商获得,并免费用于研究和商业用途。

LLaMA 2 预训练模型在 2 万亿个标记上进行训练,上下文长度是 LLaMA 1 的两倍。它的微调模型已经接受了超过 100 万个人工注释的训练。

Meta 的LLaMA2官方网站地址

https: //ai.meta.com/llama/

与 LLaMA 1 相比,新的改进包括:

  • 在 2 万亿个标记的文本数据上进行训练

  • 允许商业使用

  • 默认使用 4096 个前后文本视野

  • 70B 模型采用了分组查询注意力(GQA)

  • 可以在 Hugging Face Hub 上直接获取(https://hf.co/models?other=llama-2)

推荐朋友们先看看官方的模型使用手册‍

https://ai.meta.com/static-resource/responsible-use-guide/

02

在线体验

朋友们可以在下面几个在线网址,用对话的方式体验已经部署好的LLaMA2,不过,回复基本是英文,即使强制它使用中文回答,或者将回复翻译成中文,效果也不尽如人意。‍‍‍‍‍‍‍‍‍‍‍‍‍‍

 HuggingChat 上的 Llama 2 70B‍

https://hf.co/chat

5f256c0224b514189356ef9dee14ec36.png

Perplexity 的地址

https://llama.perplexity.ai/

e11d59dd02fbdaabb49c4e2e74e2f353.png

03

Llama 2 是一个基于公开可获取网络数据训练的基础大语言模型。同时,Meta 公布了其对话模型 – Chat 版本。

初始的Chat模型是SFT(有监督调优)模型。随后,LLaMA-2-chat 通过人类反馈强化学习(RLHF)逐步演化。在RLHF过程中,采用了拒绝采样和近端策略优化(PPO)等技术,对聊天机器人进行进一步调优。

目前,Meta 仅公开了RLHF模型的最新版本(v5)。下面有一些资料是关于Llama 2的研究。

  • Llama 2: 描述了 Llama 2-Chat 的微调和安全改进方法

https://arxiv.org/abs/2307.09288

  • 对开源大语言模型Llama 2的分析

https://www.interconnects.ai/p/llama-2-from-meta

  • Llama 2 的全面拆解

模型评测

Meta 声称“Llama 2 在许多外部基准测试上都优于其他开源语言模型,包括推理、编码、熟练程度和知识测试”。

Hugging Face 开源大语言模型排行榜

https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard

4c70b6c2d2c308807d3b68d444fc28b6.png

Meta 官方网站

https://ai.meta.com/llama/

e15049723b3a699ee70b7f6c0ef36645.png

看了一下,这个只是对国外的开源模型的对比,没有国内中文的模型,也没有闭源的ChatGPT,Bard,Claude。‍‍

怎么和 LLaMA 2 聊天

Llama 2 Chat 是一个可开源的对话模型。要与 Llama 2 Chat 进行有效互动,用户需要提供适当的提示词,以获得合乎逻辑且有帮助的回复。Meta 并未选择最简单的提示词结构(不知道缘由)。

以下是单轮和多轮对话的提示词样式。

单轮对话

<s>[INST] <<SYS>>
{{ system_prompt }}
<</SYS>>


{{ user_message }} [/INST]

多轮对话

<s>[INST] <<SYS>>
{{ system_prompt }}
<</SYS>>


{{ user_msg_1 }} [/INST] {{ model_answer_1 }} </s><s>[INST] {{ user_msg_2 }} [/INST] {{ model_answer_2 }} </s><s>[INST] {{ user_msg_3 }} [/INST]

下面是关于提示词更详细的说明

  • Llama 2 论文

https://hf.co/papers/2307.09288

  • Llama 2 提示词模板

https://gpus.llm-utils.org/llama-2-prompt-template/

如何训练 LLaMA 2

LLaMA 2 是开源的模型,所以我们可以使用 PEFT 等技术进行微调。有大量学习资源可用于训练自己的 LLaMA 2 版本:

  • 扩展指引:指令微调 Llama 2

https://www.philschmid.de/instruction-tune-llama-2

  • 在 Amazon SageMaker 上微调 Llama 2 (7-70B)

https://www.philschmid.de/sagemaker-llama2-qlora

  • 使用 PEFT 技术微调

https://hf.co/blog/zh/llama2#fine-tuning-with-peft

  • Meta 提供的 Llama 模型示例以及方案

https://github.com/facebookresearch/llama-recipes/tree/main

  • 在本地机器上微调 LLAMA-v2 最简单的方法!

如何部署 LLaMA 2

LLaMA 2 可以部署在本地环境(参考:llama.cpp),使用Hugging Face Inference Endpoints等托管服务部署,或通过 AWS、Google Cloud 和 Microsoft Azure 等云平台。

  • llama.cpp

https://github.com/ggerganov/llama.cpp

  • 使用文本生成接口与推理终端来部署 LLama 2

https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints

  • 使用 Amazon SageMaker 部署 LLaMA 2 70B

https://www.philschmid.de/sagemaker-llama-llm

  • 在 Mac (M1/M2)上通过 GPU 接口来本地部署 Llama-2-13B-chat

https://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129


‍‍‍‍

原文地址(英文):

https://www.philschmid.de/llama-2

阅读推荐:

OpenAI又推新:使用ChatGPT进行内容审核

中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用

OpenAI 或于 2024 年底破产?外媒也这么爱标题党

LLama2详细解读 | Meta开源之光LLama2是如何追上ChatGPT的?

ChatGPT 的“自定义”功能对免费用户开放,在问题信息不足情况下还会反问来获取必要信息

ChatGLM团队发布AI Agent能力评测工具AgentBench:GPT-4一骑绝尘,开源模型表现非常糟糕!

ChatGPT 微信助手上线!问答更便捷,功能持续升级中。

拥抱未来,学习 AI 技能!关注我,免费领取 AI 学习资源。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2023年12月21日
下一篇 2023年12月21日

相关推荐