LLaMA 2 - 最全资源汇总,你想要的都有

LLaMA 2 - 最全资源汇总,你想要的都有

首页休闲益智人类游乐场2无广告版更新时间:2024-04-22

LLaMA 2 是 Meta 开发的大型语言模型,是 LLaMA 1 的后继者。LLaMA 2 可通过 AWS、Hugging Face 等提供商免费用于研究和商业用途。LLaMA 2 预训练模型接受了 2 万亿个标记的训练,上下文长度是 LLama 1 的两倍。其微调模型已经接受了超过 100 万个人工注释的训练。

本文包含 LLama 2 所有相关资源,可帮助您快速入门。它包括以下链接:

一、LLaMa 2 是什么?

Meta 发布了 LLaMA 2,这是一种最先进的新型开放大语言模型 (LLM)。LLaMA 2 代表 LLaMA 的下一代版本,并附带商业许可。LLaMA 2 有 3 种不同的尺寸 - 7B、13B 和 70B 参数。与原始 LLaMA 相比,新的改进包括:

https://huggingface.co/models?other=Llama-2

二、LLaMA 2 在线体验

有几个不同的游乐场可用于测试与 LLaMA 2 Chat 的交互:

https://huggingface.co/chat/

https://huggingface.co/spaces/huggingface-projects/llama-2-7b-chat

https://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat

https://huggingface.co/spaces/ysharma/Explorellamav2with_TGI

https://labs.perplexity.ai/

https://llama2.ai

三、LLama 2 模型选择

如果你正在寻找特定的开源LLM,你会发现有很多变体。GPTQ 版本、GGML 版本、HF/基本版本。我们应该选择使用哪个版本?按一般规则:如果你有很多 VRAM,请使用 GPTQ,如果你的 VRAM 最小,请使用 GGML,如果你想要原始模型,则使用基本的 HuggingFace 模型,而量化造成的智能损失可以忽略不计。

通常,量化模型速度更快,需要的 VRAM 更少,但它们的智能度可能略低。(1)4 位、5 位或 6 位似乎是许多用例的最佳点。

SuperHOT允许8K上下文大小而不是2K。

三、LLaMA 2 背后的研究

LLaMA 2 是一个基本的 LLM 模型,并根据在线公开数据进行了预训练。此外,Meta 还发布了 CHAT 版本。CHAT模型的第一个版本是SFT(监督微调)模型。之后,LLaMA-2-chat 通过人类反馈强化学习(RLHF)进行迭代改进。RLHF 流程涉及拒绝采样和近端策略优化 (PPO) 等技术,以进一步完善聊天机器人。Meta仅发布了该模型的最新RLHF(v5)版本。如果您好奇结账过程是如何进行的:

https://arxiv.org/abs/2307.09288

https://www.interconnects.ai/p/llama-2-from-meta

四、LLaMA 2 基准测试有多好?

Meta 声称“Llama 2 在许多外部基准测试上都优于其他开源语言模型,包括推理、编码、熟练程度和知识测试”。您可以在以下位置找到有关性能的更多见解:

https://huggingface.co/spaces/HuggingFaceH4/openllmleaderboard

https://ai.meta.com/llama/

五、如何正确使用Prompt与 LLaMA 2 聊天

LLaMA 2 Chat 是一种开放的对话模型。与 LLaMA 2 Chat 有效互动需要提供正确的提示和问题,以产生连贯且有用的响应。Meta没有选择最简单的提示。以下是单轮和多轮对话的提示模板。该模板遵循模型的训练过程,如LLaMA 2 论文中所述。您还可以查看LLaMA 2 提示模板

单轮提示模板

<s>[INST] <<SYS>> {{ system_prompt }} <</SYS>> {{ user_message }} [/INST]

多轮提示模板

<s>[INST] <<SYS>> {{ system_prompt }} <</SYS>> {{ user_msg_1 }} [/INST] {{ model_answer_1 }} </s><s>[INST] {{ user_msg_2 }} [/INST] {{ model_answer_2 }} </s><s>[INST] {{ user_msg_3 }} [/INST] 六、如何训练 LLaMA 2

LLaMA 2 是公开可用的,因此可以轻松使用 PEFT 等技术进行微调。有大量资源可用于训练您自己的 LLaMA 2 版本:

https://huggingface.co/blog/llama2#fine-tuning-with-peft

https://github.com/facebookresearch/llama-recipes/tree/main

七、如何部署 LLaMA 2

LLaMA 2 可以使用Hugging Face Inference Endpoints等托管服务或通过 AWS、Google Cloud 和 Microsoft Azure 等云平台部署在本地环境 ( llama.cpp ) 中。

https://huggingface.co/blog/llama2#using-text-generation-inference-and-inference-endpoints

https://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129

https://replicate.com/blog/run-llama-locally

https://mlc.ai/mlc-llm/docs/getstarted/tryout.html

https://gpus.llm-utils.org/running-llama-2-on-runpod-with-oobaboogas-text-generation-webui/

八、Llama 2 在线API接口

replicate 提供了基于Llama 2 Chat在线微调的API接口

https://replicate.com/blog/run-llama-2-with-an-api

https://replicate.com/replicate/llama70b-v2-chat

https://replicate.com/a16z-infra/llama13b-v2-chat

九、References

https://ai.meta.com/llama/

https://huggingface.co/papers/2307.09288

https://gpus.llm-utils.org/llama-2-prompt-template/

Hugging Face Inference Endpoints

https://ui.endpoints.huggingface.co/

https://github.com/ggerganov/llama.cpp

,
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved