LLM 这两周不断带给我们震撼与惊喜。GPT-4 的发布让大家对 LLM 的想象空间进一步扩大,而这些想象在本周眼花缭乱的 LLM 应用发布中逐渐成为现实。本文将介绍如何基于 Alpaca-LoRA 训练自己的中文聊天机器人(ChatGPT),以及如何利用 Quantization 等工具加速推理。目前,Stanford 基于 LLaMA 的 Alpaca 已经开源并且在 GitHub 上提供了详细的使用说明。对于 Alpaca-LoRA 的相关信息,您可以通过阅读这篇文章来了解更多。Alpaca-LoRA帮你训练中文ChatGPT在众多的 LLM 应用中,我们很关注 Stanford 基于 LLaMA 的 Alpaca 和随后出现的 LoRA 版本 Alpaca-LoRA。因为 Alpaca 宣称只需要不到 600 美元的成本(包括创建数据集),便可以让 LLaMA 7B 达到接近 text-davinci-003 的效果。而 Alpaca-LoRA 则在此基础上,让我们能够以一块消费级显卡,在几小时内完成 7B 模型的 fine-turning。为了训练自己的 ChatGPT,我们
大道至简