Linux本地部署Gemma大模型

发布于 2024-03-20  87 次阅读


AI 摘要

文章介绍了如何在Linux系统上本地部署Gem模型。Gem模型是由Google DeepMind和Google AI团队开发的大规模训练技术,采用Transformer、深度学习等技术。通过配置环境、安装Ollama框架、安装模型以及启动webui等步骤,展示了部署过程和体验,虽然性能不如ChatGPT3.5 API,但有一定优势,尤其中文理解方面仍有改进空间。文章认为本地模型虽功能完善但仍需提升,生成式AI发展进入稳定期,未来或取得突破。

介绍

Gemma 是由 Google DeepMind 和其他 Google AI 团队共同开发而成,采用与 Gemini 模型相同的研究和技术,建立在序列模型、Transformer、基于神经网络的深度学习方法和分布式系统上大规模训练技术至上。模型训练的上下文长度为 8192 个 token。

环境配置

系统:Debian12
显卡:NVIDIA T4 x2 (共32G显存)
内存:256GB
CUDA版本:12.1

 系统配置
显卡配置

安装Ollama

Ollama是个简明易用的本地大模型运行框架,能够非常快速的一键部署各种大模型,安装也非常简单(就是需要良好的网络环境

curl -fsSL https://ollama.com/install.sh | sh
安装进度

安装模型

Ollama支持一键部署多种模型,可以去它的官网查看

模型列表

我就以Gemma为例,一行命令就能安装并运行gemma模型

ollama run gemma

模型安装完后,就会启动交互式终端和AI对话

启动模型

安装webui

open-webui是个很好的自托管 WebUI,支持各种 LLM 运行程序,我这边使用docker一键安装

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

webui的启动速度挺慢的,大概需要一分多钟

启动成功后,使用浏览器访问服务器ip:8080端口,注册新账号,就能使用本地大模型了

webui界面

模型体验

模型的使用体验参照了我的另外一篇文章低显存可跑的本地大语言模型RWKV体验

运行体验

我使用的是默认的7B模型,内存大概占用3G,显存大概占用7G

内存占用
显存占用

使用体验

速度和ChatGPT3.5 API差不多

上下文聊天

没问题

编程

代码基本没问题,对于代码的解释也没出错,和RWKV相比,比较优秀,但对于ChatGPT3.5来说,还是会有差距

编程内容

翻译

可能对于中文的理解不够,会出现很严重的逻辑错误

翻译内容

问答

能够正常回答,基本没问题

问答内容

调教猫娘(保留节目)

还没开始就结束了

猫娘内容

总结

本地模型现在功能已经很完善了,但还是比不上ChatGPT,尤其是在中文语境方面。现在,生成式AI已经渐渐进入人们的视线,也有了各种各样的模型,与之前相比AI的发展已经从高速期进入了稳定期,也许在不久的将来,会迎来突破