仅一行命令本地 CPU 环境快速上手 Google 开源大模型 Gemma 【保姆级教程】

文摘   2024-08-21 19:30   中国香港  


Google Gemma 是什么?

2月底 Google 发布的 Gemma 相比自家的 Gemini 更加轻量级,不仅可以在笔记本电脑上运行,而且还免费可商用,支持中文,相比其他开源在各个方面都占了上风科技巨头出品、领先地位、全面对外开放、免费可商用、笔记本就能跑……各种福利标签的加持之下,近乎让全球的 “观众老爷们” 为之雀跃,那么如何快速本地使用呢?

gemma-vs-llama-mistral

只需要简单的一行命令,即可快速在本地运行 Google 开源 Gemma 大模型,还犹豫什么,快速体验一下吧。

步骤 1:安装 Docker

从 Docker 官方网站下载对应平台进行安装,安装完成后,打开 Docker Desktop 以确保其正常运行。注意需要根据 Mac 芯片类型选择对应的版本,新款电脑一般都选择 Apple 芯片,早期的一般选择 Intel 芯片。

从 Mac 应用程序中选择 Docker 图标启动。

get_docker_destop

步骤 2:一行命令运行 Gemma

一行命令搭建好本地环境(Ollama 和 open-webui ):

$ curl -o docker-compose.yaml https://raw.githubusercontent.com/open-webui/open-webui/main/docker-compose.yaml && docker compose up -d
...
 ✔ Container ollama                  Started
 ✔ Container open-webui              Started

如果地址不能访问 raw.githubusercontent.com,可在本地使用以下文本内容创建 docker-compose.yaml 文件,然后运行 docker compose up -d,这里我已经将部分镜像地址进行了替换,尽管如此,仍然建议整个过程要科学上网(我并未在特定网络下进行充分测试):

version: '3.8'

services:
  ollama:
    volumes:
      - ollama:/root/.ollama
    container_name: ollama
    pull_policy: always
    tty: true
    restart: unless-stopped
    image: ollama/ollama:latest

  open-webui:
    build:
      context: .
      args:
        OLLAMA_BASE_URL: '/ollama'
      dockerfile: Dockerfile
    image: dwh0403/open-webui:main
    container_name: open-webui
    volumes:
      - open-webui:/app/backend/data
    depends_on:
      - ollama
    ports:
      - ${OPEN_WEBUI_PORT-3000}:8080
    environment:
      - 'OLLAMA_BASE_URL=http://ollama:11434'
      - 'WEBUI_SECRET_KEY='
    extra_hosts:
      - host.docker.internal:host-gateway
    restart: unless-stopped

volumes:
  ollama: {}
  open-webui: {}

考虑下载速度已经将 docker-compose.yaml 文件中镜像地址 ghcr.io/open-webui/open-webui:main 替换为 dwh0403/open-webui:main

打开浏览器输入 http://127.0.0.1:3000 页面,首次打开没有账号,需要注册一个账号作为管理员。注册后使用账号登录 Web 页面开始下载模型,下载完成后,就可开始我们本地大模型之旅了。

open_webui_login

使用注册后的账号登录进入到整体主页面,这里的主页面和 ChatGPT 的使用页面类似,当前我们还未下载模型,需要通过设置下载支持的模型,支持 Llama 2、Mistral 等多种开源模型。本文中我们以 gemma 为例。

welcome_web

如果机器内存 < 8G,建议 gemma:2b,如果内存 > 16G 可以直接体验一下 gemma:7b,速度上可能略有些慢。

模型参数大小
Gemma2B1.4 GB
Gemma7B4.8 GB
google-gemma-openwebui-setting

模型下载成功后,在主页面选择模型,可将选择模型设置为默认模型使用。

choose_model_and_test_gemma

我的电脑配置为 8G16G,在 gemma:7b 运行过程中的负载情况如下:

running_gemma-7b-cpu-load
running_gemma-7b-mem-load

如果完成测试,想要销毁环境,直接执行一下命令即可。

$ docker compose down

补充资料

Ollama 是什么?

本地安装运行模型我们使用 Ollama 项目。Ollama 是一个发布在 GitHub 上的项目,专为运行、创建和分享大型语言模型而设计。它为开发者和研究者提供了一个集成的平台,可以方便地搭建、训练并分享他们的语言模型。这些模型可以应用于各种语言处理任务,如机器翻译、文本生成、情感分析等。Ollama 的目标是推动大型语言模型的发展,提升模型的性能,同时也为开发者提供了一个分享和学习的社区。在这个社区中,开发者可以分享他们的模型,学习他人的经验,共同推动大型语言模型的发展。

Open-webui 是什么?

open-webui 是一个开源项目,是 LLMs 的用户友好型 WebUI,支持的 LLM 运行程序包括 Ollama 和 OpenAI 兼容的 API。


Go Official Blog
Golang官方博客的资讯翻译及独家解读
 最新文章