侧边栏壁纸
博主头像
鱼箴日记,AI,Java,Liunx,Spring,Spring AI博主等级

行动起来,活在当下

  • 累计撰写 10 篇文章
  • 累计创建 8 个标签
  • 累计收到 0 条评论

目 录CONTENT

文章目录
AI

Ollama,打造您的个人AI助手!

Administrator
2024-06-19 / 0 评论 / 0 点赞 / 145 阅读 / 4529 字 / 正在检测是否收录...

1. 引言

Ollama 支持在多个平台上安装和运行(LLM)大型语言模型,包括 macOS、Linux 以及 Windows 预览版。安装过程简单便捷,只需访问 Ollama 的官方网站下载相应平台的安装包即可完成安装。

1. 环境准备

在开始之前,确保你已经安装了以下工具:

  • 一台Liunx/windows电脑

  • 已安装docker

  • 建议使用至少 4 核的任何现代 CPU,对于运行 13B 模型,建议使用至少 8 核的 CPU。

  • 运行7B模型至少需要8GB的可用内存,13B模型需要16GB,而33B模型则需要32GB的内存。

  • GPU(可选) 运行 Ollama 不需要 GPU,但它可以提高性能,尤其是运行较大的模型。如果您有 GPU,可以使用它来加速 定制模型的训练。

3.安装Ollama

执行docker安装Ollama命令

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

进入Ollama容器

docker exec -it ollama bash

Ollama运行llama3大语言模型

ollama run llama3

可能会因为网络原因下载失败,再次执行ollama run llama3命令即可

看到success字样就llama3模型就运行成功了

测试大模型

其他模型运行命令

4.安装Open WebUI

执行docker安装Open WebUI命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

访问Open WebUI

地址:http://127.0.0.1:3000/

第一次访问注册的账号默认就是系统管理员

选择左上角模型

使用效果

你可以根据需要进一步选择合适的模型,为你的实际应用场景提供支持。

0

评论区