百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

Ollama如何制作自己的大模型?

wptr33 2025-05-24 17:32 2 浏览

背景

Llama3发布了,这次用了24000块gpu,训练了15T的数据,提供了8B70B的预训练和指令微调版本。

小团队玩玩推理就好了。

阿里云今天也推出了针对Llama3的限时免费训练、部署、推理服务。

我们在本地,运行以下命令,即可下载模型Llama3

ollama run llama3

即可实现和Llama3对话。

ollama只能使用自己官网发布的,如何制作并使用自己的模型呢?

导入模型

本指南逐步介绍如何导入 GGUF、PyTorch 或 Safetensors 模型。

导入 (GGUF)

第 1 步:编写 Modelfile

首先创建一个 Modelfile 。这个文件是模型的蓝图,指定了权重、参数、提示模板等内容。

FROM ./mistral-7b-v0.1.Q4_0.gguf

(可选项)许多聊天模型需要提示模板才能正确回答。

可以使用 Modelfile 中的 TEMPLATE 指令指定默认提示模板:

FROM ./mistral-7b-v0.1.Q4_0.gguf
TEMPLATE "[INST] {{ .Prompt }} [/INST]"

第 2 步:创建 Ollama 模型

最后,从我们的 Modelfile 创建一个模型:

ollama create example -f Modelfile

第 3 步:运行模型

接下来,使用 ollama run 测试模型:

ollama run example "你最喜欢的吃啥?"

导入(PyTorch 和 Safetensors)

从 PyTorch 和 Safetensors 导入的过程比从 GGUF 导入的过程更长。

Setup 设置

首先,克隆 ollama/ollama 存储库:

git clone git@github.com:ollama/ollama.git ollama
cd ollama

然后获取其 llama.cpp 子模块:

git submodule init
git submodule update llm/llama.cpp

接下来,安装 Python 依赖项:

python3 -m venv llm/llama.cpp/.venv
source llm/llama.cpp/.venv/bin/activate
pip install -r llm/llama.cpp/requirements.txt

然后构建 quantize 工具:

make -C llm/llama.cpp quantize

克隆 HuggingFace 存储库(可选)

如果模型当前托管在 HuggingFace 存储库中,请首先克隆该存储库以下载原始模型。

安装 Git LFS,,验证其已安装,然后克隆模型的存储库:

git lfs install
git clone https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.1 model

转换模型

注意:某些模型架构需要使用特定的转换脚本。例如,Qwen 模型需要运行 convert-hf-to-gguf.py 而不是 convert.py

python llm/llama.cpp/convert.py ./model --outtype f16 --outfile converted.bin

量化模型

llm/llama.cpp/quantize converted.bin quantized.bin q4_0

第三步:写一个 Modelfile

接下来,为我们的模型创建一个 Modelfile

FROM quantized.bin
TEMPLATE "[INST] {{ .Prompt }} [/INST]"

第 4 步:创建 Ollama 模型

最后,从 Modelfile 创建一个模型:

ollama create example -f Modelfile

第 5 步:运行模型

接下来,使用 ollama run 测试模型:

ollama run example "你最爱的人是谁?"

发布我们的模型(可选 - alpha)

发布模型处于早期 alpha 阶段。如果想发布模型以与其他人共享,请按照以下步骤操作:

1、创建一个帐户

2、复制Ollama 公钥:

  • macOS:cat ~/.ollama/id_ed25519.pub
  • Windows: type %USERPROFILE%\.ollama\id_ed25519.pub
  • Linux: cat /usr/share/ollama/.ollama/id_ed25519.pub

3、将公钥添加到你的 Ollama 帐户

接下来,将模型复制到用户名的命名空间:

ollama cp example <your username>/example

然后推送模型:

ollama push <your username>/example

发布后,模型将在 https://ollama.com/<your username>/example 中提供。

相关推荐

每天一个AI姬,AMD核显用户有福了,AI绘画打破 NVIDIA 显卡垄断

使用StableDiffusion进行AI绘画,并不一定只能使用NVIDIA英伟达显卡,甚至,也不一定只能使用独立显卡。今天我们使用AMD6800H核显,并安装了StableDif...

NETworkManager:功能强大的网络管理与问题排除工具

关于NETworkManagerNETworkManager是一款功能强大的网络管理与问题排除工具,该工具完全开源,可以帮助广大研究人员轻松管理目标网络系统并排除网络疑难问题。该工具使用远程桌面、Po...

AMD也能深度学习+免费AI绘画:StableDiffusion+ROCm部署教程!

某国政客扇扇嘴皮子,CN玩硬件和深度学习的圈子里就掀起了一场风暴,这就是著名的嘴皮子效应(误)。没了高性能计算的A100H100倒也能理解,但是美利坚这波把RTX4090禁售了就让人无语了,所以不少做...

windows 下编译 python_rtmpstream

最近在研究数字人,看了大咖的项目(https://github.com/lipku/metahuman-stream),尝试编译此项目的依赖项目python_rtmpstream(https://gi...

如何使用 Python 操作 Git 代码?GitPython 入门介绍

花下猫语:今天,我在查阅如何用Python操作Gitlab的时候,看到这篇文章,觉得还不错,特分享给大家。文中还提到了其它几种操作Git的方法,后续有机会的话,再陆续分享之~~作者:匿蟒...

网上看了不少,终于把ZlmediaKit流媒体框架搭建起来啦

你都站在2023年代了,视频通话、视频直播、视频会议、视频监控就是风口浪尖上的猪师兄,只要你学那么一丁点,拿个高薪的工作不过分吧!我也是半瓶子晃荡的,所以路人呀,共学习,同进步!本篇开始,只讲在Lin...

MacDown:一款 macOS 的强大 Markdown 编辑器

大家好,很高兴又见面了,我是"...

ZLMediaKit安装配置和推拉流

一、ZLMediaKit库简介ZLMediaKit是一个基于...

大神赞过的:学习 WebAssembly 汇编语言程序设计

文/阿里淘系F(x)Team-旭伦随着前端页面变得越来越复杂,javascript的性能问题一再被诟病。而Javascript设计时就不是为了性能优化设计的,这使得浏览器上可以运行的本地语言一...

【Docker】部署WVP视频监控平台

回来Docker系列,今天将会跟大家分享一则关于开源WVP视频监控平台的搭建。先说结论吧,一开始按照网上说的一步一步搭建没有搭建成功,不知道是版本太旧还是我这边机器有问题,尝试了好几个不同方式的搭建都...

MongoDB+GridFS存储文件方案

GridFS是MongoDB的一个内置功能,它提供一组文件操作的API以利用MongoDB存储文件,GridFS的基本原理是将文件保存在两个Collection中,一个保存文件索引,一个保存文...

【开源】强大、创新且直观的 EDA套件

今天分享的LibrePCB是...

Ollama如何制作自己的大模型?

背景Llama3发布了,这次用了...

Ollama使用指南【超全版】

一、Ollama快速入门Ollama是一个用于在本地运行大型语言模型的工具,下面将介绍如何在不同操作系统上安装和使用Ollama。官网:https://ollama.comGithub:http...

基于区块链的价值共享互联网即时通讯应用平台源码免费分享

——————关注转发之后私信回复【源码】即可免费获取到本项目所有源码基于区块链的价值共享互联网即时通讯应用平台,是一个去中心化的任何人都可以使用的通讯网络,是一款基于区块链的价值共享互联网即时通讯AP...