跳转至

Ollama 本地部署

Ollama介绍

Ollama 是一个开源的本地大型语言模型(LLM)运行框架,它旨在简化在本地运行大型语言模型的过程。Ollama 提供了一个简洁易用的命令行界面和服务器,让你能够轻松下载、运行和管理各种开源大型语言模型,如 Llama 3、Mistral、Qwen2 等。

Ollama 的一些主要特点包括:

开源免费:Ollama 及其支持的模型完全开源免费,任何人都可以自由使用、修改和分发。

简单易用:无需复杂的配置和安装过程,只需几条命令即可启动和运行 Ollama。

模型丰富:Ollama 支持多种热门开源大型语言模型,并提供一键下载和切换功能。

资源占用低:相比于商业大型语言模型,Ollama 对硬件要求更低,即使在普通笔记本电脑上也能流畅运行。

社区活跃:Ollama 拥有庞大且活跃的社区,用户可以轻松获取帮助、分享经验和参与模型开发。

Ollama安装

Ollama 官网:https://ollama.com/

1、到官网下载 Ollama ,根据自己的平台选择需要下载的安装包

Ollama 下载地址:https://ollama.com/download

image

2、下载完之后,双击运行安装即可

image

3、安装完后,打开 cmd ,输入 ollama 下面表示 Ollama 已经安装号

image

4、启动了 Ollama ,在 浏览器中输入 指定网址显示 Ollama 正在运行中

网址:http://localhost:11434

image

模型下载

1、在ollama官网搜索qwen

image

2、我们选择qwen2.5 1.5b

image

3、执行以下命令下载模型

ollama run qwen2.5:1.5b

image

模型体验

模型下载成功后,就会可以输入问题进行提问了

image


关注公众号「碳基硅坊」,获取更多IT技术与AI实践干货!

关注公众号