1.下载Ollama
首先我们需要安装Ollama,它可以在本地运行和管理大模型
正常安装
终端输入:ollama
返回官网下载模型
个人使用的8B
使用8B还是很轻松的,所以我更换了14B模型,有点勉强,但还算不错,能用.个人配置:笔记本 32G内存,i7 12650H,4060 8G
2.运行命令
例如:
你是7b则输入:
1 | ollama run deepseek-r1:7b |
你是8b则输入:
1 | ollama run deepseek-r1:8b |
你是14B则输入:
1 | ollama run deepseek-r1:14b |
你是671b则输入:
1 | ollama run deepseek-r1:671b |
就可以直接进行使用了~
3.高阶命令
运行后有点卡,怎么加速?
1 | ollama run deepseek-r1:8b #先运行小模型 |
我不想用这个deepseek-r1 14b模型了,我想用32b模型怎么切换?
1 | ctrl + d #停止 |
怎么下载新模型?
1 | 举例:下载671b模型 |
我想切换llama3.3模型怎么办?
1 | ollama run llama3.3 |
查看模型信息
1 | ollama show deepseek-r1:14b |
删除模型
1 | ollama rm deepseek-r1:14b |
本地所有模型
1 | ollama list |
保存当前进度-运行中输入
1 | /save |
设置变量或者参数-运行中输入
1 | /set xxx=xxx |
加载当前模型相关信息-运行中输入
1 | /show |
加载新的模型-运行中输入
1 | /load [新模型文件] |
初始化当前AI-运行中输入
1 | /clear |
查看快捷键使用说明-运行中输入
1 | /? shortcuts |
多行消息输入
1 | """ |
4.安装docker
安装docker
下载自己的版本
个人是Windows,所以下载Win版本,
重新启动就好
直接选择登录
选择google登录
进行登录
安装完成
5.安装open WebUi
网站:https://github.com/open-webui/open-webui
复制命令
1 | docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main |
打开终端,输入刚才复制的命令
下载完成
打开docker desktop,就可以看到下图,
下图为安装完成
6.图形化运行Deepseek(带语音)
打开终端
运行ollama run deepseek-r1:8b
打开docker desktop
点击开始使用
进行登录
选择对应的模型
测试是否可以使用
如果需要使用其他版本,请在终端运行不同的版本
如果不知道切换版本命令是什么,请查看上方的’高阶命令’
语音通话
勾选上权限以后,就可以进行语音了
1 | ## 注意:需要电脑上有麦克风 |
使用语音转换文字进行沟通
截图分析
文件分析
7.结束语
哈咯哈咯,我是杨CC~
快来夸夸我~
杨CC最棒啦~
当然,观看视频的观众也老爷也最棒啦~
还有,看到的这篇文章的观众老爷,.也超级棒啦~
如果需要资源\教程以及购买服务,请联系
QQ:323002946
微信:Yancy_76
About this Post
This post is written by 杨CC, licensed under CC BY-NC 4.0.