iFluxArt

博客导航友链
© 2025 iFluxArt 保留所有权利
目录
硬件配置与环境准备
基础版配置(1.5 B-7 B)
模型版本
显存需求
硬件要求
中等性能版(8 B-14 B)
模型版本
显存需求
完整部署流程
Ollama 环境安装
Windows/macOS
模型存储路径配置
模型运行与测试
Open WebUI 可视化部署
运维管理
模型版本删除
优化方案
量化技术
混合计算策略
注意事项
Ollama 常用命令
列出本地可用的模型
删除模型
分类
标签
品牌案例科技品牌快捷键中英对照表术语对照汽车品牌食品饮料服装文案运动品牌读书笔记广告理论办公软件文案美妆护肤视频剪辑部署最佳实践广告文案电商零售创意金融支付写作GitnpmCSS动画代码质量HTMLReactJavaScript组件开发静态站点剧本写作电影创作创作指南真人秀WindowsAcrobatAfter EffectsAuditionIllustratorLightroomMedia EncoderPhotoshopPremiere ProFinal Cut Pro设计工具直播电商私域运营运营策略私域流量DeepSeek运维GeminiCLIGoogle AI配置指南提示词工程AI交互MetaPayEasy亚马逊京东字节跳动滴滴百度网易美团腾讯阿里巴巴IBM思科甲骨文佳能大疆尼康科大讯飞AppleGoogleHTCOPPOrealmevivo一加三星华为小米微软索尼联想荣耀魅族招聘小鹏特斯拉理想蔚来CELEBRITYMISSOSEOK baby步履不停丰田奔驰奥迪宝马本田唯品会拼多多AMD惠普戴尔英伟达英特尔兰蔻完美日记雅诗兰黛谐音梗安踏李宁耐克阿迪达斯微信支付支付宝伊利农夫山泉可口可乐星巴克百事可乐大卫·奥格威教程威廉·伯恩巴克路克·苏立文约瑟夫·休格曼标题技巧版本控制工作流程VS Code开发环境插件配置Docker容器化GitHubSSH包管理pnpmTailwind CSS动画库Python规范工程实践Markdown语法对比动画工具前端开发CSSFAQ编程基础Web框架项目管理Astro评论系统GitHub集成React组件Hexo静态博客主题开发HugoGo语言Next.js技术栈VitePressVue3文档站点开发指南Monorepo剧本结构动态结构悬念设计叙事技巧人物设计戏剧冲突导演思维写作技巧结局设计故事创作电影节国际电影电影奖项电视节目综艺节目探险节目电视制作电影结构剧作分析影像构成电影分析精神分析叙事研究经典台词诗意台词中国电影Cloudflare网络安全VPNNVIDIA显卡驱动AI工具Obsidian插件知识管理V2rayN代理工具网络配置鼠标设置注册表修改显示设置高分屏Lightroom ClassicFCP邀请码内测PDF工具动画制作音频编辑照片处理视频编码Keynote演示软件ExcelPowerPointWordWPS剪映微信公众号账号注册平台认证抖音小店店铺运营电商运营抖音运营账号定位内容策略运营思维商业策略数据驱动人货场直播间运营直播合规违禁词平台规则直播带货运营流程直播脚本话术模板直播技巧运营指南微信生态内容创作行业分类成功案例方法论商业价值变现模式会员运营用户分层商业变现Waves音频插件混音制作
相关文章

容器化部署指南

Gemini CLI 完全配置指南

提示词工程最佳实践

一个广告人的自白

文案发烧

DeepSeek R1 全功能部署与维护指南

2025年3月12日
1215 字
预计阅读 5 分钟

硬件配置与环境准备

基础版配置(1.5 B-7 B)

模型版本

1.5 B、7 B(量化与非量化)

显存需求

  • 1.5 B:纯 CPU 推理(无需显存)或最低 4 GB 显存
  • 7 B(FP 16):需 14 GB 显存(如 RTX 3090+)
  • 7 B(Q 4_K_M 量化):显存降至 6.8 GB

硬件要求

  • CPU:Intel i5-8500+
  • 内存:16 GB+
  • GPU:NVIDIA RTX 3090+(8 B)、NVIDIA RTX 3080+(14 B)

中等性能版(8 B-14 B)

模型版本

8 B、14 B

显存需求

  • 8 B(FP 16):需 8-10 GB 显存
  • 14 B(FP 16):需 16 GB+显存
  • 量化优化:通过 4-bit 量化可降低显存 30-50%

完整部署流程

Ollama 环境安装

Windows/macOS

Bash
curl -fsSL https://ollama.com/install.sh | sh

模型存储路径配置

Windows:C:\Users\<用户名>\.ollama\models

模型运行与测试

Bash
ollama run deepseek-r1:7b

Open WebUI 可视化部署

Bash
docker run -d -p 3000:8080 --gpus all -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:cuda

运维管理

模型版本删除

命令行删除:

Bash
ollama list
ollama rm deepseek-r1:8b

手动清理:删除模型文件:

Bash
deepseek-r1-8b.bin
deepseek-r1-8b.manifest

优化方案

量化技术

使用 GGUF 格式实时量化(Q4_K_M)

混合计算策略

Bash
OLLAMA_GPU_LAYER=auto_split

注意事项

  • 删除模型前建议备份 .bin 文件
  • 量化会轻微降低模型精度
  • 多卡部署需设置 CUDA_VISIBLE_DEVICES 环境变量

Ollama 常用命令

列出本地可用的模型

Bash
ollama list

删除模型

Bash
ollama rm 'model_name'
版权声明

本文为作者原创文章,遵循 CC BY-NC-ND 4.0 协议。

  • 署名:转载时请注明出处
  • 非商业性使用:禁止商业用途
  • 禁止演绎:不得修改原文
查看完整许可证