一、本篇背景
之前有同学遇到这个问题:本地部署ollama来跑deepseek,但是从后台看CPU利用率百分百而GPU(即显卡)利用率不足1%,且本地输出的deepseek输出较慢,一段对话一个字一个字蹦,没有完全利用好本地的显卡资源。本篇基于这个情况给出从CPU切换GPU的解决方案,同时对于需要本地使用Deepseek的同学给出Ollama的部署教程。(两篇教程合并到一篇写了)
© 版权声明
THE END
之前有同学遇到这个问题:本地部署ollama来跑deepseek,但是从后台看CPU利用率百分百而GPU(即显卡)利用率不足1%,且本地输出的deepseek输出较慢,一段对话一个字一个字蹦,没有完全利用好本地的显卡资源。本篇基于这个情况给出从CPU切换GPU的解决方案,同时对于需要本地使用Deepseek的同学给出Ollama的部署教程。(两篇教程合并到一篇写了)
暂无评论内容