class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="2"> class="hljs-ln-code"> class="hljs-ln-line"> class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="3"> class="hljs-ln-code"> class="hljs-ln-line">from openai import OpenAI class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="4"> class="hljs-ln-code"> class="hljs-ln-line"> class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="5"> class="hljs-ln-code"> class="hljs-ln-line">client = OpenAI(api_key="sk-e210d055226d417f8e1617e36a3260cd", base_url="https://api.deepseek.com") class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="6"> class="hljs-ln-code"> class="hljs-ln-line"> class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="7"> class="hljs-ln-code"> class="hljs-ln-line">response = client.chat.completions.create( class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="8"> class="hljs-ln-code"> class="hljs-ln-line"> model="deepseek-chat", class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="9"> class="hljs-ln-code"> class="hljs-ln-line"> messages=[ class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="10"> class="hljs-ln-code"> class="hljs-ln-line"> {"role": "system", "content": "You are a helpful assistant"}, class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="11"> class="hljs-ln-code"> class="hljs-ln-line"> {"role": "user", "content": "Hello"}, class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="12"> class="hljs-ln-code"> class="hljs-ln-line"> ], class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="13"> class="hljs-ln-code"> class="hljs-ln-line"> stream=False class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="14"> class="hljs-ln-code"> class="hljs-ln-line">) class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="15"> class="hljs-ln-code"> class="hljs-ln-line"> class="hljs-ln-numbers"> class="hljs-ln-line hljs-ln-n" data-line-number="16"> class="hljs-ln-code"> class="hljs-ln-line">print(response.choices[0].message.content) class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}" onclick="hljs.signin(event)">
c. 运行效果
现在是报了个错,使用AI辅助工具Marscode解释下错误,它认识这个错误(表扬下Marscode!)
目前官方限制了充值,等到后面充值放开,就可以正常使用了。
3)价格(很有竞争力)

4 DeepSeek 本地私有化部署(Ollama):
优势
- 数据安全:敏感信息(比如客户数据、商业机密),不会泄露。
- 量身定制需求:无论是行业特性还是具体任务,它都能完美适配。
- 服务稳定:响应速度更快、服务更稳定,不用担心被外部DDOS攻击。
1)本地安装 ollama
b. 安装:双击OllamaSetup.exe

c. 检查是否安装成功:打开cmd命令行,输入ollama命令
2)ollama 启动 deepseek
a. 选择合适的模型: 根据显卡显存大小
初始体验的话,选择最小版本即可

b. 启动命令
如果是首次启动,ollama会自动下载模型。
ollama run deepseek-r1:1.5b
class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}" onclick="hljs.signin(event)">
c. 模型拉取中

3) 服务启动OK,开始AI问答
在cmd命令窗口中,直接交互式提问响应。到这里本地部署的DeepSeek就OK了。
但是黑乎乎的命令行窗口有点丑,是不是?
要是有个美观的交互界面就好了!

4)美化:ChatBox 美观不美观?
官网 https://chatboxai.app/zh
a.下载ChatBox

b. 安装ChatBox

c. 启动ChatBox,配置Ollama DeepSeek模型

d. ChatBox 配置OK,开始AI问题

总结:使用DeepSeek的四种方法就写完了,欢迎交流,wx6550523
id="blogExtensionBox" style="width:400px;margin:auto;margin-top:12px" class="blog-extension-box"> class="blog_extension blog_extension_type2" id="blog_extension">
class="extension_official" data-report-click="{"spm":"1001.2101.3001.6471"}">
class="blog_extension_card_left">
class="blog_extension_card_cont">
YYDataV系统开发
class="blog_extension_card_cont_r">
微信名片
评论记录:
回复评论: