超详细,DeepSeek 接入PyCharm实现AI编程!(支持本地部署DeepSeek及官方DeepSeek接入),建议收藏!
发布时间:2025-04-22 编辑:游乐网
在数字化时代,ai编程助手已成为提升开发效率的重要工具。deepseek作为一款高性能的ai模型,以其开源免费的特性吸引了众多开发者的关注。本文将详细介绍如何将deepseek接入pycharm,从而实现高效、智能的ai编程。
1、为什么选择DeepSeek + PyCharm?DeepSeek是一款拥有671B参数的混合专家(MoE)模型,处理速度可达每秒60个Token,表现出色。PyCharm作为Python开发者喜爱的集成开发环境,提供了智能代码提示、自动补全和语法检查等功能。将DeepSeek与PyCharm结合使用,不仅能提高编程效率,还能在本地实现AI辅助编程,无需担心隐私和成本问题。
接下来,本文将介绍两种接入方法:
将本地部署的DeepSeek接入PyCharm使用官方的DeepSeek并接入PyCharm
2、将本地部署的DeepSeek接入PyCharmDeepSeek R1模型是开源的,我们可以在本地部署DeepSeek,以实现免费、方便个人知识库管理和数据隐私安全的AI辅助编程。
具体操作如下:
1、下载ollama(https://www.php.cn/link/2575c857df983996d49550f3e924755f)
2、选择模型,DeepSeek-R1提供了7个不同版本,尺寸参数越大,对电脑的要求也越高。对于没有大显存GPU的用户,推荐安装1.5b版本,大多数电脑都能流畅运行。
3、下载模型,以1.5b为例,打开命令行,输入:ollama run deepseek-r1:1.5b
下载完成后,DeepSeek模型将被安装到本地电脑上。
4、接下来,将本地安装的模型接入PyCharm。
5、打开PyCharm,找到文件(File)-设置(Settings)-插件(Plugins),搜索并安装CodeGPT插件。
6、安装好CodeGPT插件后,在工具(Tools)下找到CodeGPT,点击Providers,选择Ollama(Local),选择deepseek-r1:1.5b,点击OK即可。
7、完成上述操作后,即可在PyCharm中使用DeepSeek-r1进行AI编程学习。左侧是代码编辑界面,右侧是r1大模型,可以直接对话式提问,方便快捷。
DeepSeek-r1:1.5b模型的响应时间约为1-2秒,效果令人满意。CodeGPT插件会显示Tokens数,但不会产生任何费用,因为使用的是本地电脑的算力。
3、使用官方的DeepSeek并接入PyCharm1、访问DeepSeek官网(https://www.php.cn/link/338c070809f38739e58e2a12a2684633”。
2、在左侧菜单中点击“API Keys”,然后点击“创建API Key”,输入名称(如“AI代码提示”),点击“创建”。创建成功后,复制生成的API Key,并妥善保存。
3、打开PyCharm,依次点击“文件 -> 设置 -> 插件”,搜索并安装“Continue”插件。
安装完成后,点击“应用”,插件安装成功。
4、在右侧标签栏中找到“Continue”标签,点击进入设置。点击“设置”按钮,弹出配置文件,将apiKey替换为之前保存的DeepSeek API Key。
5、选择DeepSeek Coder模型,点击连接。
6、保存配置文件后,即可开始使用DeepSeek的AI编程功能。Continue插件也支持连接本地部署的模型。
CodeGPT和Continue两款插件目前是大模型与编程UI结合得最好的插件,感兴趣的朋友可以根据本文进行安装尝试。
今天的分享到此结束!
相关阅读
MORE
+- 通俗讲解DeepSeek开源:DeepEP,究竟是个啥?(第二弹) 04-24 【deepseek用例生成平台-10】公告功能前端实现 04-24
- 马斯克xAI发布新一代大模型Grok3霸榜各个榜单,超越Open AI o1和DeepSeek r1! 04-24 一条神奇的指令,DeepSeek直接文生图 04-24
- DeepSeek FlashMLA:技术架构与原理解析 04-24 微软甩开OpenAI自研大模型,还计划用DeepSeek 04-24
- 非常丝滑,腾讯元宝已支持deepseek R1 04-24 Python+DeepSeek新玩法:一句话搞定应用生成+发布 04-24
- IDEA集成满血DeepSeek,写代码比抄作业还快! 04-24 通俗讲解DeepSeek开源:DualPipe,究竟是个啥?(第四弹) 04-24
- 使用 DeepSeek 和 Ollama 搭建一个本地知识库系统(包含完整代码) 04-24 突破性创新!无服务器强化微调技术问世,仅需少量数据即可实现性能提升,效率高达DeepSeek和o1的三倍以上。 04-24
- 对于企业私有大模型DeepSeek的部署,应该选择Ollama还是vLLM? 04-24 DeepSeek开源周第三天:FP8 通用矩阵乘法 (GEMM)库 04-24
- Deepseek+Zotero读文献,7天熟悉一个领域! 04-24 DeepSeek 的张量切片重计算和动态精度调节技术 04-24
- 工业智能化再添利器!如何用DeepSeek开启企业级AI新范式? 04-24 “小力出奇迹”的DeepSeek,也难逃大模型安全短板? 04-24