腾讯的免费大礼包:全模型参数(671B)DeepSeek本地对话渠道,向服务器繁忙说拜拜

Page content

腾讯的免费大礼包:全模型参数(671B)DeepSeek本地对话渠道,向服务器繁忙说拜拜 by 危生物组

狂薅腾讯羊毛:任意计算机本地搭建全模型参数(671B)DeepSeek对话空间

写在前面的
最近,DeepSeek这款AI工具在科研圈和数据分析领域爆火,凭借其强大的功能吸引了大量用户。然而,由于访问量激增,很多用户在使用时经常遇到网页提示“服务器繁忙”的情况,导致无法正常使用。这主要是因为服务器承载能力有限,暂时无法满足如此高的需求。据说,deepseek爆火后光是中国大陆用户在三天内访问deepseek的数量就等于Chatgpt爆火后整个欧洲在半个月内对Chatgpt的访问量。因此,如果想尽可能避免在线使用deepseek时出现服务器繁忙的情况,搭建本地大模型确实有一定必要。

本地搭建deepseek模型的限制

       在上一篇推送中,我教大家如何在本地计算机搭建DeepSeek模型,以避免在线DeepSeek因“服务器繁忙”而无法使用的窘境。然而,本地搭建模型的效果很大程度上依赖于计算机的硬件配置。目前DeepSeek的最佳模型参数量高达671B,这个级别的模型对硬件要求极高,普通计算机完全无法承受。大多数人的计算机硬件最多只能勉强运行7B参数的模型,因此,我教大家搭建的DeepSeek其实属于“智障版本”,只能解决一些简单的任务。对于更复杂的问题,仍然需要依赖在线版本或高性能硬件的支持。

腾讯白送的特大礼包

       最近腾讯公司送出了一个超大礼包,足以让每个人都薅到大羊毛!他们提供了可以在本地搭建671B级别DeepSeek大模型聊天渠道的方法,突破了对硬件性能限制的担忧。通过腾讯的优化方案,即使在本地,也能够搭建起如此强大的聊天模型,体验媲美在线版本的运行效果。更重要的是,腾讯还提供了详尽的技术支持、工具包以及优化后的运行环境,大大降低了本地部署的门槛。无论是科研分析、数据探索,还是简单的日常交互,都能通过这个模型实现超高效率的智能辅助。对于那些不再想受“服务器繁忙”困扰的用户来说,这无疑是一个绝佳的选择。接下来就详细讲讲如何操作,带你一步步搭建属于自己的DeepSeek大模型聊天渠道,让你的计算机秒变超级AI助手!

671B DeepSeek模型搭建教程

1.注册腾讯云账号

       登录腾讯云官网https://cloud.tencent.com/注册账号


2.创建openAI格式密钥

       完成账号注册后还是在腾讯云官网下方点击"立即接入",再选择以openAI SDK方式介入,并创建API密钥


3.本地安装Cherry studio

       Cherry Studio是一款支持多种大型语言模型(LLM)服务的桌面客户端,兼容Windows、macOS和Linux系统。它的主要功能和特点包括:
      1.多样化的LLM服务支持:Cherry Studio支持主流的LLM云服务,如OpenAI、Gemini、Anthropic等,同时也集成了流行的AI网络服务,如Claude、Peplexity和Poe等。
      2.智能助手与对话功能:内置300多个预配置的AI助手,用户还可以自定义创建专属助手,并支持多模型同时对话,以获得多样化的观点。
      3.文档与数据处理:支持文本、图片、Office文档、PDF等多种格式的处理,提供WebDAV文件管理与数据备份功能。
      4.实用工具集成:包括全局搜索、话题管理系统、AI驱动的翻译功能等,提升用户体验。
      5.优质使用体验:支持明暗主题和透明窗口,提供完整的Markdown渲染和便捷的内容分享功能
       介于Cherry studio的特点,我们只需要把腾讯云中给我们的Deepseek API接入Cherry studio,便能通过Cherry studio建立和全模型参数(671B)的Deepseek对话了。Cherry studio的下载地址是https://cherry-ai.com/download


4.接入deepseek 腾讯云API及密钥

       安装好Cherry studio后进入界面,点击下方的设置图标,进入设置界面,然后点击下方添加按钮,接着屏幕会跳出添加供应商的功能。我们命名tencent_deepseek,这个命名可以自定义。命名后我们讲腾讯云给我们的密钥和API粘贴到对应的地方。https://console.cloud.tencent.com/lkeap/api

5.使用Cherry studio的deepseek通道

       完成添加后便可直接使用deepseek,这次deepseek必然是有求必应,且不会出现服务器繁忙的提示。整个操作是免费的。我问deepseek写一个perl程序,它花了229秒做出应答。我把相同的问题抛给Chatgpt-4o,它也给出几乎一样的解决方案。不过chatgpt-4o多考虑了我问题中对输入数据的有效性检查步骤。速度会比deepseek快一点。但是deepseek的回答同样令人满意。由于大陆的使用限制,不是每个人都能使用chatgpt-4o的,所以deepseek作为中国大陆的原创性大模型,还是要多多支持。



原文链接