使用 Apache Dubbo 释放 DeepSeek R1 的全部潜力

news/2025/2/27 8:29:53

作者:陈子康,Apache Dubbo Contributor

2025年1月20日,国产大模型公司深度求索(DeepSeek)正式发布了大语言模型 DeepSeek-R1,并同步开源其模型权重。通过大规模强化学习技术,DeepSeek-R1 显著提升了推理能力,性能媲美顶尖闭源产品,迅速引发全球关注。用户量以惊人的速度飙升,DeepSeek App 在苹果应用商店中美、英等 157 个国家登顶下载榜,日活量快速突破 2000 万,成为全球增长最快的 APP。

Apache Dubbo 作为一款易用且高性能的分布式服务框架,被广泛应用于构建企业级微服务架构,拥有庞大的用户群体。Dubbo 的多语言生态也十分丰富,支持 Java、Golang、Python、Rust、Node.js 等多种编程语言,为开发者提供了极大的灵活性。

本文将深入探讨如何利用 Dubbo 的多语言 SDK,从大模型的原生部署到将其无缝接入现有业务系统,全面释放 DeepSeek-R1 的潜力,助力 AI 开发的高效落地。

为什么选择本地部署 DeepSeek R1?

  • 目前 DeepSeek 日活量巨大,时常出现“服务器繁忙”的情况。本地部署可以有效避免因服务器负载过高导致的响应延迟或服务中断,确保业务连续性。
  • 本地离线部署能够避免敏感数据上传至云端,降低数据泄露风险,特别适合对数据安全要求较高的个人开发者和企业使用。
  • 本地部署允许用户根据自身需求对 DeepSeek R1 模型进行微调或二次开发,满足特定业务场景的需求。
  • ……

为什么要原生部署 DeepSeek R1?

这里的原生部署指的是使用 DeepSeek 官方仓库 [ 1] 推荐的部署方式进行部署。

在目前关于 DeepSeek 部署的热门文章中,ollama 被广泛推荐为一种快速、轻量的部署工具。对于个人开发者或尝鲜者而言,ollama 的便捷性确实足够。然而,对于大模型开发人员和企业用户来说,ollama 的灵活性和性能存在明显不足。原生部署的核心优势如下:

  1. 灵活性与可扩展性: 原生部署支持对 DeepSeek R1 模型进行任意二次开发,用户可以根据业务需求深度定制模型功能。相比之下,ollama 仅支持有限的微调操作,无法满足复杂的开发需求。
  2. 全精度模型支持: ollama 目前尚不支持全精度的 DeepSeek R1 模型,这可能导致模型性能的损失。而原生部署无此限制,能够充分发挥模型的全部潜力,确保推理精度和效果。

通过原生部署,开发者可以更好地掌控模型的运行环境,优化性能,并为后续的模型迭代和业务集成奠定坚实基础。

原生部署 DeepSeek R1

  • 模型:DeepSeek-R1-Distill-Qwen-7B

  • 模型部署框架:LMDeploy [ 2]
  • 显卡:NVIDIA Corporation GA102GL [A10] (rev a1)

说明: 由于硬件条件限制,本文将使用 DeepSeek R1 的蒸馏版本进行演示,但整体流程适用于其他模型和推理框架。如果需要采用 Docker 等容器化方式部署,请参考 NVIDIA 容器工具包 [ 3] 文档进行相关配置。

基础环境

----------
操作系统:Ubuntu 22.04.5
Python 版本:3.11.10
PyTorch 版本:2.5.1
----------

模型下载

使用 modelscope 提供的 snapshot_download 函数下载模型。其中,第一个参数为模型名称,cache_dir 参数指定模型的下载路径。

from modelscope import snapshot_download

model_dir = snapshot_download('deepseek-ai/DeepSeek-R1-Distill-Qwen-7B', cache_dir='/home/dubbo/model', revision='master')

代码编写

# the path of a model. It could be one of the following options:
# 1. A local directory path of a turbomind model
# 2. The model_id of a lmdeploy-quantized model
# 3. The model_id of a model hosted inside a model repository
model = 'deepseek-ai/DeepSeek-R1-Distill-Qwen-7B'

backend_config = TurbomindEngineConfig(
    cache_max_entry_count=0.2,
    max_context_token_num=20544,
    session_len=20544
)

gen_config = GenerationConfig(
    top_p=0.95,
    temperature=0.6,
    max_new_tokens=8192,
    stop_token_ids=[151329, 151336, 151338],
    do_sample=True  # enable sampling
)

class DeepSeekAiServicer:

    def __init__(self, model: str, backend_config: TurbomindEngineConfig, gen_config: GenerationConfig):
        self.llm = pipeline(model, backend_config=backend_config)
        self.gen_config = gen_config

    def chat(self, content):

        # According to DeepSeek's official recommendations,
        # Each prompt needs to end with <think>\n
        # If it is a mathematical reasoning content, it is recommended to include (in both Chinese and English):
        # Please reason step by step, and put your final answer within \boxed{}.
        prompts = [{
            "role": "user",
            "content": "What is the meaning of life?<think>\n"
            }]

        # Response Example:
        # "<think> The meaning of life is to be happy. </think> I think the meaning of life is to be happy."
        response = self.llm(prompts, gen_config=self.gen_config)
        return response

这样一来,我们就能快速构建、部署和运行 DeepSeek R1,并且还能根据需求灵活地进行二次开发!

利用 Dubbo 多语言 SDK 无成本接入现有业务

使用 Python 对 DeepSeek R1 进行原生部署,使 AI 开发者能够更深入地进行二次开发,最大限度地发挥 DeepSeek R1 的全部潜力。然而,对于国内企业级开发来说,极少有企业会选择 Python 作为业务后端开发语言,更多的是选择性能更佳、Web 生态更成熟的 Java 或 Golang。因此,如何兼顾 AI 模型的开发、部署与现有业务平台的无缝对接,成为企业面临的一大挑战。

近期,Dubbo-Python 发布了 3.0.0b1 [ 4] 版本,支持 Dubbo 3 的核心基础功能。更重要的是,Dubbo-Python 实现了与 Dubbo-Java 的跨语言调用。此功能有效解决了 AI 服务接入现有业务系统的难题。

此外,使用 Dubbo 进行 AI 开发还有以下优点:

  1. 无学习、无接入成本: 大多数推理框架实现的在线服务通常采用 OpenAI 风格或与 Web 框架(如 FastAPI)结合使用。而 Dubbo 提供的跨语言调用方式与同语言直接调用无异,因此用户无需重新学习或适配,便可无缝接入现有系统。
  2. 流式 RPC 调用,支持流式推理: Dubbo 提供丰富且灵活的 RPC 调用方式,包括请求-响应和流式调用。通过流式 RPC 调用结合推理框架的流式推理功能,用户可以在推理过程中实时接收部分结果,避免等待完整推理完成后的长时间延迟,同时规避大文本响应可能引发的一系列风险和问题。

DeepSeek R1 部署(Python 侧)

使用 Dubbo-Python 为 DeepSeek R1 提供服务暴露能力,其模型部署和调用方式与前述代码基本相同,只是将模型推理改为了流式推理,以更好地支持实时响应和大文本输出。

具体代码如下:

"""
The code related to the configuration is the same as above.
"""

class DeepSeekAiServicer:

    def __init__(self, model: str, backend_config: TurbomindEngineConfig, gen_config: GenerationConfig):
        self.llm = pipeline(model, backend_config=backend_config)
        self.gen_config = gen_config

    def chat(self, stream):
        # read request from stream
        request = stream.read()
        print(f"Received request: {request}")
        # prepare prompts
        prompts = [{
            "role": request.role,
            "content": request.content + "<think>\n"
        }]

        is_think = False

        # perform streaming inference
        for item in self.llm.stream_infer(prompts, gen_config=gen_config):
            # update think status
            if item.text == "<think>":
                is_think = True
                continue
            elif item.text == "</think>":
                is_think = False
                continue
            # According to the state of thought, decide the content of the reply.
            if is_think:
                # send thought
                stream.write(chat_pb2.ChatReply(think=item.text, answer=""))
            else:
                # send answer
                stream.write(chat_pb2.ChatReply(think="", answer=item.text))

        stream.done_writing()

def build_server_handler():
    # build a method handler
    deepseek_ai_servicer = DeepSeekAiServicer(model, backend_config, gen_config)
    method_handler = RpcMethodHandler.server_stream(
        deepseek_ai_servicer.chat,
        method_name="chat",
        request_deserializer=chat_pb2.ChatRequest.FromString,
        response_serializer=chat_pb2.ChatReply.SerializeToString,
    )
    # build a service handler
    service_handler = RpcServiceHandler(
        service_name="org.apache.dubbo.samples.llm.api.DeepSeekAiService",
        method_handlers=[method_handler],
    )
    return service_handler

if __name__ == '__main__':
    # build a service handler
    service_handler = build_server_handler()
    service_config = ServiceConfig(service_handler=service_handler)

    # Configure the Zookeeper registry
    registry_config = RegistryConfig.from_url("zookeeper://zookeeper:2181")
    bootstrap = Dubbo(registry_config=registry_config)

    # Create and start the server
    bootstrap.create_server(service_config).start()

    # 30days
    sleep(30 * 24 * 60 * 60)

业务接入(Java 侧)

对于现有的业务平台,无需进行复杂的改动,只需构建一个 Consumer 即可完成服务调用,实现无缝对接。

@Component
public class Consumer implements CommandLineRunner {

    @DubboReference
    private DeepSeekAiService deepSeekAiService;

    @Override
    public void run(String... args) throws Exception {
        ChatRequest request = ChatRequest.newBuilder()
                .setRole("user")
                .setContent("你好,你是谁?你能帮我制定一个dubbo学习计划嘛?")
                .build();

        deepSeekAiService.chat(request, new StreamObserver<ChatReply>() {

            private boolean isThinkPrinted = false;
            private boolean isAnswerPrinted = false;

            @Override
            public void onNext(ChatReply value) {
                printSection("Think", value.getThink(), isThinkPrinted);
                printSection("Answer", value.getAnswer(), isAnswerPrinted);
            }

            @Override
            public void onError(Throwable t) {
                System.err.println("Error received: " + t.getMessage());
                t.printStackTrace();
            }

            @Override
            public void onCompleted() {
                System.out.println("------------ Chat Completed ------------");
            }

            private void printSection(String label, String content, boolean isPrinted) {
                if (!content.isEmpty()) {
                    if (!isPrinted) {
                        System.out.println("------------- " + label + " -------------");
                        if (Objects.equals("Think", label)){
                            isThinkPrinted = true;
                        } else {
                            isAnswerPrinted = true;
                        }
                    }
                    System.out.print(content);
                }
            }
        });
    }
}

总结

本文介绍了如何利用 Apache Dubbo 的多语言 SDK 充分释放 DeepSeek R1 的全部潜力,助力 AI 开发的高效落地。

通过本地部署和原生部署 DeepSeek R1,开发者能够根据业务需求灵活进行模型微调和二次开发,确保业务连续性,同时降低数据泄露风险。

通过 Dubbo 的多语言支持,开发者可以轻松将 DeepSeek R1 接入现有业务系统,实现无缝对接。Dubbo 的流式 RPC 调用功能进一步提升了推理过程的实时响应能力,避免了长时间延迟和大文本响应带来的问题。

总的来说,结合 Dubbo 的多语言 SDK 和 DeepSeek R1 的强大推理能力,开发者可以在保证高性能和高安全性的同时,灵活地进行模型定制和业务集成,为 AI 开发的高效落地提供了强有力的支持。

如果您对 Dubbo 的使用有任何疑问或需要进一步的技术支持,欢迎联系 Dubbo 社区。

Dubbo 社区联系方式:

  • 官网:https://dubbo.apache.org
  • GitHub:https://github.com/apache/dubbo
  • Dubbo Python:https://github.com/apache/dubbo-python
  • 社区交流钉钉群号:105120013829

相关链接:

[1] DeepSeek官方仓库

https://github.com/deepseek-ai

[2] LMDeploy

https://github.com/InternLM/lmdeploy

[3] NVIDIA 容器工具包

https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/index.html

[4] 3.0.0b1

https://github.com/apache/dubbo-python/releases/tag/3.0.0b1


http://www.niftyadmin.cn/n/5869800.html

相关文章

vue3 封装通用 ECharts 组件

我在项目中需要用到很多的图标&#xff0c;比如折线、饼图、柱状、关系等各种图标&#xff0c;我又比较懒&#xff0c;所以就封了一个基本的组件库&#xff0c;只需要传递options和canvasId&#xff0c;基本就可以了&#xff0c;代码如下&#xff1a; <template><d…

【人工智能顶刊合集】CCF-A/B/C类推荐所有期刊目录,中科院1区审稿极速,81天录用!

本期盘点【人工智能】领域CCF-A/B/C类中科院1-2区期刊最新影响因子、分区、审稿周期参考&#xff01; CCF-A类 Artificial Intelligence • 影响因子&#xff1a;5.1 • 期刊分区&#xff1a;JCR1区&#xff0c;中科院2区 • 年发文量&#xff1a;126 • 自引率&#xff1…

Python Cookbook-2.13 使用C++的类iostream语法

任务 C的基于 ostream 和操纵符(插入了这种特定的对象后,它会在 stream 中产生特定的效果)的 I/O方式&#xff0c;并想将此形式用在自己的Python 程序中。 解决方案 Python 允许使用对特殊方法(即名字前后带有连续两个下划线的方法)进行了重定义的类来重载原有的操作符。为了…

半导体晶圆精控:ethercat转profient网关数据提升制造精度

数据采集系统通过网关连接离子注入机&#xff0c;精细控制半导体晶圆制造过程中的关键参数。 在半导体制造中&#xff0c;晶圆制造设备的精密控制是决定产品性能的关键因素。某半导体工厂采用耐达讯Profinet转EtherCAT协议网关NY-PN-ECATM&#xff0c;将其数据采集系统与离子注…

【人工智能】数据挖掘与应用题库(1-100)

1、涉及变化快慢的问题可以考虑使用导数来分析。 答案:对 2、导数的几何意义是曲线在某点处切线的斜率。 答案:对 3、函数在某点的左导数存在,则导数就存在。 答案:错 4、关于梯度下降算法,下列说法错误的是( ) 错误:梯度下降算法能找到函数精确的最小值。 5、正…

seacmsv9注入管理员账号密码+orderby+limit

一、seacmsv9 SQL注入漏洞 查看源码 <?php session_start(); require_once("include/common.php"); //前置跳转start $cs$_SERVER["REQUEST_URI"]; if($GLOBALS[cfg_mskin]3 AND $GLOBALS[isMobile]1){header("location:$cfg_mhost$cs");}…

缓存击穿、缓存穿透、缓存雪崩

在高并发、高流量的分布式系统中&#xff0c;缓存作为优化性能的利器&#xff0c;能够有效减少数据库压力&#xff0c;提高响应速度。然而&#xff0c;在实际使用过程中&#xff0c;缓存的使用并不是一帆风顺的&#xff0c;开发者在设计缓存系统时常常会遇到一些难题&#xff0…

SCIKIT-LEARN 决策树实现csv文档简单的推论预测

一.学习背景 原文来自scikit-learn的学习拓展&#xff0c;根据樱花分类示例衍生而来。源文开源地址&#xff1a;scikit-learn: machine learning in Python — scikit-learn 0.16.1 documentation&#xff0c;想学机器学习和数据挖掘的可以去瞧瞧&#xff01; 二.读取csv文档 …