炸裂:springai内置deepseek啦!

炸裂:springai内置deepseek啦! -k8凯发国际

令人兴奋的消息,spring ai 的最新快照版本已经内置了 ,这使得在项目中集成 deepseek 变得更加便捷。然而,由于快照版本可能存在许多 bug,我们今天将探讨如何使用 spring ai 的稳定版本来全面集成 deepseek。

spring ai 和 deepseek 介绍

spring ai 是 spring 生态系统中的一个关键项目,旨在将人工智能无缝集成到 spring 应用程序中。它为 java 开发者提供了一种便捷的方式来构建、管理和部署 ai 模型。

spring ai 的核心是解决了 spring 生态和 ai 的快速集成:将您的企业数据和 api 与 ai 模型连接起来。

spring ai 几乎支持所有主流的 ai 模型提供商,例如 anthropic、openai、microsoft、amazon、google 和 ollama。支持的功能包括:

  • 聊天
  • 嵌入
  • 附件
  • 文本转图片
  • 音频转文本
  • 文本转音频

spring ai 的最新预览版也将集成 deepseek 大模型。

deepseek 介绍

deepseek 是国内顶尖 ai 团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,被誉为"ai界的六边形战士"。deepseek 的最新版本 r1 采用了“思维链”技术,能够展示完整的推理过程,使其在复杂推理任务上表现出色,甚至在某些方面可以与 openai 的 o1 模型相媲美。

deepseek 的标签很多,其中最具代表性的标签有以下两个:

  • 低成本(不挑硬件、开源、使用简单无需复杂提示词)。
  • 高性能(推理能力极强、回答准确)。

spring ai 集成 deepseek 的步骤如下:

  1. 环境准备

    在开始集成之前,确保您的开发环境满足以下要求:

    • jdk 17 或更高版本
    • maven 或 gradle 构建工具
    • deepseek api key(可通过k8凯发国际官网注册获取),申请地址:https://www.vycc.cn/link/3f7b5208b016e1f6d2ef81964b1fb065
  2. 创建 spring boot 项目

    使用 spring initializr 或其他工具创建一个新的 spring boot 项目,确保版本为 3.2.x 或更高。

  3. 添加依赖

    在项目的 pom.xml 文件中添加 spring ai 和 deepseek 的相关依赖。

    以下是基于 maven 的依赖配置示例:

    
        
            org.springframework.boot
            spring-boot-starter-web
        
        
            org.springframework.ai
            spring-ai-openai-spring-boot-starter
        
    
  4. 配置文件

    在 application.properties 或 application.yml 文件中添加 deepseek 的配置信息:

    # 必填项
    spring.ai.openai.api-key=your-apikey
    spring.ai.openai.base-url=https://api.deepseek.com
    # 模型选择(示例使用对话模型)
    spring.ai.openai.chat.options.model=deepseek-chat

    其中,api-key 是你在 deepseek k8凯发国际官网注册后获取的密钥,base-url 是 deepseek api 的服务地址,model 指定使用的模型版本。

deepseek 模型介绍

deepseek 目前支持以下两种模型:

  • deepseek-chat(v3):适用于聊天机器人、智能客服、内容生成等,能够理解和生成日常对话内容。
  • deepseek-reasoner(r1):专为复杂推理任务设计,适合解决需要深度逻辑分析和推理的问题。
  1. 编写代码

    创建一个控制器类,用于处理与 deepseek 的交互,以下是一个简单的示例:

    import org.springframework.beans.factory.annotation.autowired;
    import org.springframework.web.bind.annotation.*;
    import reactor.core.publisher.flux;
    

    @restcontroller @requestmapping("/api/chat") public class chatcontroller { @autowired private deepseekclient deepseekclient;

    @postmapping
    public string chat(@requestbody string message) {
        return deepseekclient.chatcompletion(message).getoutput().getcontent();
    }
    @getmapping(value = "/stream", produces = "text/event-stream")
    public flux chatstream(@requestparam string message) {
        return deepseekclient.chatfluxcompletion(message)
                .map(response -> response.getoutput().getcontent());
    }

    }

    在上述代码中,chat 方法用于处理普通的非流式请求,而 chatstream 方法则支持流式响应,能够实时返回 ai 的推理结果。

课后思考:关于流式输出大模型的响应速度是很慢的,为了避免用户用户能够耐心等待输出的结果,我们通常会使用流式输出一点点将结果输出给用户,那么问题来了,想要实现流式结果输出,后端和前端要如何配合?后端要使用什么技术实现流式输出呢?

欢迎在评论区给出你的解决答案,文章点赞超过 100 我们将公布完整的解决思路和具体实现源码哦。

以上就是炸裂:内置deepseek啦!的详细内容,更多请关注非常游戏网【www.vycc.cn】其他相关内容。

相关推荐

网站地图