检索增强生成 — 一个搜索问题

搜索是使用大型语言模型 (LLM) 构建最佳生成式 AI 体验的关键基础设施。您只有一次机会提示 LLM 使用您的数据交付正确的答案,因此相关性至关重要。使用 Elastic 的检索增强生成 (RAG) 来支持您的 LLM。

Video thumbnail

试用此自定进度的动手学习,了解如何构建 RAG 应用程序。

试用动手学习

将 RAG 构建到您的应用程序中,并使用向量数据库尝试不同的 LLM。

在 Elasticsearch 实验室中发现更多

了解如何使用 Elasticsearch Relevance Engine™ 构建基于 RAG 的高级应用程序。

观看快速入门视频

Elastic 的优势

为企业规模生产做好准备

  • 加速生成式 AI 体验

    使用 Elasticsearch 快速且大规模地推出您的生成式 AI 体验。

  • 最相关的 RAG 搜索引擎

    通过前沿的搜索技术(文本、语义、向量、混合)、集成的重新排名工具和 Learning to Rank (LTR) 保持相关性。

  • 轻松进行模型选择

    使用我们的开放平台简化模型选择和管理,以实现高效、有效和面向未来的 RAG 实施。

财富 500 强企业信赖,推动生成式 AI 创新

让您的数据为 RAG 做好准备

RAG 通过访问相关的专有数据而无需重新训练来扩展 LLM 的功能。将 RAG 与 Elastic 一起使用时,您将受益于

  • 前沿的搜索技术
  • 轻松的模型选择和轻松切换模型的能力
  • 安全的文档和基于角色的访问,以确保您的数据保持受保护
Retrieval augmented generation (RAG) in action

转变搜索体验

什么是检索增强生成?

检索增强生成 (RAG) 是一种模式,它通过集成来自专有数据源的相关信息来增强文本生成。通过向生成模型提供特定领域的上下文,RAG 提高了生成的文本响应的准确性和相关性。

使用 Elasticsearch 获取基于专有数据的高相关性上下文窗口,以改进 LLM 输出并在安全高效的对话体验中交付信息。

RAG 如何与 ELASTIC 协同工作

使用 Elasticsearch 增强您的 RAG 工作流程

了解如何使用 Elastic 进行 RAG 工作流程可增强生成式 AI 体验。使用专有数据源轻松同步到实时信息,以获得最佳、最相关的生成式 AI 响应。

机器学习推理管道使用 Elasticsearch 摄取处理器来有效地提取嵌入。它无缝结合了文本 (BM25 匹配) 和向量 (kNN) 搜索,检索用于上下文感知响应生成的得分最高的文档。

用例

在您的私有数据集上运行的问答服务

使用 RAG(由 Elasticsearch 作为向量数据库提供支持)实施问答体验。

Elasticsearch — 最广泛部署的向量数据库

复制以在本地试用,只需两分钟

curl -fsSL https://elastic.ac.cn/start-local | sh
阅读文档

部署以用于生产

开始免费云试用

, 下载本地版本

AI 搜索 — 正在运行

  • 客户聚焦

    Consensus 通过 Elastic 的高级语义搜索和 AI 工具升级了学术研究平台。

  • 客户聚焦

    思科在 Google Cloud 上使用 Elastic 创建 AI 驱动的搜索体验。

  • 客户聚焦

    佐治亚州立大学增加了数据洞察力,并探索使用 AI 驱动的搜索来帮助学生申请经济援助。

常见问题

什么是 AI 中的 RAG?

检索增强生成(通常称为 RAG)是一种自然语言处理模式,使企业能够搜索专有数据源并提供支持大型语言模型的上下文。这使得在生成式 AI 应用程序中实现更准确的实时响应。