什么是RAG?什么是GraphRAG?一文带你读懂知识库机器人原理

在人工智能领域,知识库机器人已经成为推动智能化发展的重要力量。它们能够高效地处理海量信息,为用户提供精准、及时的知识服务。今天,我们将一起揭开知识库机器人的神秘面纱,探讨知识库机器人的原理。

什么是RAG?

知识库的整套技术在学术界有一个专业名词,叫RAG,即Retrieval-Augmented Generation,翻译成中文就是检索信息增强,是一种将信息检索机制与AI模型结合的创新方法。

RAG还有一个通俗的叫法,叫外挂知识库。外挂的含义就是,和AI大模型是分离的。如果不分离,那就是模型微调了,又是另外一回事了。

RAG的原理

RAG的原理其实很简单,就是模型生成回答时,不是自己直接生成,而是先去查一下知识库,再进行生成。通俗的来说,就是开卷考试(RAG)和闭卷考试(直接生成)的差别。

从流程上来说,绝大多数RAG可以分为这3步:

1、创建知识库

  (1)输入数据(上传文件)

  (2)处理数据(切片+向量化)

  (3)存储数据(存到向量数据库)

2、查询知识库

  (1)搜索数据(向量检索)

  (2)处理数据(重排序)

  (3)输出数据(挑选相关性高的)

3、AI生成答案

什么是RAG?什么是GraphRAG?一文带你读懂知识库机器人原理

通俗的来说,就是将一个巨大的数据,切成很多小块,当AI进行问答时,搜索出关联性高的小块,根据这些小块的内容进行回答。这样的好处就是:AI不需要处理大量的数据,只需要处理很少量的数据就可以了,提高了速度,降低了成本。

但是劣势也是很明显的,就是断章取义。由于AI只拿到了部分数据,无法看到全局,所以这是RAG的天然劣势。

什么是RAG?什么是GraphRAG?一文带你读懂知识库机器人原理

RAG的关键

RAG的本质就是断章取义,那么怎么断,怎么取,就决定回答的质量,在整个过程中,AI的作用其实是很小的。关键是在第一和第二步中,也就是数据处理数据检索。

数据处理的关键是如何切片,302.AI提供了非常丰富的切片设置,具体可以看这一篇文章:https://help.302.ai/docs/ru-he-jin-xing-qie-pian-you-hua。

数据检索的关键是如何找到关联性大的内容,302.AI采用了双重检索的机制,先使用向量检索粗检索,再用重排序算法(rerank)精检索,最后输出到大模型,大大提高了精度。

GraphRAG

GraphRAG是微软提出的一种新式的RAG技术,原理就是在数据输入阶段,用AI对数据进行了图谱化处理,让AI去理解数据,建立数据语义的关联,使检索精度大大提高。

GraphRAG的本质,是在原有的数据基础上,用AI创造了新的数据。这种新的数据是通过构建知识图谱来实现的,这不仅有助于更好地组织和存储信息,还能使AI在进行检索时能够更智能地识别和推理数据之间的关系。这种方法有效地提升了信息检索的准确性和效率,使得系统在处理复杂查询时表现得更加出色。此外,GraphRAG的图谱化处理还可以帮助发现数据中的隐藏模式和趋势,从而为用户提供更深刻的洞察和决策支持。

什么是RAG?什么是GraphRAG?一文带你读懂知识库机器人原理

GraphRAG也不是没有缺点的,第一就是会比较贵,因为在数据录入的过程中,需要AI进行处理,一定会产生AI的费用。第二就是比传统RAG要慢,因为检索图谱的过程会复杂很多。

302.AI现已独家提供GraphRAG的知识库接入和API接入,代码基于Nano-GraphRAG开发,更加轻量化。

知识库的原理就是AI先查询再回答。那么如何查询到关联性高的片段,就是知识库最核心的部分。302.AI提供了2种模式:传统RAG和GraphRAG,可以根据需求去选择,下面将简单展示一下如何使用302.AI的知识库机器人:

什么是RAG?什么是GraphRAG?一文带你读懂知识库机器人原理

选择好后填写知识库名称和描述进入编辑知识库页面(不填会自动生成),选择【导入文档】或是复制【链接】进行导入数据(下面以GraphRAG为例):

什么是RAG?什么是GraphRAG?一文带你读懂知识库机器人原理

导入成功后表明知识库已经建立完成,接下来就是要选择模型及刚刚新建的知识库,目前提供了国内外多种模型选择,可满足不同任务和领域的需求。

什么是RAG?什么是GraphRAG?一文带你读懂知识库机器人原理

知识库机器人创建成功后会直接跳转进入聊天界面,这样就可以向知识库机器人进行提问啦!

什么是RAG?什么是GraphRAG?一文带你读懂知识库机器人原理

希望通过本文对RAG和GraphRAG的解析,能让读者更好地理解知识库机器人背后的强大技术支撑。随着人工智能技术的不断进步,知识库机器人将在更多领域发挥巨大潜力,同时,我们也期待看到更多创新性的应用场景涌现,让知识库机器人更好地服务于人类社会,推动知识的传播与进步。

Like (0)
302.AI302.AI
Previous 2024 年 9 月 10 日 下午6:47
Next 2024 年 9 月 12 日 下午6:23

相关推荐

  • 资讯丨“Thinking Claude”prompt真的这么神?302带你实测揭秘看看

    最近,又一个prompt在网上火了起来,这一prompt名为“ Thinking Claude”,有网友称它为Claude3.5的神级prompt,而更让人意想不到的的是,这个prompt背后的作者,居然是一个十七岁的少年! “Thinking Claude”的核心在于它引导Claude进行一种更为“人性化”的思考方式,强调思维过程的自然流动,而非简单的结构…

    5天前
    11000
  • Stable Diffusion 3.5 VS Flux.1 dev,谁才是开源图像生成模型的王者?

    10月22日,Stability AI推出最新图像生成模型Stable Diffusion 3.5,其中包括Stable Diffusion 3.5 Large、Stable Diffusion 3.5 Large Turbo两个版本,并宣布预计在10月29日上线Medium版本。 10月29日,Stable Diffusion 3.5 Medium如期推出…

    2024 年 11 月 5 日
    11100
  • AI视力考验:各AI模型的视觉理解能力如何?

    近日,行业内有不少新模型涌现出大众的面前,我们会发现,有的模型会在其官方宣传中提到“多模态”一词,比如大家熟知的GPT-4o、Gemini 1.5 Pro等,在发布时都被定义为“原生多模态”,这些多模态LLM在相关的介绍中,都用到了“视觉能力”、“视觉理解”这样的表述。 简单的理解,就是这些模型能够“看得见,并看得懂”,仿佛人的眼睛。为此,很多人…

    2024 年 7 月 25 日
    16800
  • Ideogram推出2.0版本,连Midjourney都感受到了压力?看看到底有多厉害?!

    8月21日,由Ideogram团队倾力打造的创新型文本生成图像模型 Ideogram 2.0正式发布。 其实早在今年2月,Ideogram团队就发布了Ideogram模型1.0版本,但是其在AI生图领域并未引起太大波澜,但在这一次 Ideogram 2.0版本发布后,Ideogram官方直接在社交媒体平台自信宣称,这一版本比FLUX Pro和DALL·E3要…

    2024 年 8 月 26 日
    21300
  • 谷歌发布最新两款Gemini 1.5系列模型,与草莓o1模型对比谁表现更好?

    9月25日,Google旗下的Gemini 1.5系列模型迎来了最新版本的发布,分别是Gemini-1.5-Pro-002和Gemini-1.5-Flash-002两款模型。据了解,与之前的版本相比,Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002在数学、上下文和视觉方面的能力得到了显著提升。 根据官方数据显示,两款模型在M…

    2024 年 9 月 26 日
    13000

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注