资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

众所周知,大模型是没有记忆的。从专业角度来解释,所有的大模型API都是无状态API(每个请求是自足的,不依赖于以前的请求或者状态,这样的API可以更容易地进行扩展)。但是想让AI真正的成为“人”,记忆又是必不可少的。

短期记忆的实现

现阶段比较普遍的大模型实现记忆方法,就是每次请求时,把聊天记录简单的塞入上下文,让大模型看了聊天记录再进行回答。

但是这么做,会有2个先天的弊端:

  1. 模型上下文有限,传入的聊天记录是有限的,大模型只能看到一小部分的记录。
  2. 如果传入大量的聊天记录,花费就上去了,而且每次对话传入的聊天记录有绝大部分都是重复的,造成了资源的浪费。

这种方法,我们统称为短期记忆。

短期记忆 vs. 长期记忆

由于以上的弊端,长期记忆的需求自然而然被提了出来。

短记忆的特点:

  • 维持当前对话的上下文,通常只针对一个会话。
  • 依赖对话历史或会话状态实现。
  • 受限于 token 长度(通常 4k 到 32k tokens)或会话时长。
  • 会话结束后,自动清空。

长记忆的特点:

  • 跨会话保存:不局限于当前对话。
  • 需要结构化存储和高效的检索机制。
  • 用于存储模式、偏好和历史互动信息。
  • 需要定期更新和维护。

1秒接入长期记忆功能

为了解决AI短期记忆的限制,302.AI为所有大模型增加了长期记忆功能此功能限时免费,只需支付原有的模型调用费用),这一功能由302的合作伙伴Memobase(https://www.memobase.io)提供支持。

接入的过程也非常的简单,在原有大模型API不变的情况下,请求增加一个userid参数即可

不带记忆的API请求:

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

不带记忆的回答:

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

带记忆的API请求:

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

带记忆的回答:

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

可以看到,在单个API请求完全不带上下文的情况下,AI通过我之前的自我介绍,识别出了我的身份。

此功能几乎支持所有大模型,无需创建用户,无需初始化,仅需一个userid即可,AI会自动化的通过聊天记录来提取和检索长期记忆。

长期记忆的原理

短期记忆是将聊天记录原封不动的传给大模型

长期记忆是通过收集对话信息,使用大模型提取用户的各种信息,如年龄、教育背景、兴趣和观点,生成用户画像,最后将用户画像通过系统提示词传递给大模型。

所以长期记忆是短期记忆的蒸馏,短期记忆是长期记忆的数据来源

302.AI和Memobase合作,简化接入流程,将初始化用户、同步聊天记录、提取记忆、检索记忆等操作全部自动化,仅需在API请求传递一个userid,即可解决所有问题。

背后的流程大致如下:

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

在线测试

1、登录进入302.AI管理后台——点击使用API——选择API超市——分类中点击语言大模型——点击长期记忆

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

2、点击【查看文档】进入API文档:

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

3、根据提供的模板按需填写参数,最后点击发送即可,以下是必填的三个参数:

model:表示要使用的模型ID名称,例如“gpt-4o-mini”

messages:以聊天格式生成聊天完成的消息。

userid:uuidV4格式的userid(注意:userid必须符合uuidV4标准,如果不符合,将不会执行记忆操作。uuid生成测试链接:https://www.gongjuwa.com/uuid/

资讯丨如何1秒钟为大模型API增加长期记忆?限时免费体验!

总结

302.AI通过API增加一个参数,为几乎所有大模型增加了长期记忆功能,为所有开发者带来了极大的便利,再次扩展了AI的使用场景。

而302.AI之所以能做到这一点,和Memobase全新的记忆架构密切相关,过去302.AI团队也尝试接入Mem0等记忆技术,但是速度过慢和成本过高,始终无法达到标准。而Memobase全新的记忆架构,让记忆检索速度提高了5倍,成本降低了5倍,302团队和Memobase团队一拍即合,联手为大家推出了这个功能,希望感兴趣的朋友,赶紧来试用吧。

Like (0)
302.AI302.AI
Previous 2025 年 1 月 16 日 下午6:21
Next 2025 年 1 月 21 日 下午8:17

相关推荐

  • 资讯丨实测Doubao文生图模型v2.1版本,中英文内容生成竟轻松拿捏!

    12月,字节跳动豆包大模型团队推出文生图模型 v2.1版本,这次的升级对比通用 2.0和通用 2.0 PRO版本,除了结构准确和美感明显提升外,重点支持了中英文字符渲染。 据了解,豆包文生图模型v2.1通过打通 LLM 和 DiT 构架,构建了高质量文字渲染能力,大幅提升文字生成准确率。这种原生的文字渲染能力,让文字与整体画面的融合更为自然和实用。 >…

    2024 年 12 月 31 日
    82700
  • 50美金复刻DeepSeek R1?解密背后真正的故事

    一则新闻 今天猛然看到一则新闻标题,大意是李飞飞团队仅用 50 美金就复刻出了一个媲美 R1 的模型。我的第一反应是「不可能,又是什么标题党」;第二反应是「数据应该不是凭空捏造的,索性求证一下?」 然后,我找到了原始论文《s1: Simple test-time scaling》(https://arxiv.org/pdf/2501.19393)。仔细拜读之…

    2025 年 2 月 7 日
    37900
  • Reflection-Llama-3.1-70B发布短短几天,为何备受争议?

    9月6日,AI写作初创公司HyperWrite发布了Reflection-Llama-3.1-70B模型。该模型基于Meta的Llama 3.1-70B Instruct,并使用原始的 Llama Chat 格式,确保了与现有工具和 pipeline 的兼容性。 在发布当天,HyperWrite 公司的 CEO Matt Shumer 在社交媒体平台发文表示…

    2024 年 9 月 9 日
    32900
  • 资讯丨阿里发布长上下文模型Qwen2.5-Turbo,实测结果不达预期?

    继9月Qwen2.5发布后,11月18日,阿里巴巴通义千问团队再次发布新模型Qwen2.5-Turbo,大幅提升了上下文处理能力与推理速度。 据了解,Qwen2.5-Turbo上下文长度从 128k 显著增加到 1M 个 tokens,约相当于 100 万个英文单词或 150 万个中文字符。这一容量可容纳 10 部长篇小说、150 小时的语音记录或 3 万行…

    2024 年 11 月 20 日
    76500
  • 资讯丨谷歌突袭发布新模型Gemini 2.0 Flash实验版,原来这才是性价比之王?!

    12月12日的凌晨,当OpenAI的“12天连续发布”活动如火如荼地进行到第五天时,谷歌在毫无预兆的情况下,带来了其新系列大模型:Gemini 2.0,而Gemini 2.0 Flash Exp,则是Gemini 2.0 系列模型中的第一个模型。 虽然没有找到准确的参数,但据了解,Flash是Gemini模型序列中,除了专为端侧开发的Nano模型外,参数最小…

    2024 年 12 月 12 日
    28300

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注