标签:上下文内存管理
【Letta资讯】MemGPT团队正式宣布创业,获得1000万美元融资,硅谷巨头Jeff Dean倾力投资——探索大语言模型与上下文内存管理的未来
一、为大语言模型构建更长的上下文,并让开发者自由切换基础模型 近年来,人工智能领域发展迅猛,尤其是大语言模型(LLM)的应用越来越广泛。然而,由于上下文窗口长度的限制,大语言模型在多轮对话和文档分析等任务中的表现仍有待提升。为了解决这一问题,Letta公司推出了一款名为Letta的AI上下文内存管理平台。 Letta平台将大语言模型的上下文分为“主上下文”和“外部上下文”。主上下文直接由模型访问和操作,而外部上下文则用于存储暂时不需要但在未来可能需要的信息。通过特定的内存管理算法,Letta可以在主上下文和外部...