大型语言模型(LLMs)通过检索增强生成(RAG)技术得到了显著提升,但RAG系统面临实时检索延迟、文档选择错误和系统复杂性等挑战。为了解决这些问题,来自国立政治大学和中央研究院的研究人员提出了缓存增强生成(CAG)方法,该方法通过预加载相关文档到模型的扩展上下文中,消除了实时检索的需求,从而提高了响应速度和准确性。CAG在处理长文本和复杂知识密集型任务时表现出色,实验结果表明其在多个测试场景中优于传统RAG系统。
参考:
https://arxiv.org/pdf/2412.15605 https://github.com/hhhuang/CAG
点个分享、点赞与在看,你最好看~