文献知网节
录用定稿
(录用定稿)网络首发时间:2025-01-15 13:46:49

面向闭源大语言模型的增强研究综述

刘华玲

liuhl@suibe.edu.cn

张子龙彭宏帅

  上海对外经贸大学统计与信息学院  

摘要:随着大语言模型在自然语言处理领域的快速发展,以ChatGPT系列为代表的闭源大语言模型的性能增强成为一个挑战。由于无法访问模型内部的参数权重,传统的训练方法,如微调技术,难以应用于闭源大语言模型,这使得在这些模型上进一步优化变得困难。同时,闭源大语言模型已经广泛应用于下游实际任务,因此研究如何增强闭源大语言模型的性能具有重要意义。本文聚焦于闭源大语言模型的增强研究,对提示工程(Prompt Engineering)、检索增强生成(Retrieval Augmented Generation)、智能体(Agent)三种技术进行了分析,并针对不同方法的技术特性和模块架构进行了进一步细分,详细介绍了每种技术的核心思想、主要方法及其应用效果,研究了不同增强方法在推理能力、生成可信度、任务适应性等方面的优越性和局限性。此外,本文还讨论了这三种技术的组合应用方法,结合具体案例,强调了组合技术在增强闭源大语言模型性能方面的巨大潜力。最后,本文总结了现有技术的研究现状和存在的问题,对未来闭源大语言模型增强技术的发展进行了展望。 
  • 专辑:

    电子技术及信息科学

  • 专题:

    计算机软件及计算机应用; 自动化技术

  • 分类号:

    TP391.1;TP18

中国知网独家网络首发,未经许可,禁止转载、摘编。

下载手机APP用APP扫此码同步阅读该篇文章

温馨提示:阅读CAJ格式原文,请使用CAJ浏览器

下载:591 页数:19 大小:1314K

相关推荐
  • 相似文献
  • 读者推荐
  • 相关法规
  • 关联作者