文献知网节
(录用定稿)网络首发时间:2024-12-12 11:15:12

基于大语言模型微调的少样本方面级情感分析研究

朱侯谭雅文魏文韬

  中山大学信息管理学院    中山大学计算机学院  

摘要:[目的/意义] 针对中文方面级情感分析(ABSA)中面临的数据集不充分和跨领域迁移难的问题,探索中文大语言模型在ABSA任务中的应用和性能。[方法/过程] 本研究使用ChatGLM模型,通过提示工程及LoRA与P-Tuning的微调技术,在中文公开方面级情感分析数据集ASAP数据集上开展ABSA任务。[结果/结论] 与基线模型相比,基于少样本提示的ChatGLM性能接近全样本深度学习模型,而结合LoRA和P-Tuning的模型则取得最佳效果,并在实际的ASAP数据集中展现出良好的分类能力。本研究验证了中文大语言模型的方面级情感分析在中文环境下的有效性和可行性,为中文ABSA领域提供了新的解决思路和参考。 
  • 专辑:

    电子技术及信息科学

  • 专题:

    计算机软件及计算机应用; 自动化技术

  • 分类号:

    TP391.1;TP18

中国知网独家网络首发,未经许可,禁止转载、摘编。

下载手机APP用APP扫此码同步阅读该篇文章

温馨提示:阅读CAJ格式原文,请使用CAJ浏览器

下载:1480 页数:18 大小:1146K

相关推荐
  • 相似文献
  • 读者推荐
  • 相关法规
  • 关联作者