您当前所在位置: 首页 > 首发论文
动态公开评议须知

1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

上传后印本

( 请提交PDF文档 )

* 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

发邮件给 王小芳 *

收件人:

收件人邮箱:

发件人邮箱:

发送内容:

0/300

论文收录信息

论文编号 202406-46
论文题目 基于多轮问询的大语言模型幻觉识别和减弱方法的研究
文献类型
收录
期刊

上传封面

期刊名称(中文)

期刊名称(英文)

年, 卷(

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

编者.论文集名称(中文) [c].

出版地 出版社 出版年-

编者.论文集名称(英文) [c].

出版地出版社 出版年-

上传封面

期刊名称(中文)

期刊名称(英文)

日期--

在线地址http://

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

英文作者写法:

中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

作者之间用逗号“,”分隔,最后为实心圆点“.”,

示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

示例3:YELLAND R L,JONES S C,EASTON K S,et al.

上传修改稿说明:

1.修改稿的作者顺序及单位须与原文一致;

2.修改稿上传成功后,请勿上传相同内容的论文;

3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

4.请选择DOC或Latex中的一种文件格式上传。

上传doc论文   请上传模板编辑的DOC文件

上传latex论文

* 上传模板导出的pdf论文文件(须含页眉)

* 上传模板编辑的tex文件

回复成功!


  • 0

基于多轮问询的大语言模型幻觉识别和减弱方法的研究

首发时间:2024-06-19

杨博睿 1   

北京邮电大学计算机学院学生

  • 1、北京邮电大学计算机学院(国家示范性软件学院),北京 100089

摘要:大语言模型(Large Language Models, LLMs)在生成文本时,有时会产生与事实不符或逻辑不一致的内容,这种现象被称为"幻觉"(hallucination)。本文首先详细介绍了幻觉现象的定义、产生原因及其在不同应用场景中的表现,特别是代码编辑中的幻觉问题。幻觉现象不仅影响了文本生成的可靠性,还可能对实际应用造成严重影响。 为了应对这一挑战,本文设计并提出了一种基于多轮问询和逆向检查的幻觉识别方法--GPT-HM(Hallucination Mitigation)。该方法通过多轮问询的策略不断对模型生成的内容进行验证,并结合逆向检查机制,从多个角度对生成内容的真实性和一致性进行评估。GPT-HM的核心在于利用多轮交互和逆向思维,尽可能减少模型生成幻觉的概率。 在实验部分,本文选择了两个典型领域进行测试和验证。首先,在自然语言处理领域,我们使用TruthfulQA数据集进行了广泛的实验。结果表明,GPT-HM在提升模型生成内容的真实性和准确性方面表现出色。其次,在软件工程领域,我们将GPT-HM应用于Linux操作系统中的自动化代码编辑任务中,结果显示该方法能够显著减少代码生成过程中的幻觉现象,提高代码的正确性和执行效率。 最后,本文对研究成果进行了总结,指出了当前方法的优势和不足,并对未来研究方向提出了建议。本文的研究成果不仅为幻觉现象的识别和减弱提供了新的解决方案,也为大语言模型在实际应用中的可靠性提升提供了重要参考。

关键词: 大语言模型 编程语言 自然语言处理 软件工程

For information in English, please click here

Research on Recognizing and Mitigating Hallucinations in Large Language Models Based on Multi-Turns Inquiries

YANG Borui 1   

北京邮电大学计算机学院学生

  • 1、School of Computer Science, Beijing University of Posts and Telecommunications, Beijing 10089

Abstract:Large Language Models (LLMs) sometimes generate text that is factually incorrect or logically inconsistent, a phenomenon known as "hallucination." This paper provides a detailed introduction to the definition, causes, and manifestations of hallucinations in various application scenarios, with a particular focus on hallucinations in code editing. Hallucinations not only affect the reliability of generated text but can also cause serious issues in practical applications. To address this challenge, this paper proposes a method for hallucination identification and mitigation based on multi-round inquiry and reverse checking, called GPT-HM (Hallucination Mitigation). This method continuously verifies the content generated by the model through a strategy of multi-round inquiry and evaluates the truthfulness and consistency of the content from multiple perspectives using reverse checking mechanisms. The core of GPT-HM lies in utilizing multi-round interactions and reverse thinking to minimize the probability of hallucinations in model-generated content. In the experimental section, we conducted extensive tests and validations in two typical domains. First, in the field of natural language processing, we used the TruthfulQA dataset to conduct experiments. The results demonstrate that GPT-HM significantly improves the truthfulness and accuracy of the generated content. Second, in the field of software engineering, we applied GPT-HM to the task of automated code editing in the Linux operating system. The results show that this method effectively reduces hallucinations in code generation, improving the correctness and execution efficiency of the code. Finally, this paper summarizes the research findings, highlighting the advantages and limitations of the current method, and proposes directions for future research. The results of this study not only provide a new solution for the identification and mitigation of hallucinations but also offer important references for improving the reliability of LLMs in practical applications.)

Keywords: Large language model, Programming languages, Natural language processing , Software engineering

Click to fold

点击收起

基金:

论文图表:

引用

导出参考文献

.txt .ris .doc
杨博睿. 基于多轮问询的大语言模型幻觉识别和减弱方法的研究[EB/OL]. 北京:中国科技论文在线 [2024-06-19]. https://www.paper.edu.cn/releasepaper/content/202406-46.

No.****

同行评议

未申请同行评议

评论

全部评论

0/1000

勘误表

基于多轮问询的大语言模型幻觉识别和减弱方法的研究