为满足食品安全监管问答任务对模型准确性、合规性和可解释性的高要求,解决现有大语言模型(large language model,LLM)在该领域应用面临的知识召回不精准、法规解析能力不足及计算成本高等问题,本研究基于检索增强生成框架提出了一个智...为满足食品安全监管问答任务对模型准确性、合规性和可解释性的高要求,解决现有大语言模型(large language model,LLM)在该领域应用面临的知识召回不精准、法规解析能力不足及计算成本高等问题,本研究基于检索增强生成框架提出了一个智能问答系统,其核心是食品安全监管大语言模型(food safety regulation large language model,FSR-LLM)。通过优化数据库存储结构、检索策略及生成器,提升食品安全监管问答的质量和效率。首先构建了食品安全知识图谱(knowledge graph,KG)数据库,以结构化方式存储法规条款、食品安全标准等数据,增强模型对食品领域知识的组织与调用能力。此外,在检索阶段,设计一种大模型引导检索策略,利用LLM智能解析查询语句,在食品安全监管KG中准确地提取高度相关的信息,从而减少无关或误导性内容的召回。对于生成器(Generator)模块,基于Qwen-7B-Chat模型采用低秩适应微调,使模型更贴合食品安全监管问答的需求,同时显著降低计算成本,使其能够在单张RTX 4090 GPU上完成训练。在所提食品安全问答数据集上的实验结果表明,FSR-LLM在BLEU-4、Rouge-L和准确率指标上均优于基线模型,展现出更高的精准度和语义连贯性,为食品安全监管智能化提供了一种低成本、高效能、可扩展的解决方案。展开更多
近年来,大语言模型(Large language model,LLM)在自然语言处理中取得重大进展.在模型足够大时,大语言模型涌现出传统的预训练语言模型(Pre-trained language model,PLM)不具备的推理能力.为了探究如何将大语言模型的涌现能力应用于中文...近年来,大语言模型(Large language model,LLM)在自然语言处理中取得重大进展.在模型足够大时,大语言模型涌现出传统的预训练语言模型(Pre-trained language model,PLM)不具备的推理能力.为了探究如何将大语言模型的涌现能力应用于中文实体链接任务,适配了以下四种方法:知识增强、适配器微调、提示学习和语境学习(In-context learning,ICL).在Hansel和CLEEK数据集上的实证研究表明,基于Qwen-7B/ChatGLM3-6B的监督学习方法超过基于小模型的方法,在Hansel-FS数据集上提升3.9%~11.8%,在Hansel-ZS数据集上提升0.7%~4.1%,在CLEEK数据集上提升0.6%~3.7%.而当模型参数量达到720亿时,Qwen-72B的无监督方法实现与监督微调Qwen-7B相近的结果(-2.4%~+1.4%).此外,大语言模型Qwen在长尾实体场景下有明显的优势(11.8%),且随着参数量的增加,优势会更加明显(13.2%).对错误案例进行分析(以下简称错误分析)发现,实体粒度和实体类别相关错误占比较高,分别为36%和25%.这表明在实体链接任务中,准确划分实体边界以及正确判断实体类别是提高系统性能的关键.展开更多
当前信息抽取任务主要依赖大语言模型(LLM),而标书信息中广泛存在领域术语,模型缺乏相关先验知识,导致微调效率低且抽取性能不佳。此外,模型的抽取和泛化性能在很大程度上依赖于提示信息的质量和提示模板的构建方式。针对上述问题,提出...当前信息抽取任务主要依赖大语言模型(LLM),而标书信息中广泛存在领域术语,模型缺乏相关先验知识,导致微调效率低且抽取性能不佳。此外,模型的抽取和泛化性能在很大程度上依赖于提示信息的质量和提示模板的构建方式。针对上述问题,提出一种基于提示学习的标书信息抽取方法(TIEPL)。首先,利用生成式信息抽取的提示学习方法对LLM注入领域知识,以实现预训练和微调阶段的统一优化;其次,以LoRA(Low-Rank Adaption)微调方法为框架,单独设计提示训练旁路,并设计标书场景关键词提示模板,从而增强模型信息抽取与提示的双向关联。在自建的招中标数据集上的实验结果表明,相较于次优的UIE(Universal Information Extraction)方法,TIEPL的ROUGE-L(Recall-Oriented Understudy for Gisting Evaluation)和BLEU-4(BiLingual Evaluation Understudy)分别提高1.05和4.71个百分点,能更准确和完整地生成抽取结果,验证了所提方法在提高标书信息抽取准确性和泛化性方面的有效性。展开更多
文摘为满足食品安全监管问答任务对模型准确性、合规性和可解释性的高要求,解决现有大语言模型(large language model,LLM)在该领域应用面临的知识召回不精准、法规解析能力不足及计算成本高等问题,本研究基于检索增强生成框架提出了一个智能问答系统,其核心是食品安全监管大语言模型(food safety regulation large language model,FSR-LLM)。通过优化数据库存储结构、检索策略及生成器,提升食品安全监管问答的质量和效率。首先构建了食品安全知识图谱(knowledge graph,KG)数据库,以结构化方式存储法规条款、食品安全标准等数据,增强模型对食品领域知识的组织与调用能力。此外,在检索阶段,设计一种大模型引导检索策略,利用LLM智能解析查询语句,在食品安全监管KG中准确地提取高度相关的信息,从而减少无关或误导性内容的召回。对于生成器(Generator)模块,基于Qwen-7B-Chat模型采用低秩适应微调,使模型更贴合食品安全监管问答的需求,同时显著降低计算成本,使其能够在单张RTX 4090 GPU上完成训练。在所提食品安全问答数据集上的实验结果表明,FSR-LLM在BLEU-4、Rouge-L和准确率指标上均优于基线模型,展现出更高的精准度和语义连贯性,为食品安全监管智能化提供了一种低成本、高效能、可扩展的解决方案。
文摘近年来,大语言模型(Large language model,LLM)在自然语言处理中取得重大进展.在模型足够大时,大语言模型涌现出传统的预训练语言模型(Pre-trained language model,PLM)不具备的推理能力.为了探究如何将大语言模型的涌现能力应用于中文实体链接任务,适配了以下四种方法:知识增强、适配器微调、提示学习和语境学习(In-context learning,ICL).在Hansel和CLEEK数据集上的实证研究表明,基于Qwen-7B/ChatGLM3-6B的监督学习方法超过基于小模型的方法,在Hansel-FS数据集上提升3.9%~11.8%,在Hansel-ZS数据集上提升0.7%~4.1%,在CLEEK数据集上提升0.6%~3.7%.而当模型参数量达到720亿时,Qwen-72B的无监督方法实现与监督微调Qwen-7B相近的结果(-2.4%~+1.4%).此外,大语言模型Qwen在长尾实体场景下有明显的优势(11.8%),且随着参数量的增加,优势会更加明显(13.2%).对错误案例进行分析(以下简称错误分析)发现,实体粒度和实体类别相关错误占比较高,分别为36%和25%.这表明在实体链接任务中,准确划分实体边界以及正确判断实体类别是提高系统性能的关键.
文摘当前信息抽取任务主要依赖大语言模型(LLM),而标书信息中广泛存在领域术语,模型缺乏相关先验知识,导致微调效率低且抽取性能不佳。此外,模型的抽取和泛化性能在很大程度上依赖于提示信息的质量和提示模板的构建方式。针对上述问题,提出一种基于提示学习的标书信息抽取方法(TIEPL)。首先,利用生成式信息抽取的提示学习方法对LLM注入领域知识,以实现预训练和微调阶段的统一优化;其次,以LoRA(Low-Rank Adaption)微调方法为框架,单独设计提示训练旁路,并设计标书场景关键词提示模板,从而增强模型信息抽取与提示的双向关联。在自建的招中标数据集上的实验结果表明,相较于次优的UIE(Universal Information Extraction)方法,TIEPL的ROUGE-L(Recall-Oriented Understudy for Gisting Evaluation)和BLEU-4(BiLingual Evaluation Understudy)分别提高1.05和4.71个百分点,能更准确和完整地生成抽取结果,验证了所提方法在提高标书信息抽取准确性和泛化性方面的有效性。