期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于ChatGLM2-6B的电力企业财务知识问答方法 被引量:2
1
作者 叶雪 杨晟 +1 位作者 程凯 朱峰 《计算机与现代化》 2024年第11期54-63,共10页
随着电力系统规模的不断增长,在日常财务处理中产生了大量重复和复杂的工作内容,传统的财务知识组织和管理方式已经无法满足当前电力系统的需要。基于此,本文提出一种基于大规模语言模型ChatGLM2-6B构建财务事理图谱的方法,用于规范化... 随着电力系统规模的不断增长,在日常财务处理中产生了大量重复和复杂的工作内容,传统的财务知识组织和管理方式已经无法满足当前电力系统的需要。基于此,本文提出一种基于大规模语言模型ChatGLM2-6B构建财务事理图谱的方法,用于规范化财务管理和项目管理流程,辅助财务决策。首先,通过指令微调和提示学习等方式优化ChatGLM2-6B模型,使其分别从合同和票据数据中抽取出事件和事件关系对;其次,通过FAISS向量数据库将事件关系对保存为本地知识库,并训练一个FAISS-ERNIE相似度评估模型提升模型的知识检索能力,实现财务数据的智能问答;最后,利用层次聚类算法泛化事件关系对,分别得到合同事理图谱和票据事理图谱,用于对实时的财务操作进行规范化指引和监督,实现财务执行的透明化。实验结果表明,本文提出的方法在事件抽取、事件关系对抽取以及相似度检索等方面均展现出优异的性能,所构建的合同和票据事理图谱对于电力企业的财务管理具有重要意义,有助于提升企业管理水平。 展开更多
关键词 chatglm2-6B ERNIE FAISS向量数据库 指令微调 提示学习
在线阅读 下载PDF
基于ChatGLM2-6B微调的智能简历解析系统 被引量:1
2
作者 罗凯 《计算机应用文摘》 2024年第3期23-25,共3页
随着人力资源管理领域的自动化、智能化需求不断增长,基于ChatGLM2-6B微调的智能简历解析系统应运而生。该系统采用ChatGLM2-6B模型,并通过LoRA微调技术实现简历的精准解析及候选人适配度的评估,同时采用量化技术,能够在不同的设备和平... 随着人力资源管理领域的自动化、智能化需求不断增长,基于ChatGLM2-6B微调的智能简历解析系统应运而生。该系统采用ChatGLM2-6B模型,并通过LoRA微调技术实现简历的精准解析及候选人适配度的评估,同时采用量化技术,能够在不同的设备和平台上高效运行。其中,系统的开发使用了Django框架,数据库选用了SQlite,整个开发过程均采用Python语言。这一组合确保了系统的灵活性、可扩展性和可维护性。无论是企业级应用还是个人应用,该系统都能提供快速、准确的简历解析服务,有助于应对企业招聘的挑战并满足个人用户需求,可为人力资源行业提供有力支持。 展开更多
关键词 chatglm2-6B模型 LoRA微调 量化技术 智能简历解析 Django框架 SQLITE数据库 PYTHON语言 人力资源管理
在线阅读 下载PDF
反思性思维链在智能车任务级控制中的应用研究
3
作者 钱鹏 储开斌 +1 位作者 殷聪聪 黄思涵 《计算机科学与探索》 北大核心 2026年第1期228-237,共10页
现阶段,大语言模型在处理复杂的长程任务推理时仍面临“幻觉”等问题,这对机器人控制构成了重大挑战。传统的思维链(CoT)技术在应对多模态信息整合与错误校正方面仍存在局限。为此,提出一种基于反思性思维链的大模型微调方法,以提升大... 现阶段,大语言模型在处理复杂的长程任务推理时仍面临“幻觉”等问题,这对机器人控制构成了重大挑战。传统的思维链(CoT)技术在应对多模态信息整合与错误校正方面仍存在局限。为此,提出一种基于反思性思维链的大模型微调方法,以提升大语言模型在智能小车任务级控制中的规划能力。该研究以ChatGLM2-6B模型为基础,结合P-Tuning v2微调技术实现深度提示优化,构建了三类逐步增强推理能力的数据集:基础的CoT数据集、以自洽性为目标的CoT-SC数据集,以及具有反思和修正能力的反思性CoT数据集。通过引导模型进行逻辑推理和错误纠正,大幅度提升了规划结果的准确性和鲁棒性。实验结果表明,相较于基准模型,经过反思性CoT微调的模型在单步和双步任务指令中,BLEU-4指标分别提升20.91和26.80个百分点,在逻辑推理、任务规划及多步骤指令处理方面均优于其他微调方法。 展开更多
关键词 思维链 chatglm2-6B模型 P-Tuning v2 反思性CoT 任务级交互
在线阅读 下载PDF
基于AIGC的机械臂抓取动作序列自动生成研究 被引量:2
4
作者 王彬 马兴录 陈彦泽 《计算机测量与控制》 2025年第5期255-261,共7页
目前的抓取规划方法往往受限于预定义的规则或手工制定的动作序列,限制了其适用性和灵活性,为了扩展机械臂抓取的适用空间,提高机械臂自主抓取的智能化水平,探索了一种基于AIGC的机械臂抓取动作序列的自动生成方法;该方法以开源中文大... 目前的抓取规划方法往往受限于预定义的规则或手工制定的动作序列,限制了其适用性和灵活性,为了扩展机械臂抓取的适用空间,提高机械臂自主抓取的智能化水平,探索了一种基于AIGC的机械臂抓取动作序列的自动生成方法;该方法以开源中文大语言模型ChatGLM2为核心,利用大语言模型的生成能力,自动生成机械臂抓取动作序列并生成可执行的程序;为验证提出的方法,选择了UR5机械臂作为实验对象,并在Coppelisim仿真环境中进行了大量实验,通过验证生成的抓取动作序列程序能否成功完成抓取任务,评估了所提出方法的有效性;实验结果表明,基于AIGC的自动生成方法能够有效地生成符合实验目标的机械臂抓取动作序列以及可执行的程序。 展开更多
关键词 chatglm2 机械臂抓取 虚拟仿真 动作序列 自动生成
在线阅读 下载PDF
基于ChatGLM的校园智能问答系统设计与实现 被引量:1
5
作者 张淋星 黄毅琛 +2 位作者 项凌涵 刘鸿运 潘丛林 《现代信息科技》 2025年第14期66-71,共6页
为给在校大学生提供更优质的校园服务、便利其校园生活,文章提出一种基于知识库检索大模型与数字人技术的校园智能问答助手。该助手借助LangChain工具,将构建完成的校园常见问答知识库向量化嵌入ChatGLM2-6B语言模型,使模型能够准确回... 为给在校大学生提供更优质的校园服务、便利其校园生活,文章提出一种基于知识库检索大模型与数字人技术的校园智能问答助手。该助手借助LangChain工具,将构建完成的校园常见问答知识库向量化嵌入ChatGLM2-6B语言模型,使模型能够准确回答校园生活相关问题。同时采用MuseTalk数字人生成模型,让智能助手能根据回答内容实时生成数字人说话视频。实验结果显示,该校园智能助手的回答准确率达98.3%,且能在5秒内生成数字人回答内容及视频,具备高准确率与实时响应速度。 展开更多
关键词 数字人 智能问答系统 chatglm2-6B 知识库检索
在线阅读 下载PDF
大语言模型在高校招生咨询服务中的应用研究
6
作者 黄星源 宁安安 胡安明 《电脑与信息技术》 2025年第2期122-129,共8页
在传统的招生宣传方式中,高校主要通过公共媒体和网站进行宣传,但这种方式存在信息更新不及时、缺乏互动等问题,同时学生和家长也难以全面了解高校的多样性和特色。随着人工智能和自然语言处理技术的迅猛发展,智能问答系统已经取得了重... 在传统的招生宣传方式中,高校主要通过公共媒体和网站进行宣传,但这种方式存在信息更新不及时、缺乏互动等问题,同时学生和家长也难以全面了解高校的多样性和特色。随着人工智能和自然语言处理技术的迅猛发展,智能问答系统已经取得了重大突破。基于此,以某高校官网招生咨询的问答信息为原始数据集,利用LangChain框架构建了本地知识库,并基于ChatGLM2-6B模型构建了适用于该高校的招生咨询问答系统。通过FAISS算法评估,该系统回答的内容较为真实,具有一定的可靠性,为该高校的招生工作提供了一种智能化的解决方案。 展开更多
关键词 人工智能 自然语言处理 智能问答系统 LangChain chatglm2-6B
在线阅读 下载PDF
基于思维链的通用语言模型推理能力研究
7
作者 康睿哲 《人工智能与机器人研究》 2025年第2期259-267,共9页
为改善参数量较小的大模型在逻辑推理任务中的性能不足,以及微调模型复杂度高、资源受限的问题,本文采用上下文学习(ICL)方法,通过引入思维链提示(CoT)构建示例,探索在无需微调模型参数的情况下提升通用语言模型ChatGLM2-6B推理性能的... 为改善参数量较小的大模型在逻辑推理任务中的性能不足,以及微调模型复杂度高、资源受限的问题,本文采用上下文学习(ICL)方法,通过引入思维链提示(CoT)构建示例,探索在无需微调模型参数的情况下提升通用语言模型ChatGLM2-6B推理性能的可行性。以Zero-Shot-CoT生成的思维链为基准,结合随机检索与多种聚类方法优化示例选择策略。实验结果表明,不同示例选择策略可使模型推理能力平均提升10%,验证了思维链提示对推理性能的增强效果,并显示优化示例策略能够在资源受限条件下实现大模型的高效利用。本研究为提升语言模型逻辑推理能力和下游任务性能提供了新思路,并为低资源场景下的大模型应用奠定了理论基础。To improve the underperformance of large models with small parameter counts in logical reasoning tasks, as well as the high complexity and resource constraints of fine-tuning the models. This paper adopts In-Context-Learning approach to explore the feasibility of improving the reasoning performance of the General Language Model, ChatGLM2-6B, without the need of fine-tuning the parameters of the model, by introducing Chain-of-Thought (CoT) prompt to construct examples. The CoT generated by Zero-Shot-CoT are used as the benchmark, and the example selection strategy is optimized by combining random retrieval with multiple clustering methods. The experimental results show that different example selection strategies can improve the model’s reasoning ability by 10% on average, verifying the enhancing effect of CoT prompts on reasoning performance, and showing that the optimized example strategy can achieve the efficient utilization of large models under resource-constrained conditions. This study provides new ideas for improving the logical reasoning ability of language models and the performance of downstream tasks, and lays a theoretical foundation for the application of large models in low-resource scenarios. 展开更多
关键词 上下文学习 思维链 逻辑推理 chatglm2
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部