期刊文献+
共找到165篇文章
< 1 2 9 >
每页显示 20 50 100
Beyond Intentions:A Critical Survey of Misalignment in LLMs
1
作者 Yubin Qu Song Huang +2 位作者 Long Li Peng Nie Yongming Yao 《Computers, Materials & Continua》 2025年第10期249-300,共52页
Large language models(LLMs)represent significant advancements in artificial intelligence.However,their increasing capabilities come with a serious challenge:misalignment,which refers to the deviation of model behavior... Large language models(LLMs)represent significant advancements in artificial intelligence.However,their increasing capabilities come with a serious challenge:misalignment,which refers to the deviation of model behavior from the designers’intentions and human values.This review aims to synthesize the current understanding of the LLM misalignment issue and provide researchers and practitioners with a comprehensive overview.We define the concept of misalignment and elaborate on its various manifestations,including generating harmful content,factual errors(hallucinations),propagating biases,failing to follow instructions,emerging deceptive behaviors,and emergent misalignment.We explore the multifaceted causes of misalignment,systematically analyzing factors from surface-level technical issues(e.g.,training data,objective function design,model scaling)to deeper fundamental challenges(e.g.,difficulties formalizing values,discrepancies between training signals and real intentions).This review covers existing and emerging techniques for detecting and evaluating the degree of misalignment,such as benchmark tests,red-teaming,and formal safety assessments.Subsequently,we examine strategies to mitigate misalignment,focusing on mainstream alignment techniques such as RLHF,Constitutional AI(CAI),instruction fine-tuning,and novel approaches that address scalability and robustness.In particular,we analyze recent advances in misalignment attack research,including system prompt modifications,supervised fine-tuning,self-supervised representation attacks,and model editing,which challenge the robustness of model alignment.We categorize and analyze the surveyed literature,highlighting major findings,persistent limitations,and current contentious points.Finally,we identify key open questions and propose several promising future research directions,including constructing high-quality alignment datasets,exploring novel alignment methods,coordinating diverse values,and delving into the deep philosophical aspects of alignment.This work underscores the complexity and multidimensionality of LLM misalignment issues,calling for interdisciplinary approaches to reliably align LLMs with human values. 展开更多
关键词 Large language models alignment MISalignment AI safety human values
在线阅读 下载PDF
Principal Manifolds and Nonlinear Dimensionality Reduction via Tangent Space Alignment 被引量:81
2
作者 张振跃 查宏远 《Journal of Shanghai University(English Edition)》 CAS 2004年第4期406-424,共19页
We present a new algorithm for manifold learning and nonlinear dimensionality reduction. Based on a set of unorganized data points sampled with noise from a parameterized manifold, the local geometry of the manifold i... We present a new algorithm for manifold learning and nonlinear dimensionality reduction. Based on a set of unorganized data points sampled with noise from a parameterized manifold, the local geometry of the manifold is learned by constructing an approximation for the tangent space at each point, and those tangent spaces are then aligned to give the global coordinates of the data points with respect to the underlying manifold. We also present an error analysis of our algorithm showing that reconstruction errors can be quite small in some cases. We illustrate our algorithm using curves and surfaces both in 2D/3D Euclidean spaces and higher dimensional Euclidean spaces. We also address several theoretical and algorithmic issues for further research and improvements. 展开更多
关键词 nonlinear dimensionality reduction principal manifold tangent space subspace alignment singular value decomposition.
在线阅读 下载PDF
Prosocial behavior in Large Language Models:Value alignment and afective mechanisms
3
作者 Hao LIU Yu LEI Zhen WU 《Science China(Technological Sciences)》 2025年第8期185-199,共15页
While advanced Large Language Models(LLMs)can simulate human-like prosocial behaviors,the degree to which they align with human prosocial values and the underlying afective mechanisms remain unclear.This study address... While advanced Large Language Models(LLMs)can simulate human-like prosocial behaviors,the degree to which they align with human prosocial values and the underlying afective mechanisms remain unclear.This study addressed these gaps using the third-party punishment(TPP)paradigm,comparing LLM agents(GPT and DeepSeek series)with human participants(n=100).The LLM agents(n=500,100 agents per model)were one-to-one constructed based on the demographic and psychological features of human participants.Prompt engineering was employed to initiate TPP games and record punitive decisions and afective responses in LLM agents.Results revealed that:(1)GPT-4o,DeepSeek-V3,and DeepSeek-R1 models demonstrated stronger fairness value alignment,choosing punitive options more frequently than humans in TPP games;(2)all LLMs replicated the human pathway from unfairness through negative afective response to punitive decisions,with stronger mediation efects of negative emotions observed in DeepSeek models than GPT models;(3)only DeepSeek-R1 exhibited the human-like positive feedback loop from previous punitive decisions to positive afective feedback and subsequent punitive choices;(4)most LLMs(excluding GPT-3.5)showed signifcant representational similarity to human afect-decision patterns;(5)notably,all LLMs displayed rigid afective dynamics,characterized by lower afective variability and higher afective inertia than the fexible,contextsensitive fuctuations observed in humans.These fndings highlight notable advances in prosocial value alignment but underscore the necessity to enhance their afective dynamics to foster robust,adaptive prosocial LLMs.Such advancements could not only accelerate LLMs'alignment with human values but also provide empirical support for the broader applicability of prosocial theories to LLM agents. 展开更多
关键词 Large Language Models value alignment prosocial behavior affective mechanisms
原文传递
新质生产力数智发展对传统法治的挑战与应对路径
4
作者 黄绍坤 鄢浩宇 《武汉大学学报(哲学社会科学版)》 北大核心 2026年第1期174-184,共11页
数智创新是数字时代推动新质生产力发展的核心力量,同时新质生产力也为数智发展提出了新标准。新质生产力数智发展是一项系统性工程,需要在法治引领下充分激发数据、算法、算力和平台的协同共振。但现有法律系统所具有的稳定性、命令性... 数智创新是数字时代推动新质生产力发展的核心力量,同时新质生产力也为数智发展提出了新标准。新质生产力数智发展是一项系统性工程,需要在法治引领下充分激发数据、算法、算力和平台的协同共振。但现有法律系统所具有的稳定性、命令性、价值推理、严格监管等特征,难以回应新质生产力的自组织化、智能化发展需求,无法高效实现数字要素互通与协同,无力应对数智发展的伴生风险。故而有必要引入反身法模式,建构适应“人—机”交互的规制架构,将人工智能纳为规制工具,通过互联互通、生产正义、数字私权力、价值对齐等理念优化数字规范体系,同时依托后设监管等方式革新监管体系,进而推动数智场景下新质生产力的创新、共享和安全发展。 展开更多
关键词 新质生产力 反身法 后设监管 数据共享 价值对齐 数智创新 数字治理
在线阅读 下载PDF
Exploring Educator Values Alignment Strategies in an Intervention Context: The Emergence of the Beacon Strategy 被引量:3
5
作者 Penelope Kalogeropoulos James Anthony Russo Philip Clarkson 《ECNU Review of Education》 2021年第2期327-348,共22页
Purpose:The purpose of this paper is to explore whether the four value alignment strategies available to educators(Scaffolding,Balancing,Intervention,and Refuge)previously identified in the mathematics education liter... Purpose:The purpose of this paper is to explore whether the four value alignment strategies available to educators(Scaffolding,Balancing,Intervention,and Refuge)previously identified in the mathematics education literature comprehensively capture educator value alignment strategies in an in terve ntion con text.Design/Approach/Methods:To this end,we analyse semi-structured interview data with two teacher-leaders involved in the Getting Ready in Numeracy(G.R.I.N.)intervention program through a value alignment lens.Findings:We ascertain that a fifth strategy,the Beacon strategy,is needed to describe the range of value alignment strategies employed by educators in the GRI.N.program.The Beacon strategy involves the educator digging in and reasserting their expectations until the student behaves in a manner that aligns with the educator's values.In part it invoIves the educator being able to recognize their own values and clearly communicating these values to students.O rigin al ity/Value:This article further explores strategies that educators have at their disposal for aligning their values with those of their students.The uncovering of the Beacon strategy is particularly valuable as it suggests that educators could be purposefully pursuing value alignment even when they do not appear to take any active steps to move further towards their students'sets of values. 展开更多
关键词 ENGAGEMENT valueS values alignment
原文传递
面向智能时代的教育系统性变革:数字化赋能教育综合改革 被引量:20
6
作者 黄荣怀 刘嘉豪 +2 位作者 潘静文 刘梦彧 张国良 《电化教育研究》 北大核心 2025年第4期5-12,共8页
当前,正处于技术驱动教育系统性变革的关键窗口期。面对智能技术迭代加速及其对教育系统的全方位渗透,文章提出以数字化赋能教育综合改革,加速教育系统性变革的行动框架。具体包括:(1)前瞻性教育规划作为实践指引,综合考量未来可能出现... 当前,正处于技术驱动教育系统性变革的关键窗口期。面对智能技术迭代加速及其对教育系统的全方位渗透,文章提出以数字化赋能教育综合改革,加速教育系统性变革的行动框架。具体包括:(1)前瞻性教育规划作为实践指引,综合考量未来可能出现的新技术、新挑战和社会需求;(2)人机协同教学的多元实践,包括构建支持服务环境、开展证据导向的教学实践、完善教育伦理保障体系等;(3)场景驱动的教育变革,有赖于应用场景设计、改革需求洞悉、技术环境适配等基本环节,并以证据表征与夯实为保障,通过场景的迭代优化持续推动教育创新;(4)构建证据链有助于形成教育综合改革的闭环验证,需注重数字思维、数字化领导力、循证手段,并利用人机协同方式监测教育综合改革成效。在人机价值对齐的贯穿下,前瞻性规划、人机协同教学、变革场景演化和证据链构建等多维协同,确保教育系统在变革过程中始终与人类价值观保持一致,共同推动教育生态向个性化、情境化和数据驱动的方向演进,开启智能时代教育的新篇章。 展开更多
关键词 教育综合改革 教育数字化 教育系统性变革 人机价值对齐 人机协同 场景 证据链
在线阅读 下载PDF
构筑教育护栏:生成式人工智能教育应用中的价值对齐与技术适配 被引量:4
7
作者 武法提 李坦 《远程教育杂志》 北大核心 2025年第4期20-27,共8页
生成式人工智能技术在赋能教育教学提质增效的同时,其在教育实践中所表现出的“意识形态投射”“人工智能幻觉”等“价值错位”现象,也对教育应用效果产生了负面影响。为有效疏解上述问题,构建能够保障生成式人工智能安全、稳健且高质... 生成式人工智能技术在赋能教育教学提质增效的同时,其在教育实践中所表现出的“意识形态投射”“人工智能幻觉”等“价值错位”现象,也对教育应用效果产生了负面影响。为有效疏解上述问题,构建能够保障生成式人工智能安全、稳健且高质量提供教育服务的“教育护栏”成为当前亟需。研究首先从教育哲学、教育学和教学三个层面系统诠释了生成式人工智能教育应用价值对齐的内涵,进而深入剖析了涵盖“主体性”“科学性”和“道德性”等在内的11项价值原则的本质要义。在此基础之上,研究提出应通过构建教育护栏实现相关价值对齐目标,并结合生成式人工智能的技术原理,从三个层面阐述教育护栏的具体构建技术路径:借助微调技术实现教育哲学层次的价值对齐;依托思维链技术实现教育学层次的价值对齐;基于智能体技术实现教学层次的价值对齐等。由此构筑的教育护栏模型为保障生成式人工智能教育应用过程中遵循相关价值原则提供了关键技术支撑,有助于促进生成式人工智能在教育领域的规范、健康且高效的应用。 展开更多
关键词 价值对齐 教育护栏 生成式人工智能
在线阅读 下载PDF
“生意是生活的意义”吗?内容平台价值创造与价值捕获的对齐——小红书2013—2023年纵向案例研究 被引量:2
8
作者 江积海 庞瑶涵 《外国经济与管理》 北大核心 2025年第9期24-46,共23页
价值创造与价值捕获的割裂严重阻碍平台型商业模式的可持续发展,驱动两者协同发展的对齐机制成为关键的研究议题。本文立足内容平台商业化的特定情境,遵循“价值创造—价值捕获—协同演化”的逻辑主线,剖析小红书实践案例,创造性地引入... 价值创造与价值捕获的割裂严重阻碍平台型商业模式的可持续发展,驱动两者协同发展的对齐机制成为关键的研究议题。本文立足内容平台商业化的特定情境,遵循“价值创造—价值捕获—协同演化”的逻辑主线,剖析小红书实践案例,创造性地引入“对齐”概念界定价值创造与价值捕获的关系,并归纳两者的跃迁路径与对齐机制。研究表明:内容平台价值创造与价值捕获的对齐经历各自跃迁和相互对齐两个阶段。首先,内容平台价值创造模式经过场景化、算法化的“软化”路径,从“功能主导”跃迁至“情感延伸”,价值捕获模式经过个性化、科学化的“硬化”路径,从“流量变现”跃迁至“能力盈利”。随后,内容平台利用算法赋能对齐过程,并指导后续转化实现价值创造与价值捕获的对齐。本研究旨在探索内容平台价值创造与价值捕获的相互关系机制,拓展算法驱动商业模式可持续发展相关研究。 展开更多
关键词 内容平台 价值创造 价值捕获 对齐 小红书
原文传递
大模型价值对齐的风险管理法律实现机制 被引量:6
9
作者 童云峰 《安徽大学学报(哲社版)》 北大核心 2025年第3期103-112,共10页
生成式人工智能大模型带来法律风险,使价值对齐成为迫切需求。但是,当前的价值对齐存在对齐税、态势感知、瓦力悖论等问题。对此,在对齐理念上,应拒绝人向机器对齐的自由主义或机器向人对齐的有限主义,转向人机相互对齐的风险管理主义... 生成式人工智能大模型带来法律风险,使价值对齐成为迫切需求。但是,当前的价值对齐存在对齐税、态势感知、瓦力悖论等问题。对此,在对齐理念上,应拒绝人向机器对齐的自由主义或机器向人对齐的有限主义,转向人机相互对齐的风险管理主义。在对齐逻辑上,因为大模型不对齐带来的法律风险主要表现为数据风险,所以实现大模型价值对齐应以管理数据风险为核心。在对齐方法上,一方面,发挥企业自治和前置法治管理数据风险的功效,划定大模型价值对齐中的风险黄线;另一方面,贯彻以生命周期、分类分级为核心的解释方法和以重构论为核心的立法方法,使刑法能够充分且合理地管理数据风险,通过划定风险红线的方式倒逼大模型运作数据和输出信息符合人类价值。 展开更多
关键词 大模型价值对齐 风险管理 法治体检 数据犯罪
在线阅读 下载PDF
从“泛众化”到“精准化”:乡村振兴再塑对外传播路径转型 被引量:1
10
作者 薛可 张馨元 《云南民族大学学报(哲学社会科学版)》 北大核心 2025年第6期76-85,共10页
以乡村振兴为特色的精准化传播,为中国对外传播的内容叙事提供了富有温度的创新图式。中国乡村振兴具备了对外传播的精准化特质,其价值适配性符合乡村议题的主流共识,交流互鉴性推动乡村经验的跨域共享,内容垂直性促进乡村叙事的情感共... 以乡村振兴为特色的精准化传播,为中国对外传播的内容叙事提供了富有温度的创新图式。中国乡村振兴具备了对外传播的精准化特质,其价值适配性符合乡村议题的主流共识,交流互鉴性推动乡村经验的跨域共享,内容垂直性促进乡村叙事的情感共鸣,具身参与性实现乡村体验的互动共创。在此基础上,构建了基于P-ADNC模型的乡村振兴“精准化”传播机制,以精准受众识别认同基础,嵌入主流共识;以精准语态优化表达方式,促进文化共享;以精准叙事传递微观经验,激发情感共鸣;以精准渠道构建参与场景,推动互动共创。最后从“感知-认知-情感-行为”4个维度出发,立足于“精准化”传播特质到机制之间的精准映射关系,提出基于“三农”触点对齐、振兴经验对齐、农民精神对齐和乡村传播对齐的4条乡村振兴对外传播路径,向世界展示中国乡村发展的生动样本。 展开更多
关键词 乡村振兴 对外传播 精准传播 价值对齐
在线阅读 下载PDF
基于复数域卷积神经网络的ISAR包络对齐方法研究 被引量:1
11
作者 王勇 夏浩然 刘明帆 《信号处理》 北大核心 2025年第3期409-425,共17页
在逆合成孔径雷达(Inverse Synthetic Aperture Radar,ISAR)成像领域,运动补偿是确保高质量图像生成的关键环节。包络对齐(Range Alignment,RA)作为运动补偿的首要步骤,对于校正由平动分量引起的回波信号包络偏移至关重要。本文提出了... 在逆合成孔径雷达(Inverse Synthetic Aperture Radar,ISAR)成像领域,运动补偿是确保高质量图像生成的关键环节。包络对齐(Range Alignment,RA)作为运动补偿的首要步骤,对于校正由平动分量引起的回波信号包络偏移至关重要。本文提出了一种基于复数域卷积神经网络(Complex-Valued Convolutional Neural Network,CVCNN)的包络对齐新方法,旨在通过深度学习策略提升包络对齐的精度与计算效率。本文所提方法利用了卷积神经网络强大的特征学习能力,构建了一个能够映射一维距离像与包络补偿量之间复杂关系的模型。通过将传统的实值卷积神经网络拓展至复数域,不仅完整保留了回波信号中的相位信息,而且有效引入了复数域残差块及线性连接机制,进一步精细化了网络结构设计。这种架构改进使得所提算法能实现低信噪比(Signal-to-Noise Ratio,SNR)条件下对ISAR距离像的高效包络对齐。在数据生成方面,本文基于雷达仿真参数,通过成像模拟仿真构建了ISAR回波数据集。该数据集经过归一化处理后,输入网络进行训练,使网络能够学习从未对齐回波到对应补偿量的映射关系。本文所提方法采用迁移学习策略,对基于仿真数据预训练的模型进行微调,以适应实测数据。这一策略不仅增强了结果的可靠性,同时也大幅缩短了模型的迭代周期。在实验验证方面,本文采用仿真与实测数据进行综合测试,以包络对齐精度、成像结果质量和计算效率为评价指标,全面验证了算法的有效性。实验结果表明,在不同信噪比条件下,本文所提方法均展现出了优越的包络对齐性能,进而可以实现高质量成像,同时在计算效率上也具有显著优势。 展开更多
关键词 逆合成孔径雷达 包络对齐 复数域卷积神经网络 有监督学习
在线阅读 下载PDF
信息隐私鸿沟的消解:隐私对齐可能性路径探究 被引量:1
12
作者 王娟 《阜阳师范大学学报(社会科学版)》 2025年第2期141-148,共8页
生成式AI时代,多模态大模型预测分析技术与生成功能引发TA者(人类行动者与机器行动者)对个体的隐私认知与操纵力增强,从而导致个体在信息隐私享有上“应然”与“实然”之间的差距加大,信息隐私鸿沟现象愈发明显。在此背景下,隐私对齐作... 生成式AI时代,多模态大模型预测分析技术与生成功能引发TA者(人类行动者与机器行动者)对个体的隐私认知与操纵力增强,从而导致个体在信息隐私享有上“应然”与“实然”之间的差距加大,信息隐私鸿沟现象愈发明显。在此背景下,隐私对齐作为一种缓解信息隐私鸿沟的理论与实践路径,重要性日益凸显。然而,当前隐私对齐的两种主要进路——综合性价值对齐路径和技术解决主义路径均存在明显局限,无法有效弥合信息隐私鸿沟。文章基于马克思主义技术哲学视角,尝试从概念多维分析-价值设定-价值实现-对齐评估与修正来探讨隐私对齐可行性进路,以期提供一种更具鲁棒性的隐私保护新框架。 展开更多
关键词 信息隐私鸿沟 价值对齐 隐私对齐 生成式AI
在线阅读 下载PDF
技术黑箱与价值偏差:基于“视觉隐喻”理论的视觉生成智能大模型创作机制研究 被引量:1
13
作者 蓝燕玲 刘司航 夏琳洁 《信息传播研究》 2025年第4期18-31,共14页
现有智能视觉生成工具仍存在由技术黑箱所带来的“理解偏差”“数据偏见”“价值游离”等系列问题。基于“视觉隐喻”理论,选取以Midjourney为代表的视觉生成智能大模型为研究对象,以“普利策新闻摄影奖”获奖作品为源数据所生成的智能... 现有智能视觉生成工具仍存在由技术黑箱所带来的“理解偏差”“数据偏见”“价值游离”等系列问题。基于“视觉隐喻”理论,选取以Midjourney为代表的视觉生成智能大模型为研究对象,以“普利策新闻摄影奖”获奖作品为源数据所生成的智能图像为研究数据,采用混合研究方法探析视觉生成智能大模型基于算法对客观现实具有的识别力、理解力与创作机制。结果表明:原始图片与智能图像在基础性视觉建构上近乎一致,但在高级价值议题上存在显著差异,缺乏“细节化”“共情化”“特色化”图像建构能力;Midjourney作为相对成熟的V-GAI代表性技术工具,在“技术建构”“视觉隐喻”“文化价值”等方面仍亟待提升。 展开更多
关键词 视觉生成智能大模型 Midjourney 技术建构 视觉隐喻 价值对齐
在线阅读 下载PDF
从价值对齐走向价值共生:智能时代学校教育的伦理风险及其治理
14
作者 柴楠 曹冰清 《现代远程教育研究》 北大核心 2025年第6期104-111,共8页
技术奇点理论催生了人们对人类文明形态变革的深层思考,通用人工智能的涌现则彻底颠覆了传统的“人机”权力关系。随着智能技术在学校教育领域的深度嵌入,教育伦理范式与价值体系面临前所未有的严峻挑战,具体表现为由数字化凝视所带来... 技术奇点理论催生了人们对人类文明形态变革的深层思考,通用人工智能的涌现则彻底颠覆了传统的“人机”权力关系。随着智能技术在学校教育领域的深度嵌入,教育伦理范式与价值体系面临前所未有的严峻挑战,具体表现为由数字化凝视所带来的虚拟在场遮蔽学生的真实身体感知、数据喂养加速教育实践育人功能的退化、技术监控促逼教育规训全景式的敞视及算计之思迫使教育陷入无思的困境等风险。作为一种平衡人工智能技术创新与伦理安全的重要治理范式,价值对齐力图通过技术规约与校准,确保智能机器目标与人类价值诉求的一致性,最终达成规避异化风险与优化教育价值的双重目的。然而,价值对齐在学校教育场域的实施仍面临校准偏差、适配困难与路径模糊等现实拷问。价值共生作为深化价值对齐的补充路径,通过强调技术与生命的双向耦合、情感与理智的和谐统一以及主体间性的协商共存,有望推动智能时代学校教育的伦理治理,使其迈向更具智能化与生命力的未来。 展开更多
关键词 智能时代 价值对齐 价值共生 学校教育 伦理治理
在线阅读 下载PDF
超级智能的价值对齐困惑
15
作者 闫宏秀 《人民论坛·学术前沿》 北大核心 2025年第23期74-83,共10页
以人工智能性能为主和以人机关系为主的两种人工智能等级划分方式,均印证了超级智能出现的逻辑合理性,而这种划分的本质均指向价值对齐,即确保人工智能系统行为与人类意图和价值观保持一致。然而,因超级智能具有人类无法完全预见的特性... 以人工智能性能为主和以人机关系为主的两种人工智能等级划分方式,均印证了超级智能出现的逻辑合理性,而这种划分的本质均指向价值对齐,即确保人工智能系统行为与人类意图和价值观保持一致。然而,因超级智能具有人类无法完全预见的特性,价值对齐面临三重现实困境:目标不确定性引发的“价值对齐无用论”之惑,工具性目标趋同性导致的“价值对齐失败”之惑,以及由超级对齐引发的“价值对齐迷失”之惑。为破解这些困境,需重新审视不确定性的积极价值,构建以人类为中心的人机协同机制,从而锚定技术伦理方向,守护科技向善的愿景,筑牢人类文明存续根基。 展开更多
关键词 超级智能 价值对齐 人工智能 人类未来
在线阅读 下载PDF
道德机器何以实现:生成式AI智能向善的逻辑基础与提示词框架
16
作者 刘琴 常立瑛 《编辑之友》 北大核心 2025年第4期57-64,共8页
生成式AI作为道德机器需要承担智能向善的使命,而提示词工程是生成式AI特别是对话式AI话语把关的重要环节,能够引导用户“说什么”,构建符合人类实际的价值观。文章从技术生命、意义本体和政治身份三个层面探讨生成式AI智能向善的逻辑基... 生成式AI作为道德机器需要承担智能向善的使命,而提示词工程是生成式AI特别是对话式AI话语把关的重要环节,能够引导用户“说什么”,构建符合人类实际的价值观。文章从技术生命、意义本体和政治身份三个层面探讨生成式AI智能向善的逻辑基础,揭示其智能向善的核心是进行主流价值观的引领,而要实现生成式AI的社会道德责任,需要重新设计主流价值的语料库,通过开源的大模型和私域小模型等多种渠道开展语义训练,在不断演绎与修正中,提升用户的价值认知,实现价值纠偏与对齐。作为生命机器,生成式AI不是单纯地迎合价值主体,努力使自己的语言内容对齐输入指令,而是能够再创生产力,反作用于人类。因此,既需要从功能层面探讨其价值对齐和道德行善,更要从平等的视角重释人机关系:从被动到主动、从辅助到主导、从服从到超越。 展开更多
关键词 道德机器 智能向善 价值对齐 提示词工程
在线阅读 下载PDF
基于形式理性与实质理性的大模型价值对齐机制
17
作者 程聪 陈佳晨 严璐璐 《技术经济》 北大核心 2025年第1期28-39,共12页
大模型价值对齐是关涉企业乃至社会在采用大模型技术进行安全协作的全球性议题。如何实现大模型行为与决策者的价值意图及社会规范系统保持一致,成为确保大模型应用安全性和信任度的核心问题。首先,本文引入马克斯•韦伯提出的形式理性... 大模型价值对齐是关涉企业乃至社会在采用大模型技术进行安全协作的全球性议题。如何实现大模型行为与决策者的价值意图及社会规范系统保持一致,成为确保大模型应用安全性和信任度的核心问题。首先,本文引入马克斯•韦伯提出的形式理性和实质理性两个重要哲学概念,探讨大模型价值对齐机制。研究发现,大模型应用于企业管理存在四种价值对齐状态:“高形式理性-低实质理性”的技术偏移、“高实质理性-低形式理性”的价值优先、“低形式理性-低实质理性”的对齐失效及“高形式理性-高实质理性”的动态对齐。其次,甄别了透明性、清晰性和社会性三种价值对齐的分析标准。最后,构建了大模型应用于企业管理的价值对齐实现路径,包括“技术偏移→动态对齐”的认知能力具身性路径、“价值优先→动态对齐”技术意向性的清晰化路径,以及“对齐失效→动态对齐”意义建构路径。研究成果为大模型应用于企业管理的价值对齐机制提供理论支撑与实践启示。 展开更多
关键词 大模型技术 价值对齐 形式理性 实质理性
在线阅读 下载PDF
社会科学研究数智化转型中的价值对齐
18
作者 王国成 《人民论坛·学术前沿》 北大核心 2025年第12期78-88,共11页
数智时代为社会科学研究提供更有力的工具与手段,也对其研究能力和实践应用提出更高的要求。解决“人理与物理的价值对齐”这一社会科学数智化研究的基本问题,需从底层逻辑框架与知识体系建构切入。一方面,要综合运用科技与人文的深度... 数智时代为社会科学研究提供更有力的工具与手段,也对其研究能力和实践应用提出更高的要求。解决“人理与物理的价值对齐”这一社会科学数智化研究的基本问题,需从底层逻辑框架与知识体系建构切入。一方面,要综合运用科技与人文的深度融合和虚实交融的技术手段,立足破解数智化技术应用于人文社会科学研究的现实困境和迫切需求,阐述人理与物理内涵及认知上的异同;另一方面,要综合运用多学科理论知识与研究方法,全面剖析矛盾根源,多方位(维度)深入探讨人理与物理的价值对齐要点,进一步确立社会科学研究中人本主体地位,探寻切实可行的科技与人文协同的研究范式、发展策略和实践路径。 展开更多
关键词 价值对齐 数智化 社会科学研究 人本主体性 底层逻辑
在线阅读 下载PDF
人工智能价值对齐的作用机理与实践向度
19
作者 刘飞 吴辉 《青海师范大学学报(社会科学版)》 2025年第3期94-100,共7页
人工智能伦理治理在以人为本的理念下不断深化拓展以期实现人工智能健康有序发展,而现如今人工智能价值对齐作为治理人工智能伦理风险的积极力量逐渐受到社会的关注。加速到来的智能时代中人工智能引发的算法偏见,人工智能幻觉产生的虚... 人工智能伦理治理在以人为本的理念下不断深化拓展以期实现人工智能健康有序发展,而现如今人工智能价值对齐作为治理人工智能伦理风险的积极力量逐渐受到社会的关注。加速到来的智能时代中人工智能引发的算法偏见,人工智能幻觉产生的虚假信息泛滥、隐私泄露等问题,已成为影响社会发展的重要伦理风险。这些伦理风险可以在人工智能价值对齐中通过提升算法技术水平,促进算法透明化,完善隐私信息保护体系,强化隐私泄漏预警机制,从而提高人工智能伦理治理的综合能力。人工智能的行为符合人类价值观,人类有效合理地控制人工智能,并且减少其对人类造成伤害的风险,是人工智能价值对齐的核心要义,同时也在人工智能伦理治理中得以发挥积极作用,进而为以人工智能为代表的未来新兴科技伦理治理提供重要参考,以期更好增进人类生活福祉。 展开更多
关键词 人工智能 伦理治理 价值对齐 算法风险 隐私风险
在线阅读 下载PDF
智能向善 :人工智能价值对齐的人文建构
20
作者 刘飞 吴辉 《成都理工大学学报(社会科学版)》 2025年第5期34-44,共11页
人工智能价值对齐是人类有效掌控人工智能技术的关键,更是确保人工智能推动人类社会良性发展的重要保障。在维护人类主体性、践行人类伦理道德方面,它具有显著的时代价值,为未来智能技术向善发展树立了标杆。然而,实现人工智能价值对齐... 人工智能价值对齐是人类有效掌控人工智能技术的关键,更是确保人工智能推动人类社会良性发展的重要保障。在维护人类主体性、践行人类伦理道德方面,它具有显著的时代价值,为未来智能技术向善发展树立了标杆。然而,实现人工智能价值对齐面临诸多现实挑战。技术体系尚不完善,算法黑箱威胁人身财产安全;人类对伦理道德的认可度差异大;技术加速异化人类,资本回报压力致使泄露用户隐私数据常态化。为突破这些困境,可从多方面进行人文建构:健全人工智能技术体系,细化算法数据筛选流程,提高人工智能市场准入标准,完善技术投入资本的回报与退出机制。 展开更多
关键词 人工智能 价值对齐 现实障碍 智能向善 人文建构
在线阅读 下载PDF
上一页 1 2 9 下一页 到第
使用帮助 返回顶部