期刊文献+
共找到176篇文章
< 1 2 9 >
每页显示 20 50 100
Beyond Intentions:A Critical Survey of Misalignment in LLMs
1
作者 Yubin Qu Song Huang +2 位作者 Long Li Peng Nie Yongming Yao 《Computers, Materials & Continua》 2025年第10期249-300,共52页
Large language models(LLMs)represent significant advancements in artificial intelligence.However,their increasing capabilities come with a serious challenge:misalignment,which refers to the deviation of model behavior... Large language models(LLMs)represent significant advancements in artificial intelligence.However,their increasing capabilities come with a serious challenge:misalignment,which refers to the deviation of model behavior from the designers’intentions and human values.This review aims to synthesize the current understanding of the LLM misalignment issue and provide researchers and practitioners with a comprehensive overview.We define the concept of misalignment and elaborate on its various manifestations,including generating harmful content,factual errors(hallucinations),propagating biases,failing to follow instructions,emerging deceptive behaviors,and emergent misalignment.We explore the multifaceted causes of misalignment,systematically analyzing factors from surface-level technical issues(e.g.,training data,objective function design,model scaling)to deeper fundamental challenges(e.g.,difficulties formalizing values,discrepancies between training signals and real intentions).This review covers existing and emerging techniques for detecting and evaluating the degree of misalignment,such as benchmark tests,red-teaming,and formal safety assessments.Subsequently,we examine strategies to mitigate misalignment,focusing on mainstream alignment techniques such as RLHF,Constitutional AI(CAI),instruction fine-tuning,and novel approaches that address scalability and robustness.In particular,we analyze recent advances in misalignment attack research,including system prompt modifications,supervised fine-tuning,self-supervised representation attacks,and model editing,which challenge the robustness of model alignment.We categorize and analyze the surveyed literature,highlighting major findings,persistent limitations,and current contentious points.Finally,we identify key open questions and propose several promising future research directions,including constructing high-quality alignment datasets,exploring novel alignment methods,coordinating diverse values,and delving into the deep philosophical aspects of alignment.This work underscores the complexity and multidimensionality of LLM misalignment issues,calling for interdisciplinary approaches to reliably align LLMs with human values. 展开更多
关键词 Large language models alignment MISalignment AI safety human values
在线阅读 下载PDF
Principal Manifolds and Nonlinear Dimensionality Reduction via Tangent Space Alignment 被引量:80
2
作者 张振跃 查宏远 《Journal of Shanghai University(English Edition)》 CAS 2004年第4期406-424,共19页
We present a new algorithm for manifold learning and nonlinear dimensionality reduction. Based on a set of unorganized data points sampled with noise from a parameterized manifold, the local geometry of the manifold i... We present a new algorithm for manifold learning and nonlinear dimensionality reduction. Based on a set of unorganized data points sampled with noise from a parameterized manifold, the local geometry of the manifold is learned by constructing an approximation for the tangent space at each point, and those tangent spaces are then aligned to give the global coordinates of the data points with respect to the underlying manifold. We also present an error analysis of our algorithm showing that reconstruction errors can be quite small in some cases. We illustrate our algorithm using curves and surfaces both in 2D/3D Euclidean spaces and higher dimensional Euclidean spaces. We also address several theoretical and algorithmic issues for further research and improvements. 展开更多
关键词 nonlinear dimensionality reduction principal manifold tangent space subspace alignment singular value decomposition.
在线阅读 下载PDF
Prosocial behavior in Large Language Models:Value alignment and afective mechanisms
3
作者 Hao LIU Yu LEI Zhen WU 《Science China(Technological Sciences)》 2025年第8期185-199,共15页
While advanced Large Language Models(LLMs)can simulate human-like prosocial behaviors,the degree to which they align with human prosocial values and the underlying afective mechanisms remain unclear.This study address... While advanced Large Language Models(LLMs)can simulate human-like prosocial behaviors,the degree to which they align with human prosocial values and the underlying afective mechanisms remain unclear.This study addressed these gaps using the third-party punishment(TPP)paradigm,comparing LLM agents(GPT and DeepSeek series)with human participants(n=100).The LLM agents(n=500,100 agents per model)were one-to-one constructed based on the demographic and psychological features of human participants.Prompt engineering was employed to initiate TPP games and record punitive decisions and afective responses in LLM agents.Results revealed that:(1)GPT-4o,DeepSeek-V3,and DeepSeek-R1 models demonstrated stronger fairness value alignment,choosing punitive options more frequently than humans in TPP games;(2)all LLMs replicated the human pathway from unfairness through negative afective response to punitive decisions,with stronger mediation efects of negative emotions observed in DeepSeek models than GPT models;(3)only DeepSeek-R1 exhibited the human-like positive feedback loop from previous punitive decisions to positive afective feedback and subsequent punitive choices;(4)most LLMs(excluding GPT-3.5)showed signifcant representational similarity to human afect-decision patterns;(5)notably,all LLMs displayed rigid afective dynamics,characterized by lower afective variability and higher afective inertia than the fexible,contextsensitive fuctuations observed in humans.These fndings highlight notable advances in prosocial value alignment but underscore the necessity to enhance their afective dynamics to foster robust,adaptive prosocial LLMs.Such advancements could not only accelerate LLMs'alignment with human values but also provide empirical support for the broader applicability of prosocial theories to LLM agents. 展开更多
关键词 Large Language Models value alignment prosocial behavior affective mechanisms
原文传递
Exploring Educator Values Alignment Strategies in an Intervention Context: The Emergence of the Beacon Strategy 被引量:3
4
作者 Penelope Kalogeropoulos James Anthony Russo Philip Clarkson 《ECNU Review of Education》 2021年第2期327-348,共22页
Purpose:The purpose of this paper is to explore whether the four value alignment strategies available to educators(Scaffolding,Balancing,Intervention,and Refuge)previously identified in the mathematics education liter... Purpose:The purpose of this paper is to explore whether the four value alignment strategies available to educators(Scaffolding,Balancing,Intervention,and Refuge)previously identified in the mathematics education literature comprehensively capture educator value alignment strategies in an in terve ntion con text.Design/Approach/Methods:To this end,we analyse semi-structured interview data with two teacher-leaders involved in the Getting Ready in Numeracy(G.R.I.N.)intervention program through a value alignment lens.Findings:We ascertain that a fifth strategy,the Beacon strategy,is needed to describe the range of value alignment strategies employed by educators in the GRI.N.program.The Beacon strategy involves the educator digging in and reasserting their expectations until the student behaves in a manner that aligns with the educator's values.In part it invoIves the educator being able to recognize their own values and clearly communicating these values to students.O rigin al ity/Value:This article further explores strategies that educators have at their disposal for aligning their values with those of their students.The uncovering of the Beacon strategy is particularly valuable as it suggests that educators could be purposefully pursuing value alignment even when they do not appear to take any active steps to move further towards their students'sets of values. 展开更多
关键词 ENGAGEMENT valueS values alignment
原文传递
“能—智分合”:司法AI的分阶段发展模式
5
作者 孙笑侠 魏义铭 《交大法学》 北大核心 2026年第2期5-19,共15页
在司法人工智能明确定位于“辅助”后,未来中国司法人工智能的发展方向仍应是提升辅助型司法AI之“智”。借鉴“德雷福斯模式”,基于AI“能”与“智”二维可分离关系,我国可以建构辅助型司法AI“能—智分合”模式。当前提升司法AI“智... 在司法人工智能明确定位于“辅助”后,未来中国司法人工智能的发展方向仍应是提升辅助型司法AI之“智”。借鉴“德雷福斯模式”,基于AI“能”与“智”二维可分离关系,我国可以建构辅助型司法AI“能—智分合”模式。当前提升司法AI“智”存在因果判断和价值判断的技术瓶颈,但并非没有技术解决方案。我国辅助型司法AI“智”的提升可通过三种技术方案分阶段实现:一是“与法官一起思考”,以可解释性为抓手,在形式层面实现可用性的突破;二是“与法官的思考对齐”,在法律专业技能与职业伦理的约束下推进价值对齐;三是“像法官一样思考”,攀登因果判断和价值判断的阶梯,在“辅助”定位下增强对复杂裁量问题的推理支撑。 展开更多
关键词 司法人工智能 辅助型司法AI 德雷福斯模式 可解释性 价值对齐
在线阅读 下载PDF
人工智能价值对齐的主体性遮蔽与解蔽
6
作者 刘飞 吴辉 《电子科技大学学报(社科版)》 2026年第1期12-20,共9页
人工智能价值对齐对于探索人类主体性能够得到更好保护具有显著优势,是人类增进对人工智能信任的一次有益尝试,为开创以人工智能为代表的新兴科技向善发展树立了良好典范。从人工智能价值对齐的主体性有益维度看,突出体现在人类主体性... 人工智能价值对齐对于探索人类主体性能够得到更好保护具有显著优势,是人类增进对人工智能信任的一次有益尝试,为开创以人工智能为代表的新兴科技向善发展树立了良好典范。从人工智能价值对齐的主体性有益维度看,突出体现在人类主体性内涵得以丰富、人类主体的完整性得以保障、人类的主体地位得以凸显这三个方面。然而,不容忽视的是人工智能价值对齐对主体性的“遮蔽”潜在地威胁着人类自由全面发展,主要表征为对人的情感、认知、活动这三方面造成了“遮蔽”,存在着损害人类主体性的风险。通过增进情感互动、促进算法透明化、强化实践参与这三方面来建构解蔽主体性的出路,更好确保人类主体性在健康轨道上得以发挥更大作用。人类主体性是推动人工智能进步的内生动力,人工智能价值对齐为人类主体性更好激发内生活力提供了保障,推动人类科技文明得到了更好的升华。 展开更多
关键词 人工智能 价值对齐 人的主体性 以人为本 科技向善
在线阅读 下载PDF
人脑智能和新一代人工智能协同推动管理创新:理论逻辑与实现路径
7
作者 江旭 刘卫 《西安交通大学学报(社会科学版)》 北大核心 2026年第1期140-153,共14页
数字化时代背景下,以新一代人工智能为代表的科技革命力量深刻重塑组织管理模式与范式。深入探索人脑智能和新一代人工智能的协同机制以推动管理创新,对于培育新质生产力、实现经济社会可持续发展具有重要意义。《国务院关于深入实施“... 数字化时代背景下,以新一代人工智能为代表的科技革命力量深刻重塑组织管理模式与范式。深入探索人脑智能和新一代人工智能的协同机制以推动管理创新,对于培育新质生产力、实现经济社会可持续发展具有重要意义。《国务院关于深入实施“人工智能+”行动的意见》中多次强调加快形成人机协同的智能社会新形态。然而,实践中将二者的独特优势进行系统性融合,以协同驱动深层次管理创新的内在理论逻辑尚待清晰梳理,实现路径亦需体系化构建。系统重构数字化时代背景下管理创新的内涵,强调其已演进为由人脑智能与新一代人工智能“双智协同”驱动的新形态。在此基础上,深入剖析人脑智能与新一代人工智能各自的核心优势,论证二者在认知机理与功能效能上存在的天然互补性与协同必然性。原创性构建了一个由五大机制相互作用的理论框架:知识耦合创造机制推动隐性知识显性化,加速知识共享与传递,拓展组织知识创新的边界;决策增强优化机制在问题识别、方案生成与决策执行全流程中实现双智优势互补,全面提升决策质量、决策速度与决策科学性;反馈学习演进机制通过主动学习确保学习的方向性与效率,通过被动学习拓展学习的广度与深度,从而推动双智主体的双向互动与共同进化;双智互信保障机制以可信能力与可信伦理为支柱,为协同系统提供稳定运行的机制保障;价值对齐约束机制防范技术异化风险,确保所有管理创新符合社会主义核心价值观与可持续发展要求。针对当前面临的基础支撑层、技术能力层、组织管理层、治理环境层四个层面的现实制约,从四个协同联动的视角,提出夯实软硬一体的智能基础设施、构建可信安全的技术能力体系、塑造智能原生的组织管理范式、营造敏捷包容的治理与认知环境等双智协同的实现路径。深入推动人脑智能与新一代人工智能协同,既是顶层设计层面培育经济增长新动能的宏观需要,也是微观管理层面优化决策、激发活力的组织需要。通过坚守“以人为本、智能向善”的核心原则,为人脑智能和新一代人工智能协同推动管理创新提供了理论依据,也为加快发展新质生产力提供了新的思考。 展开更多
关键词 人脑智能 新一代人工智能 双智协同 知识耦合创造机制 决策增强优化机制 反馈学习演进机制 双智互信保障机制 价值对齐约束机制
在线阅读 下载PDF
拔尖创新人才培养视角下教育增值评价的调适之道
8
作者 王卫华 韦祥 《现代基础教育研究》 2026年第1期17-22,共6页
拔尖创新人才的内在创新性是一种与生命相联系的价值追求,基于“数据增值”的教育增值评价与其产生了方法、理念与目的上的不适配。原因在于教育增值评价对“增值”的理解简单移植自经济学,误解了教育学的发展性立场。应以动态性、主体... 拔尖创新人才的内在创新性是一种与生命相联系的价值追求,基于“数据增值”的教育增值评价与其产生了方法、理念与目的上的不适配。原因在于教育增值评价对“增值”的理解简单移植自经济学,误解了教育学的发展性立场。应以动态性、主体性和创造性的方式理解发展,才能找到“发展”与“创造”的本质联系,实现教育增值评价与拔尖创新人才的相互协调。为此,教育增值评价的理念应从“已有增值”转向“可能增值”,建立“发展水平+发展能力”双重评价标准,拓展多元评价方法。 展开更多
关键词 教育增值评价 拔尖创新人才 适配性问题 创新 发展
在线阅读 下载PDF
“人在环路”AI价值对齐的可行性与合理性
9
作者 陈夕朦 屈彦璋 +1 位作者 周鹏鹏 马文保 《自然辩证法研究》 北大核心 2026年第1期90-97,共8页
“人在环路”是机器学习的一种方法,近年来逐渐演变为一种技术理念并广泛应用于多技术领域。它旨在将人的经验更好地融合于机器学习的过程中,从而解决传统方法无法兼顾数据标注的效率和质量,以及非技术专家和AI专家因知识背景不同难以... “人在环路”是机器学习的一种方法,近年来逐渐演变为一种技术理念并广泛应用于多技术领域。它旨在将人的经验更好地融合于机器学习的过程中,从而解决传统方法无法兼顾数据标注的效率和质量,以及非技术专家和AI专家因知识背景不同难以协作开发的难题,提升机器学习模型的准确性。本文基于“人在环路”方法的技术优势,从工程进路提出将该方法应用于AI价值对齐的全过程;并以特定的方式将“人”与模型“环路”联结起来,以便机器能够在环路中学习人类的道德知识和道德经验,以最小代价训练出最优化的道德决策模型。最终为AI伦理的真正落地提供一种全新的可能性,以及一种“以技术的方式解决技术伦理问题”的思想进路。 展开更多
关键词 人工智能 “人在环路” 道德决策 价值对齐
原文传递
人机对齐与价值对齐:奥林匹克运动中人工智能风险及中国治理方案
10
作者 徐正旭 《武汉体育学院学报》 北大核心 2026年第1期43-51,共9页
探究奥林匹克运动场景中人工智能对齐,旨在维护奥林匹克精神及促进其可持续发展。通过文献调研、逻辑分析等研究方法探究人工智能在奥林匹克运动中的应用边界、风险归因及对齐路径。应用边界为:(1)在实体层面上要实现人机对齐,人工智能... 探究奥林匹克运动场景中人工智能对齐,旨在维护奥林匹克精神及促进其可持续发展。通过文献调研、逻辑分析等研究方法探究人工智能在奥林匹克运动中的应用边界、风险归因及对齐路径。应用边界为:(1)在实体层面上要实现人机对齐,人工智能涌现性、内置偏见、技术有限性、不可解释性及欺骗性易生成人机冲突;(2)在价值层面上要实现价值对齐,人工智能增强性、能动性、可及性、同质性及效应叠加易生成价值冲突。可通过内在、外在及对抗三种手段实现对齐目标。目前虽已建立全球多边人工智能风险协同治理机制,但欧美国家广泛实施技术管控、数据闭源、治理双标,这将加剧冲突与价值冲突。基于构建人类命运共同体理念,尝试提出中国治理方案:一要练好自身内功,构筑人工智能赋能奥林匹克运动创新发展的自主技术屏障;二要协同推进治理,构筑人工智能赋能奥林匹克可持续发展的合作局面;三要面向全球提供公共服务,弥补奥林匹克场景技术鸿沟,以此彰显负责任大国形象。 展开更多
关键词 人工智能 奥林匹克运动 人机对齐与价值对齐 伦理风险 中国方案
在线阅读 下载PDF
在设计中互构:价值敏感设计视域下的算法与新闻价值
11
作者 徐帅 《江西师范大学学报(哲学社会科学版)》 北大核心 2026年第1期78-89,共12页
在数字时代,算法深度介入新闻生态,其机器逻辑与人类判断形成张力关系,由此导致了传统新闻价值体系的变形。在算法的介入下,新闻生产、新闻分发和新闻文化都在价值评判层面发生了由专业性主导向数据化匹配的转向,这让新闻业陷入后人类... 在数字时代,算法深度介入新闻生态,其机器逻辑与人类判断形成张力关系,由此导致了传统新闻价值体系的变形。在算法的介入下,新闻生产、新闻分发和新闻文化都在价值评判层面发生了由专业性主导向数据化匹配的转向,这让新闻业陷入后人类价值危机。在这一状况下,“设计”成为人类价值观与算法架构互动的重要行动路径,体现出强大的行动潜力。借由积极的设计实践,人类行动者能够在一定程度上实现对算法架构的反向规训,锚定参与数字新闻价值体系重建的路径。其中,价值敏感设计理论为人类行动者的新闻算法设计提供了理念和实践上的启发。在概念查验、经验查验、技术查验三个维度上,针对新闻算法架构的价值敏感设计得以形成“价值过滤层嵌入—公共性补偿机制构建—多元评价体系重构”的清晰行动方案。在数字新闻理论研究和行业实践中,应充分发掘价值敏感设计理论在平衡技术创新与价值维系之间关系的认识论潜能,并以积极的人类设计行动推动新闻业对抗技术异化、回归人本主义。 展开更多
关键词 算法 新闻价值 数字新闻 价值敏感设计 价值对齐
在线阅读 下载PDF
生成式人工智能与基础教育的价值对齐:分类困境与分层治理
12
作者 李锋雷 《电化教育研究》 北大核心 2026年第2期30-37,共8页
生成式人工智能向基础教育领域的深度融入引发了价值对齐问题,这一问题源自技术逻辑与教育本质的结构性冲突。依据教育要素属性差异,研究构建“属性分类—机制溯源—分层治理”框架,将价值对齐问题分为三类:专业属性主导型、意识形态主... 生成式人工智能向基础教育领域的深度融入引发了价值对齐问题,这一问题源自技术逻辑与教育本质的结构性冲突。依据教育要素属性差异,研究构建“属性分类—机制溯源—分层治理”框架,将价值对齐问题分为三类:专业属性主导型、意识形态主导型及混合属性主导型,分别以技术效率与教育规律的结构性冲突、价值中立假象与国家意志传导刚性的不可通约、单向逻辑与复合育人功能的断裂为典型表征。依托技术社会学“技术—制度—认知”三维分析框架,研究系统阐释了各类困境的复合作用机制,并据此提出分层治理路径:针对专业属性层建立认知发展导向的技术调适机制;面向意识形态属性层构建国家意义框架强化体系;对于混合属性层设计双轨目标协同整合方案。研究尝试为人工智能与基础教育的规范融合提供基于属性分类的理论参照和分层治理思路。 展开更多
关键词 生成式人工智能 基础教育 价值对齐 教育属性分层 技术伦理 分层治理
在线阅读 下载PDF
新质生产力数智发展对传统法治的挑战与应对路径
13
作者 黄绍坤 鄢浩宇 《武汉大学学报(哲学社会科学版)》 北大核心 2026年第1期174-184,共11页
数智创新是数字时代推动新质生产力发展的核心力量,同时新质生产力也为数智发展提出了新标准。新质生产力数智发展是一项系统性工程,需要在法治引领下充分激发数据、算法、算力和平台的协同共振。但现有法律系统所具有的稳定性、命令性... 数智创新是数字时代推动新质生产力发展的核心力量,同时新质生产力也为数智发展提出了新标准。新质生产力数智发展是一项系统性工程,需要在法治引领下充分激发数据、算法、算力和平台的协同共振。但现有法律系统所具有的稳定性、命令性、价值推理、严格监管等特征,难以回应新质生产力的自组织化、智能化发展需求,无法高效实现数字要素互通与协同,无力应对数智发展的伴生风险。故而有必要引入反身法模式,建构适应“人—机”交互的规制架构,将人工智能纳为规制工具,通过互联互通、生产正义、数字私权力、价值对齐等理念优化数字规范体系,同时依托后设监管等方式革新监管体系,进而推动数智场景下新质生产力的创新、共享和安全发展。 展开更多
关键词 新质生产力 反身法 后设监管 数据共享 价值对齐 数智创新 数字治理
在线阅读 下载PDF
智能向善引领社会治理:价值对齐与效能改进
14
作者 吴新叶 李新宇 《上海市社会主义学院学报》 2026年第2期183-198,共16页
人工智能技术的高速发展为社会治理带来了新机遇,也同时产生了新的不确定性,分别表现在治理效能提升和价值对齐两大方面。通过比较分析,发现当前人工智能嵌入社会治理存在“四多四少”的倾向:效率关注多而效益评估少、数据“量”的扩张... 人工智能技术的高速发展为社会治理带来了新机遇,也同时产生了新的不确定性,分别表现在治理效能提升和价值对齐两大方面。通过比较分析,发现当前人工智能嵌入社会治理存在“四多四少”的倾向:效率关注多而效益评估少、数据“量”的扩张多而“质”的跃升少、数字市场化成分多而技术伦理少、应用场景事务聚焦多而人民本位成色少。这些倾向的消极溢出效应已经渐次显现,迫切需要以智能向善理念进行纠偏。从人工智能的运作原理来看,智能向善的建设性路径是强化算法、算力和数据的高效供给,在推动人工智能同社会治理价值对齐的同时,有效改进社会治理效能。在社会治理效能提升的具体路径上,人机协同展现了开创社会治理数字新生态的图景。 展开更多
关键词 社会治理 智能向善 价值对齐 效能改进 人机协同
在线阅读 下载PDF
人工智能价值对齐的实然困境与应然逻辑
15
作者 李钢 刘皆成 《北京联合大学学报(人文社会科学版)》 2026年第2期11-20,共10页
价值对齐致力于使人工智能的目标、行为和意图与人类的价值观保持一致,是智能时代关乎技术安全与社会稳定的关键议题。价值对齐能否实现取决于人工智能能否学会人类价值观以及人类价值观是否具有统一标准,然而,机器语言的转译鸿沟与机... 价值对齐致力于使人工智能的目标、行为和意图与人类的价值观保持一致,是智能时代关乎技术安全与社会稳定的关键议题。价值对齐能否实现取决于人工智能能否学会人类价值观以及人类价值观是否具有统一标准,然而,机器语言的转译鸿沟与机器学习的技术黑箱等技术限制以及人类价值观的模糊性、多元性与动态性等规范疑难的存在,共同决定了价值对齐无法在绝对意义上得以实现。故此,价值对齐应当是相对意义上的对齐,其价值基准是多元共识而非整齐划一的,其权力归属是协同参与而非精英垄断的,其方法选择聚焦双向塑造而非单向规训,其伦理边界聚焦安全可控而非性能至上,其实现进程是动态推进而非一劳永逸的。这种相对对齐本质上是一个不断超越实然困境并趋近理想状态的渐进式过程,对未来价值对齐实践提出了合作共赢、厚德载物与久久为功的新要求。 展开更多
关键词 人工智能 价值对齐 大语言模型 价值错位 机器学习 机器语言 技术黑箱
在线阅读 下载PDF
人工智能时代主流意识形态供给体系重构:范式变革、风险挑战与系统优化
16
作者 高盛楠 张远航 《烟台大学学报(哲学社会科学版)》 2026年第1期23-31,共9页
人工智能技术正以一种嵌入性、生成性和重构性的态势,深度介入并重塑意识形态领域的生态格局,推动主流意识形态供给体系进行范式变革。人工智能技术的深度应用与发展,为意识形态的传播带来了智能化生产、精准化适配、实时性反馈、技术... 人工智能技术正以一种嵌入性、生成性和重构性的态势,深度介入并重塑意识形态领域的生态格局,推动主流意识形态供给体系进行范式变革。人工智能技术的深度应用与发展,为意识形态的传播带来了智能化生产、精准化适配、实时性反馈、技术化监管等机遇,也引发了意识形态供给体系的结构性失衡,造成了价值偏离、传播失序、主体性弱化、治理迟滞等问题。面对挑战,需要从意识形态与人工智能的辩证关系出发,通过强化智能传播技术应用、创新话语表达方式、精准匹配受众需求、健全多主体协同机制、提升内容供给质量与效率等方式,实现价值回归、传播革新、效能重塑、协同共治,以期构建人机协同的全新供给体系,进而推动人工智能时代意识形态治理体系和治理能力现代化。 展开更多
关键词 人工智能时代 主流意识形态 供给体系 人机协同 价值对齐
在线阅读 下载PDF
面向智能时代的教育系统性变革:数字化赋能教育综合改革 被引量:25
17
作者 黄荣怀 刘嘉豪 +2 位作者 潘静文 刘梦彧 张国良 《电化教育研究》 北大核心 2025年第4期5-12,共8页
当前,正处于技术驱动教育系统性变革的关键窗口期。面对智能技术迭代加速及其对教育系统的全方位渗透,文章提出以数字化赋能教育综合改革,加速教育系统性变革的行动框架。具体包括:(1)前瞻性教育规划作为实践指引,综合考量未来可能出现... 当前,正处于技术驱动教育系统性变革的关键窗口期。面对智能技术迭代加速及其对教育系统的全方位渗透,文章提出以数字化赋能教育综合改革,加速教育系统性变革的行动框架。具体包括:(1)前瞻性教育规划作为实践指引,综合考量未来可能出现的新技术、新挑战和社会需求;(2)人机协同教学的多元实践,包括构建支持服务环境、开展证据导向的教学实践、完善教育伦理保障体系等;(3)场景驱动的教育变革,有赖于应用场景设计、改革需求洞悉、技术环境适配等基本环节,并以证据表征与夯实为保障,通过场景的迭代优化持续推动教育创新;(4)构建证据链有助于形成教育综合改革的闭环验证,需注重数字思维、数字化领导力、循证手段,并利用人机协同方式监测教育综合改革成效。在人机价值对齐的贯穿下,前瞻性规划、人机协同教学、变革场景演化和证据链构建等多维协同,确保教育系统在变革过程中始终与人类价值观保持一致,共同推动教育生态向个性化、情境化和数据驱动的方向演进,开启智能时代教育的新篇章。 展开更多
关键词 教育综合改革 教育数字化 教育系统性变革 人机价值对齐 人机协同 场景 证据链
在线阅读 下载PDF
构筑教育护栏:生成式人工智能教育应用中的价值对齐与技术适配 被引量:6
18
作者 武法提 李坦 《远程教育杂志》 北大核心 2025年第4期20-27,共8页
生成式人工智能技术在赋能教育教学提质增效的同时,其在教育实践中所表现出的“意识形态投射”“人工智能幻觉”等“价值错位”现象,也对教育应用效果产生了负面影响。为有效疏解上述问题,构建能够保障生成式人工智能安全、稳健且高质... 生成式人工智能技术在赋能教育教学提质增效的同时,其在教育实践中所表现出的“意识形态投射”“人工智能幻觉”等“价值错位”现象,也对教育应用效果产生了负面影响。为有效疏解上述问题,构建能够保障生成式人工智能安全、稳健且高质量提供教育服务的“教育护栏”成为当前亟需。研究首先从教育哲学、教育学和教学三个层面系统诠释了生成式人工智能教育应用价值对齐的内涵,进而深入剖析了涵盖“主体性”“科学性”和“道德性”等在内的11项价值原则的本质要义。在此基础之上,研究提出应通过构建教育护栏实现相关价值对齐目标,并结合生成式人工智能的技术原理,从三个层面阐述教育护栏的具体构建技术路径:借助微调技术实现教育哲学层次的价值对齐;依托思维链技术实现教育学层次的价值对齐;基于智能体技术实现教学层次的价值对齐等。由此构筑的教育护栏模型为保障生成式人工智能教育应用过程中遵循相关价值原则提供了关键技术支撑,有助于促进生成式人工智能在教育领域的规范、健康且高效的应用。 展开更多
关键词 价值对齐 教育护栏 生成式人工智能
在线阅读 下载PDF
大模型价值对齐的风险管理法律实现机制 被引量:7
19
作者 童云峰 《安徽大学学报(哲社版)》 北大核心 2025年第3期103-112,共10页
生成式人工智能大模型带来法律风险,使价值对齐成为迫切需求。但是,当前的价值对齐存在对齐税、态势感知、瓦力悖论等问题。对此,在对齐理念上,应拒绝人向机器对齐的自由主义或机器向人对齐的有限主义,转向人机相互对齐的风险管理主义... 生成式人工智能大模型带来法律风险,使价值对齐成为迫切需求。但是,当前的价值对齐存在对齐税、态势感知、瓦力悖论等问题。对此,在对齐理念上,应拒绝人向机器对齐的自由主义或机器向人对齐的有限主义,转向人机相互对齐的风险管理主义。在对齐逻辑上,因为大模型不对齐带来的法律风险主要表现为数据风险,所以实现大模型价值对齐应以管理数据风险为核心。在对齐方法上,一方面,发挥企业自治和前置法治管理数据风险的功效,划定大模型价值对齐中的风险黄线;另一方面,贯彻以生命周期、分类分级为核心的解释方法和以重构论为核心的立法方法,使刑法能够充分且合理地管理数据风险,通过划定风险红线的方式倒逼大模型运作数据和输出信息符合人类价值。 展开更多
关键词 大模型价值对齐 风险管理 法治体检 数据犯罪
在线阅读 下载PDF
“生意是生活的意义”吗?内容平台价值创造与价值捕获的对齐——小红书2013—2023年纵向案例研究 被引量:2
20
作者 江积海 庞瑶涵 《外国经济与管理》 北大核心 2025年第9期24-46,共23页
价值创造与价值捕获的割裂严重阻碍平台型商业模式的可持续发展,驱动两者协同发展的对齐机制成为关键的研究议题。本文立足内容平台商业化的特定情境,遵循“价值创造—价值捕获—协同演化”的逻辑主线,剖析小红书实践案例,创造性地引入... 价值创造与价值捕获的割裂严重阻碍平台型商业模式的可持续发展,驱动两者协同发展的对齐机制成为关键的研究议题。本文立足内容平台商业化的特定情境,遵循“价值创造—价值捕获—协同演化”的逻辑主线,剖析小红书实践案例,创造性地引入“对齐”概念界定价值创造与价值捕获的关系,并归纳两者的跃迁路径与对齐机制。研究表明:内容平台价值创造与价值捕获的对齐经历各自跃迁和相互对齐两个阶段。首先,内容平台价值创造模式经过场景化、算法化的“软化”路径,从“功能主导”跃迁至“情感延伸”,价值捕获模式经过个性化、科学化的“硬化”路径,从“流量变现”跃迁至“能力盈利”。随后,内容平台利用算法赋能对齐过程,并指导后续转化实现价值创造与价值捕获的对齐。本研究旨在探索内容平台价值创造与价值捕获的相互关系机制,拓展算法驱动商业模式可持续发展相关研究。 展开更多
关键词 内容平台 价值创造 价值捕获 对齐 小红书
原文传递
上一页 1 2 9 下一页 到第
使用帮助 返回顶部