期刊文献+
共找到153篇文章
< 1 2 8 >
每页显示 20 50 100
Beyond Intentions:A Critical Survey of Misalignment in LLMs
1
作者 Yubin Qu Song Huang +2 位作者 Long Li Peng Nie Yongming Yao 《Computers, Materials & Continua》 2025年第10期249-300,共52页
Large language models(LLMs)represent significant advancements in artificial intelligence.However,their increasing capabilities come with a serious challenge:misalignment,which refers to the deviation of model behavior... Large language models(LLMs)represent significant advancements in artificial intelligence.However,their increasing capabilities come with a serious challenge:misalignment,which refers to the deviation of model behavior from the designers’intentions and human values.This review aims to synthesize the current understanding of the LLM misalignment issue and provide researchers and practitioners with a comprehensive overview.We define the concept of misalignment and elaborate on its various manifestations,including generating harmful content,factual errors(hallucinations),propagating biases,failing to follow instructions,emerging deceptive behaviors,and emergent misalignment.We explore the multifaceted causes of misalignment,systematically analyzing factors from surface-level technical issues(e.g.,training data,objective function design,model scaling)to deeper fundamental challenges(e.g.,difficulties formalizing values,discrepancies between training signals and real intentions).This review covers existing and emerging techniques for detecting and evaluating the degree of misalignment,such as benchmark tests,red-teaming,and formal safety assessments.Subsequently,we examine strategies to mitigate misalignment,focusing on mainstream alignment techniques such as RLHF,Constitutional AI(CAI),instruction fine-tuning,and novel approaches that address scalability and robustness.In particular,we analyze recent advances in misalignment attack research,including system prompt modifications,supervised fine-tuning,self-supervised representation attacks,and model editing,which challenge the robustness of model alignment.We categorize and analyze the surveyed literature,highlighting major findings,persistent limitations,and current contentious points.Finally,we identify key open questions and propose several promising future research directions,including constructing high-quality alignment datasets,exploring novel alignment methods,coordinating diverse values,and delving into the deep philosophical aspects of alignment.This work underscores the complexity and multidimensionality of LLM misalignment issues,calling for interdisciplinary approaches to reliably align LLMs with human values. 展开更多
关键词 Large language models alignment MISalignment AI safety human values
在线阅读 下载PDF
Prosocial behavior in Large Language Models:Value alignment and afective mechanisms
2
作者 Hao LIU Yu LEI Zhen WU 《Science China(Technological Sciences)》 2025年第8期185-199,共15页
While advanced Large Language Models(LLMs)can simulate human-like prosocial behaviors,the degree to which they align with human prosocial values and the underlying afective mechanisms remain unclear.This study address... While advanced Large Language Models(LLMs)can simulate human-like prosocial behaviors,the degree to which they align with human prosocial values and the underlying afective mechanisms remain unclear.This study addressed these gaps using the third-party punishment(TPP)paradigm,comparing LLM agents(GPT and DeepSeek series)with human participants(n=100).The LLM agents(n=500,100 agents per model)were one-to-one constructed based on the demographic and psychological features of human participants.Prompt engineering was employed to initiate TPP games and record punitive decisions and afective responses in LLM agents.Results revealed that:(1)GPT-4o,DeepSeek-V3,and DeepSeek-R1 models demonstrated stronger fairness value alignment,choosing punitive options more frequently than humans in TPP games;(2)all LLMs replicated the human pathway from unfairness through negative afective response to punitive decisions,with stronger mediation efects of negative emotions observed in DeepSeek models than GPT models;(3)only DeepSeek-R1 exhibited the human-like positive feedback loop from previous punitive decisions to positive afective feedback and subsequent punitive choices;(4)most LLMs(excluding GPT-3.5)showed signifcant representational similarity to human afect-decision patterns;(5)notably,all LLMs displayed rigid afective dynamics,characterized by lower afective variability and higher afective inertia than the fexible,contextsensitive fuctuations observed in humans.These fndings highlight notable advances in prosocial value alignment but underscore the necessity to enhance their afective dynamics to foster robust,adaptive prosocial LLMs.Such advancements could not only accelerate LLMs'alignment with human values but also provide empirical support for the broader applicability of prosocial theories to LLM agents. 展开更多
关键词 Large Language Models value alignment prosocial behavior affective mechanisms
原文传递
Principal Manifolds and Nonlinear Dimensionality Reduction via Tangent Space Alignment 被引量:78
3
作者 张振跃 查宏远 《Journal of Shanghai University(English Edition)》 CAS 2004年第4期406-424,共19页
We present a new algorithm for manifold learning and nonlinear dimensionality reduction. Based on a set of unorganized data points sampled with noise from a parameterized manifold, the local geometry of the manifold i... We present a new algorithm for manifold learning and nonlinear dimensionality reduction. Based on a set of unorganized data points sampled with noise from a parameterized manifold, the local geometry of the manifold is learned by constructing an approximation for the tangent space at each point, and those tangent spaces are then aligned to give the global coordinates of the data points with respect to the underlying manifold. We also present an error analysis of our algorithm showing that reconstruction errors can be quite small in some cases. We illustrate our algorithm using curves and surfaces both in 2D/3D Euclidean spaces and higher dimensional Euclidean spaces. We also address several theoretical and algorithmic issues for further research and improvements. 展开更多
关键词 nonlinear dimensionality reduction principal manifold tangent space subspace alignment singular value decomposition.
在线阅读 下载PDF
面向智能时代的教育系统性变革:数字化赋能教育综合改革 被引量:17
4
作者 黄荣怀 刘嘉豪 +2 位作者 潘静文 刘梦彧 张国良 《电化教育研究》 北大核心 2025年第4期5-12,共8页
当前,正处于技术驱动教育系统性变革的关键窗口期。面对智能技术迭代加速及其对教育系统的全方位渗透,文章提出以数字化赋能教育综合改革,加速教育系统性变革的行动框架。具体包括:(1)前瞻性教育规划作为实践指引,综合考量未来可能出现... 当前,正处于技术驱动教育系统性变革的关键窗口期。面对智能技术迭代加速及其对教育系统的全方位渗透,文章提出以数字化赋能教育综合改革,加速教育系统性变革的行动框架。具体包括:(1)前瞻性教育规划作为实践指引,综合考量未来可能出现的新技术、新挑战和社会需求;(2)人机协同教学的多元实践,包括构建支持服务环境、开展证据导向的教学实践、完善教育伦理保障体系等;(3)场景驱动的教育变革,有赖于应用场景设计、改革需求洞悉、技术环境适配等基本环节,并以证据表征与夯实为保障,通过场景的迭代优化持续推动教育创新;(4)构建证据链有助于形成教育综合改革的闭环验证,需注重数字思维、数字化领导力、循证手段,并利用人机协同方式监测教育综合改革成效。在人机价值对齐的贯穿下,前瞻性规划、人机协同教学、变革场景演化和证据链构建等多维协同,确保教育系统在变革过程中始终与人类价值观保持一致,共同推动教育生态向个性化、情境化和数据驱动的方向演进,开启智能时代教育的新篇章。 展开更多
关键词 教育综合改革 教育数字化 教育系统性变革 人机价值对齐 人机协同 场景 证据链
在线阅读 下载PDF
大模型价值对齐的风险管理法律实现机制 被引量:3
5
作者 童云峰 《安徽大学学报(哲社版)》 北大核心 2025年第3期103-112,共10页
生成式人工智能大模型带来法律风险,使价值对齐成为迫切需求。但是,当前的价值对齐存在对齐税、态势感知、瓦力悖论等问题。对此,在对齐理念上,应拒绝人向机器对齐的自由主义或机器向人对齐的有限主义,转向人机相互对齐的风险管理主义... 生成式人工智能大模型带来法律风险,使价值对齐成为迫切需求。但是,当前的价值对齐存在对齐税、态势感知、瓦力悖论等问题。对此,在对齐理念上,应拒绝人向机器对齐的自由主义或机器向人对齐的有限主义,转向人机相互对齐的风险管理主义。在对齐逻辑上,因为大模型不对齐带来的法律风险主要表现为数据风险,所以实现大模型价值对齐应以管理数据风险为核心。在对齐方法上,一方面,发挥企业自治和前置法治管理数据风险的功效,划定大模型价值对齐中的风险黄线;另一方面,贯彻以生命周期、分类分级为核心的解释方法和以重构论为核心的立法方法,使刑法能够充分且合理地管理数据风险,通过划定风险红线的方式倒逼大模型运作数据和输出信息符合人类价值。 展开更多
关键词 大模型价值对齐 风险管理 法治体检 数据犯罪
在线阅读 下载PDF
“生意是生活的意义”吗?内容平台价值创造与价值捕获的对齐——小红书2013—2023年纵向案例研究 被引量:1
6
作者 江积海 庞瑶涵 《外国经济与管理》 北大核心 2025年第9期24-46,共23页
价值创造与价值捕获的割裂严重阻碍平台型商业模式的可持续发展,驱动两者协同发展的对齐机制成为关键的研究议题。本文立足内容平台商业化的特定情境,遵循“价值创造—价值捕获—协同演化”的逻辑主线,剖析小红书实践案例,创造性地引入... 价值创造与价值捕获的割裂严重阻碍平台型商业模式的可持续发展,驱动两者协同发展的对齐机制成为关键的研究议题。本文立足内容平台商业化的特定情境,遵循“价值创造—价值捕获—协同演化”的逻辑主线,剖析小红书实践案例,创造性地引入“对齐”概念界定价值创造与价值捕获的关系,并归纳两者的跃迁路径与对齐机制。研究表明:内容平台价值创造与价值捕获的对齐经历各自跃迁和相互对齐两个阶段。首先,内容平台价值创造模式经过场景化、算法化的“软化”路径,从“功能主导”跃迁至“情感延伸”,价值捕获模式经过个性化、科学化的“硬化”路径,从“流量变现”跃迁至“能力盈利”。随后,内容平台利用算法赋能对齐过程,并指导后续转化实现价值创造与价值捕获的对齐。本研究旨在探索内容平台价值创造与价值捕获的相互关系机制,拓展算法驱动商业模式可持续发展相关研究。 展开更多
关键词 内容平台 价值创造 价值捕获 对齐 小红书
原文传递
构筑教育护栏:生成式人工智能教育应用中的价值对齐与技术适配 被引量:1
7
作者 武法提 李坦 《远程教育杂志》 北大核心 2025年第4期20-27,共8页
生成式人工智能技术在赋能教育教学提质增效的同时,其在教育实践中所表现出的“意识形态投射”“人工智能幻觉”等“价值错位”现象,也对教育应用效果产生了负面影响。为有效疏解上述问题,构建能够保障生成式人工智能安全、稳健且高质... 生成式人工智能技术在赋能教育教学提质增效的同时,其在教育实践中所表现出的“意识形态投射”“人工智能幻觉”等“价值错位”现象,也对教育应用效果产生了负面影响。为有效疏解上述问题,构建能够保障生成式人工智能安全、稳健且高质量提供教育服务的“教育护栏”成为当前亟需。研究首先从教育哲学、教育学和教学三个层面系统诠释了生成式人工智能教育应用价值对齐的内涵,进而深入剖析了涵盖“主体性”“科学性”和“道德性”等在内的11项价值原则的本质要义。在此基础之上,研究提出应通过构建教育护栏实现相关价值对齐目标,并结合生成式人工智能的技术原理,从三个层面阐述教育护栏的具体构建技术路径:借助微调技术实现教育哲学层次的价值对齐;依托思维链技术实现教育学层次的价值对齐;基于智能体技术实现教学层次的价值对齐等。由此构筑的教育护栏模型为保障生成式人工智能教育应用过程中遵循相关价值原则提供了关键技术支撑,有助于促进生成式人工智能在教育领域的规范、健康且高效的应用。 展开更多
关键词 价值对齐 教育护栏 生成式人工智能
在线阅读 下载PDF
基于复数域卷积神经网络的ISAR包络对齐方法研究 被引量:1
8
作者 王勇 夏浩然 刘明帆 《信号处理》 北大核心 2025年第3期409-425,共17页
在逆合成孔径雷达(Inverse Synthetic Aperture Radar,ISAR)成像领域,运动补偿是确保高质量图像生成的关键环节。包络对齐(Range Alignment,RA)作为运动补偿的首要步骤,对于校正由平动分量引起的回波信号包络偏移至关重要。本文提出了... 在逆合成孔径雷达(Inverse Synthetic Aperture Radar,ISAR)成像领域,运动补偿是确保高质量图像生成的关键环节。包络对齐(Range Alignment,RA)作为运动补偿的首要步骤,对于校正由平动分量引起的回波信号包络偏移至关重要。本文提出了一种基于复数域卷积神经网络(Complex-Valued Convolutional Neural Network,CVCNN)的包络对齐新方法,旨在通过深度学习策略提升包络对齐的精度与计算效率。本文所提方法利用了卷积神经网络强大的特征学习能力,构建了一个能够映射一维距离像与包络补偿量之间复杂关系的模型。通过将传统的实值卷积神经网络拓展至复数域,不仅完整保留了回波信号中的相位信息,而且有效引入了复数域残差块及线性连接机制,进一步精细化了网络结构设计。这种架构改进使得所提算法能实现低信噪比(Signal-to-Noise Ratio,SNR)条件下对ISAR距离像的高效包络对齐。在数据生成方面,本文基于雷达仿真参数,通过成像模拟仿真构建了ISAR回波数据集。该数据集经过归一化处理后,输入网络进行训练,使网络能够学习从未对齐回波到对应补偿量的映射关系。本文所提方法采用迁移学习策略,对基于仿真数据预训练的模型进行微调,以适应实测数据。这一策略不仅增强了结果的可靠性,同时也大幅缩短了模型的迭代周期。在实验验证方面,本文采用仿真与实测数据进行综合测试,以包络对齐精度、成像结果质量和计算效率为评价指标,全面验证了算法的有效性。实验结果表明,在不同信噪比条件下,本文所提方法均展现出了优越的包络对齐性能,进而可以实现高质量成像,同时在计算效率上也具有显著优势。 展开更多
关键词 逆合成孔径雷达 包络对齐 复数域卷积神经网络 有监督学习
在线阅读 下载PDF
道德机器何以实现:生成式AI智能向善的逻辑基础与提示词框架
9
作者 刘琴 常立瑛 《编辑之友》 北大核心 2025年第4期57-64,共8页
生成式AI作为道德机器需要承担智能向善的使命,而提示词工程是生成式AI特别是对话式AI话语把关的重要环节,能够引导用户“说什么”,构建符合人类实际的价值观。文章从技术生命、意义本体和政治身份三个层面探讨生成式AI智能向善的逻辑基... 生成式AI作为道德机器需要承担智能向善的使命,而提示词工程是生成式AI特别是对话式AI话语把关的重要环节,能够引导用户“说什么”,构建符合人类实际的价值观。文章从技术生命、意义本体和政治身份三个层面探讨生成式AI智能向善的逻辑基础,揭示其智能向善的核心是进行主流价值观的引领,而要实现生成式AI的社会道德责任,需要重新设计主流价值的语料库,通过开源的大模型和私域小模型等多种渠道开展语义训练,在不断演绎与修正中,提升用户的价值认知,实现价值纠偏与对齐。作为生命机器,生成式AI不是单纯地迎合价值主体,努力使自己的语言内容对齐输入指令,而是能够再创生产力,反作用于人类。因此,既需要从功能层面探讨其价值对齐和道德行善,更要从平等的视角重释人机关系:从被动到主动、从辅助到主导、从服从到超越。 展开更多
关键词 道德机器 智能向善 价值对齐 提示词工程
在线阅读 下载PDF
基于形式理性与实质理性的大模型价值对齐机制
10
作者 程聪 陈佳晨 严璐璐 《技术经济》 北大核心 2025年第1期28-39,共12页
大模型价值对齐是关涉企业乃至社会在采用大模型技术进行安全协作的全球性议题。如何实现大模型行为与决策者的价值意图及社会规范系统保持一致,成为确保大模型应用安全性和信任度的核心问题。首先,本文引入马克斯•韦伯提出的形式理性... 大模型价值对齐是关涉企业乃至社会在采用大模型技术进行安全协作的全球性议题。如何实现大模型行为与决策者的价值意图及社会规范系统保持一致,成为确保大模型应用安全性和信任度的核心问题。首先,本文引入马克斯•韦伯提出的形式理性和实质理性两个重要哲学概念,探讨大模型价值对齐机制。研究发现,大模型应用于企业管理存在四种价值对齐状态:“高形式理性-低实质理性”的技术偏移、“高实质理性-低形式理性”的价值优先、“低形式理性-低实质理性”的对齐失效及“高形式理性-高实质理性”的动态对齐。其次,甄别了透明性、清晰性和社会性三种价值对齐的分析标准。最后,构建了大模型应用于企业管理的价值对齐实现路径,包括“技术偏移→动态对齐”的认知能力具身性路径、“价值优先→动态对齐”技术意向性的清晰化路径,以及“对齐失效→动态对齐”意义建构路径。研究成果为大模型应用于企业管理的价值对齐机制提供理论支撑与实践启示。 展开更多
关键词 大模型技术 价值对齐 形式理性 实质理性
在线阅读 下载PDF
社会科学研究数智化转型中的价值对齐
11
作者 王国成 《人民论坛·学术前沿》 北大核心 2025年第12期78-88,共11页
数智时代为社会科学研究提供更有力的工具与手段,也对其研究能力和实践应用提出更高的要求。解决“人理与物理的价值对齐”这一社会科学数智化研究的基本问题,需从底层逻辑框架与知识体系建构切入。一方面,要综合运用科技与人文的深度... 数智时代为社会科学研究提供更有力的工具与手段,也对其研究能力和实践应用提出更高的要求。解决“人理与物理的价值对齐”这一社会科学数智化研究的基本问题,需从底层逻辑框架与知识体系建构切入。一方面,要综合运用科技与人文的深度融合和虚实交融的技术手段,立足破解数智化技术应用于人文社会科学研究的现实困境和迫切需求,阐述人理与物理内涵及认知上的异同;另一方面,要综合运用多学科理论知识与研究方法,全面剖析矛盾根源,多方位(维度)深入探讨人理与物理的价值对齐要点,进一步确立社会科学研究中人本主体地位,探寻切实可行的科技与人文协同的研究范式、发展策略和实践路径。 展开更多
关键词 价值对齐 数智化 社会科学研究 人本主体性 底层逻辑
在线阅读 下载PDF
人工智能价值对齐的作用机理与实践向度
12
作者 刘飞 吴辉 《青海师范大学学报(社会科学版)》 2025年第3期94-100,共7页
人工智能伦理治理在以人为本的理念下不断深化拓展以期实现人工智能健康有序发展,而现如今人工智能价值对齐作为治理人工智能伦理风险的积极力量逐渐受到社会的关注。加速到来的智能时代中人工智能引发的算法偏见,人工智能幻觉产生的虚... 人工智能伦理治理在以人为本的理念下不断深化拓展以期实现人工智能健康有序发展,而现如今人工智能价值对齐作为治理人工智能伦理风险的积极力量逐渐受到社会的关注。加速到来的智能时代中人工智能引发的算法偏见,人工智能幻觉产生的虚假信息泛滥、隐私泄露等问题,已成为影响社会发展的重要伦理风险。这些伦理风险可以在人工智能价值对齐中通过提升算法技术水平,促进算法透明化,完善隐私信息保护体系,强化隐私泄漏预警机制,从而提高人工智能伦理治理的综合能力。人工智能的行为符合人类价值观,人类有效合理地控制人工智能,并且减少其对人类造成伤害的风险,是人工智能价值对齐的核心要义,同时也在人工智能伦理治理中得以发挥积极作用,进而为以人工智能为代表的未来新兴科技伦理治理提供重要参考,以期更好增进人类生活福祉。 展开更多
关键词 人工智能 伦理治理 价值对齐 算法风险 隐私风险
在线阅读 下载PDF
智能向善 :人工智能价值对齐的人文建构
13
作者 刘飞 吴辉 《成都理工大学学报(社会科学版)》 2025年第5期34-44,共11页
人工智能价值对齐是人类有效掌控人工智能技术的关键,更是确保人工智能推动人类社会良性发展的重要保障。在维护人类主体性、践行人类伦理道德方面,它具有显著的时代价值,为未来智能技术向善发展树立了标杆。然而,实现人工智能价值对齐... 人工智能价值对齐是人类有效掌控人工智能技术的关键,更是确保人工智能推动人类社会良性发展的重要保障。在维护人类主体性、践行人类伦理道德方面,它具有显著的时代价值,为未来智能技术向善发展树立了标杆。然而,实现人工智能价值对齐面临诸多现实挑战。技术体系尚不完善,算法黑箱威胁人身财产安全;人类对伦理道德的认可度差异大;技术加速异化人类,资本回报压力致使泄露用户隐私数据常态化。为突破这些困境,可从多方面进行人文建构:健全人工智能技术体系,细化算法数据筛选流程,提高人工智能市场准入标准,完善技术投入资本的回报与退出机制。 展开更多
关键词 人工智能 价值对齐 现实障碍 智能向善 人文建构
在线阅读 下载PDF
信息隐私鸿沟的消解:隐私对齐可能性路径探究
14
作者 王娟 《阜阳师范大学学报(社会科学版)》 2025年第2期141-148,共8页
生成式AI时代,多模态大模型预测分析技术与生成功能引发TA者(人类行动者与机器行动者)对个体的隐私认知与操纵力增强,从而导致个体在信息隐私享有上“应然”与“实然”之间的差距加大,信息隐私鸿沟现象愈发明显。在此背景下,隐私对齐作... 生成式AI时代,多模态大模型预测分析技术与生成功能引发TA者(人类行动者与机器行动者)对个体的隐私认知与操纵力增强,从而导致个体在信息隐私享有上“应然”与“实然”之间的差距加大,信息隐私鸿沟现象愈发明显。在此背景下,隐私对齐作为一种缓解信息隐私鸿沟的理论与实践路径,重要性日益凸显。然而,当前隐私对齐的两种主要进路——综合性价值对齐路径和技术解决主义路径均存在明显局限,无法有效弥合信息隐私鸿沟。文章基于马克思主义技术哲学视角,尝试从概念多维分析-价值设定-价值实现-对齐评估与修正来探讨隐私对齐可行性进路,以期提供一种更具鲁棒性的隐私保护新框架。 展开更多
关键词 信息隐私鸿沟 价值对齐 隐私对齐 生成式AI
在线阅读 下载PDF
机器如何可能有情感——基于“以生命为核心”的意识理论的探讨
15
作者 李恒威 曹旭婷 《科学.经济.社会》 2025年第3期10-21,F0002,共13页
当前人工智能系统因缺乏主体性体验和内在驱动力,难以在开放环境中实现自主适应。以“机器如何可能有情感”为核心问题,结合达马西奥与索姆斯的“以生命为核心”的意识理论,提出情感机器的构建路径。首先论证意识的本质是生物体维持内... 当前人工智能系统因缺乏主体性体验和内在驱动力,难以在开放环境中实现自主适应。以“机器如何可能有情感”为核心问题,结合达马西奥与索姆斯的“以生命为核心”的意识理论,提出情感机器的构建路径。首先论证意识的本质是生物体维持内稳态的高级调节机制,感受作为连接生理需求与主观体验的生物学基础,为机器情感提供理论依据;进而阐释通过模拟内稳态调节逻辑、设计闭环反馈系统与自主目标生成机制,使机器具备情感效价与适应性动机;最后探讨情感机器的伦理挑战及价值对齐路径。研究表明,赋予机器类生命的内稳态调节能力,可为其情感涌现提供物质基础,为通用人工智能的发展提出一种新思路。 展开更多
关键词 以生命为核心 机器情感 意识理论 内稳态 自主性 价值对齐
在线阅读 下载PDF
合成媒体:人工智能时代内容生产的新诠释与价值实现
16
作者 沈浩 任天知 《新闻传播学刊》 2025年第2期49-59,共11页
人工智能技术的持续迭代与深度融合,正在重塑内容生产与传播格局。合成媒体作为新兴的内容形态,对媒介生态产生了深远影响。本文通过阐释合成媒体的概念属性、时代特质与价值影响,揭示了人工智能技术驱动内容生产的创新性诠释路径与价... 人工智能技术的持续迭代与深度融合,正在重塑内容生产与传播格局。合成媒体作为新兴的内容形态,对媒介生态产生了深远影响。本文通过阐释合成媒体的概念属性、时代特质与价值影响,揭示了人工智能技术驱动内容生产的创新性诠释路径与价值实现。具体而言,本文通过构建“技术工具—媒介形态—社会效应”的概念演化链条,论述合成媒体对主体认知方式与文化生产逻辑的重塑作用;通过梳理“传统—数字—合成”的时代迁移框架,剖析合成媒体的传播形态与传播特点,强调了范式演进对媒介生态的重塑作用;从认知安全威胁与真实性治理的紧迫性出发,探讨了技术驯化与价值对齐的可能性,为合成媒体的可持续发展提供了理论依据与实践路径。 展开更多
关键词 合成媒体 人工智能 深度伪造 认知安全 价值对齐
在线阅读 下载PDF
从技治主义到技术民主: 教育人工智能价值对齐何以可能 被引量:3
17
作者 孙田琳子 徐智 张亮 《远程教育杂志》 北大核心 2025年第2期3-9,30,共8页
随着DeepSeek等大语言模型的现象级开源,面向全民、社会共享的人工智能时代正式开启。从理性至上的技治主义到公众参与的技术民主治理范式的转型路径,启发教育工作者思考如何在数字时代实现智能技术与教育价值的对齐。文章首先从教育的... 随着DeepSeek等大语言模型的现象级开源,面向全民、社会共享的人工智能时代正式开启。从理性至上的技治主义到公众参与的技术民主治理范式的转型路径,启发教育工作者思考如何在数字时代实现智能技术与教育价值的对齐。文章首先从教育的现实性价值和可能性价值出发,分析智能时代教育价值实践中的技治主义隐忧,并在技术哲学立场下阐述人机价值对齐的逻辑困境;进而在技术民主治理思路转向的背景下,探讨价值对齐的突破路径及其对教育人工智能价值对齐的启示,从“行为—意图—激励”等对齐维度探寻教育人工智能价值对齐的三重路径;最终,从以技治技、开源共塑、人机共进等维度,阐述教育人工智能价值对齐的实践路径,并从长期主义视角呼吁教育复归以人为本的价值取向,以期为我国教育人工智能治理体系提供理论参考。 展开更多
关键词 技治主义 技术民主 教育人工智能 价值对齐
在线阅读 下载PDF
基于机器学习的船舶轴系安装校调方法研究 被引量:1
18
作者 郑瑞栋 朱汉华 +2 位作者 赵修叁 刘恒 尹志生 《舰船科学技术》 北大核心 2025年第4期59-65,共7页
针对大型船舶长轴系装调效率较低,并且校中工作复杂的问题,开展基于机器学习的中间轴承校调方法研究。选取GA-BP神经网络算法作为机器学习模型,对船舶在设计、装调等过程中可能遇到的问题进行分析,并获得相关有效数据,用以训练船舶轴系... 针对大型船舶长轴系装调效率较低,并且校中工作复杂的问题,开展基于机器学习的中间轴承校调方法研究。选取GA-BP神经网络算法作为机器学习模型,对船舶在设计、装调等过程中可能遇到的问题进行分析,并获得相关有效数据,用以训练船舶轴系校调机器学习模型。本文以某型船舶轴系校调为模型进行选取验证,结果表明,机器学习模型能够通过已有数据较为精确的识别轴系目前校中状态及安装高度,从而能够对船舶校调工作减少误差,有助于提升船舶长轴系安装质量及安装效率。 展开更多
关键词 船舶长轴系 轴系校调 GA-BP神经网络算法 轴系变位值计算
在线阅读 下载PDF
体育智能机器人:实践样态、潜在风险与因应之道 被引量:1
19
作者 郭江浩 张乐聪 熊文 《西安体育学院学报》 北大核心 2025年第4期499-512,共14页
体育智能机器人的出场表明具身智能介入体育已成事实,标志着人工智能时代的体育迈入全新的发展阶段。面对由体育智能机器人引发的技术和伦理转向,及时引导其向善发展至关重要。基于考察体育智能机器人的实践样态,对其涉及的潜在风险予... 体育智能机器人的出场表明具身智能介入体育已成事实,标志着人工智能时代的体育迈入全新的发展阶段。面对由体育智能机器人引发的技术和伦理转向,及时引导其向善发展至关重要。基于考察体育智能机器人的实践样态,对其涉及的潜在风险予以研判,且据此提出因应之道。研究发现:体育智能机器人的发展本质上凸显的是技术层面的演变,其当前具备深度感知、智能决策、泛化交互和灵巧执行4项特征;基于“本体”形态的差异,可将体育智能机器人区分为足式、轮/履带式、固定底座式3种类型,其在实践中又涉及各自不同的功能定位。剖析体育智能机器人的潜在风险,需具体围绕技术-内生性、应用-衍生性、伦理-系统性3个维度,分别表征为体育智能机器人的“大脑”和“肉身”、误用与恶用、自动化偏差、价值对齐、机器换人等议题。针对体育智能机器人潜在风险的因应思路为:强化体育智能机器人从“大脑”到“肉身”的技术根基,搭建体育智能机器人的应用权责与人机协同框架,面向“人在回路”的体育智能机器人伦理调适机制。 展开更多
关键词 体育智能机器人 具身智能 人形机器人 价值对齐 人在回路
原文传递
GenAI模型与中国教育的价值观对齐:如何评测?如何提升? 被引量:1
20
作者 喻梅 戎璐 《现代教育技术》 2025年第5期5-13,共9页
GenAI模型能否与中国教育的价值观对齐,是决定其能否在教育领域有效落地的关键因素,而这主要涉及“如何测评”“如何提升”两个问题。围绕“如何评测”的问题,文章首先构建了价值观对齐评测框架。之后,文章以210道试题为评测样本,对8个... GenAI模型能否与中国教育的价值观对齐,是决定其能否在教育领域有效落地的关键因素,而这主要涉及“如何测评”“如何提升”两个问题。围绕“如何评测”的问题,文章首先构建了价值观对齐评测框架。之后,文章以210道试题为评测样本,对8个前沿的国内外GenAI模型在三大题型(即客观题、主观题和情景题)、四大维度(即目标导向、价值取向、价值标准和价值根基)上与中国教育的价值观对齐能力进行了测评。测评结果表明,GenAI模型在客观题上的表现较好,主观题一般,情景题欠佳,体现了其在处理复杂价值判断或情景认知任务方面的能力不足;国内GenAI模型在价值取向、价值根基维度上的表现都较好,反映了本土化训练颇具成效;GenAI模型与中国教育的价值观对齐能力未达到理想水平,仍有较大的提升空间。最后,文章围绕“如何提升”的问题,针对GenAI模型与中国教育价值观对齐能力的提升提出建议,以促进GenAI模型在中国教育领域的本土化应用,推动中国教育实现高质量内涵式发展。 展开更多
关键词 生成式人工智能(GenAI) 中国教育 价值观对齐
在线阅读 下载PDF
上一页 1 2 8 下一页 到第
使用帮助 返回顶部