期刊文献+
共找到19篇文章
< 1 >
每页显示 20 50 100
AI standardization in Europe
1
作者 Sebastian Hallensleben 《China Standardization》 2025年第5期23-23,共1页
If you look into the EU AI Act,you will find that the requirements are specified at a very high level.This is because the details are defined elsewhere.That is what standardization is doing.If we look at the world of ... If you look into the EU AI Act,you will find that the requirements are specified at a very high level.This is because the details are defined elsewhere.That is what standardization is doing.If we look at the world of AI standardization,there are three tiers-the international tier,the European tier and the national tier.There are also AI standardization committees at all three levels. 展开更多
关键词 EU ai act ai standardization committees ai standardization international tier national tier ai standardization European tier
原文传递
医学AI的情感、动机与意向性言语行为辨析
2
作者 赵亮英 《科学技术哲学研究》 北大核心 2025年第4期111-116,共6页
对应于强、弱人工智能的概念区别及理性与情感在人类道德行为中的不同作用,在由医学伦理规则和行为守则等组成的“机器意向”的引导和限定下,弱医学AI可以通过算法、传感设备和数据分析等,模拟表征出类似人类的机器情感、机器动机和意... 对应于强、弱人工智能的概念区别及理性与情感在人类道德行为中的不同作用,在由医学伦理规则和行为守则等组成的“机器意向”的引导和限定下,弱医学AI可以通过算法、传感设备和数据分析等,模拟表征出类似人类的机器情感、机器动机和意向性言语行为,进而在AI、医生与患者之间建立一种可通约的思维状态,包括共情、行为规则和价值取向等;医学AI言语行为模式的透明性和可解释性,可以促进医学AI更加积极、公平和安全的应用与发展。 展开更多
关键词 医学ai 机器意向 机器情感 言语行为
原文传递
《人工智能法案》与全球AI治理:欧盟模式的实践与前景
3
作者 张应语 赵英姿 +1 位作者 颜金 杨婧 《湘潭大学学报(哲学社会科学版)》 北大核心 2025年第3期111-119,共9页
聚焦欧盟《人工智能法案》在全球AI治理中的实践与未来发展,探讨其在平衡技术创新与风险监管中的关键作用。作为全球首部横向综合性AI监管框架,该法案通过风险分级模式,确立了从禁止应用、高风险系统到低风险系统的多层次监管体系。尽... 聚焦欧盟《人工智能法案》在全球AI治理中的实践与未来发展,探讨其在平衡技术创新与风险监管中的关键作用。作为全球首部横向综合性AI监管框架,该法案通过风险分级模式,确立了从禁止应用、高风险系统到低风险系统的多层次监管体系。尽管法案在保障安全与基本权利方面做出了创新贡献,但其过度强调风险管控,可能在医疗、健康等关键领域阻碍技术创新,削弱欧盟在全球AI产业中的竞争力。法案对跨境数据流动的严格规定和高额合规成本,可能会加剧全球数字经济贸易壁垒。法案通过布鲁塞尔效应扩大其全球影响,可能引发全球尤其是在中美欧三方之间AI治理话语权的竞争。法案的实施面临法律定义模糊、监管执行困难等挑战。为解决全球AI治理中的政策协调与标准统一问题,建议加强多边合作,推动全球统一的监管框架,以应对AI技术的跨国性挑战。 展开更多
关键词 欧盟《人工智能法案》 全球ai治理 风险分级监管 布鲁塞尔效应
在线阅读 下载PDF
生成式AI的法律风险及应对 被引量:10
4
作者 何煊 《西北民族大学学报(哲学社会科学版)》 CSSCI 北大核心 2023年第4期89-98,共10页
随着生成式AI应用在多个领域的兴起,在为经济发展、科技进步注入活力的同时,也存在侵害用户权益、损害公共利益的可能。为消弭技术可能带来的多维度风险,监管需求与日俱增。生成式AI模型与AI系统既存在区别又彼此联系,共同在特定场景下... 随着生成式AI应用在多个领域的兴起,在为经济发展、科技进步注入活力的同时,也存在侵害用户权益、损害公共利益的可能。为消弭技术可能带来的多维度风险,监管需求与日俱增。生成式AI模型与AI系统既存在区别又彼此联系,共同在特定场景下发挥作用,构成对生成式AI规制的逻辑起点。以《AI法案》为代表的欧盟立法具有一定的前瞻性,却也在如风险分级、生成内容审核等多方面存在问题,需要持续完善。生成式AI非普通产品,考虑其动态性与场景化的特征,应当采取具有针对性的规制措施。我国立法可适当吸取有益经验,在价值链主体合作机制构建与平台生成内容审核方面予以创新,提高生成式AI规制的有效性。 展开更多
关键词 生成式ai 法律风险 ai法案》 价值链 平台 内容审核
在线阅读 下载PDF
大数据时代侵犯公民个人信息罪行为规制模式的应然转向——以“AI换脸”类淫秽视频为切入 被引量:28
5
作者 黄陈辰 《华中科技大学学报(社会科学版)》 CSSCI 北大核心 2020年第2期105-113,共9页
《刑法》第253条之一“侵犯公民个人信息罪”采取的是基于源头治理逻辑的行为规制模式,其仅将非法获取与非法提供他人信息的行为规定为犯罪。这种模式设计虽基于一定的理性考量,但其从产生之初即内嵌着忽略非法利用行为原动力地位、过... 《刑法》第253条之一“侵犯公民个人信息罪”采取的是基于源头治理逻辑的行为规制模式,其仅将非法获取与非法提供他人信息的行为规定为犯罪。这种模式设计虽基于一定的理性考量,但其从产生之初即内嵌着忽略非法利用行为原动力地位、过度依赖前端行为与末端行为之间供给关系的固有局限,无法适应利用他人照片制作“AI换脸”类淫秽视频等大数据时代异化而来的新问题,故应进行模式转换,在保留非法获取与非法提供行为的基础上,将非法利用行为纳入侵犯公民个人信息罪的规制范围,合并规定于《刑法》第253条之一第1款,并适用该款法定刑,完成从源头治理到全程打击的模式转型,实现对公民个人信息的周全保护。 展开更多
关键词 大数据 侵犯公民个人信息罪 行为规制模式 非法利用行为 ai换脸
在线阅读 下载PDF
可解释人工智能何以赋能教育普惠:基于立法、生态与素养三大支柱——欧盟《教育领域可解释人工智能:加强人类监督与责任共担》解读及启示
6
作者 张海 吴浩辰 +1 位作者 苗永岱 刘思琪 《中国教育信息化》 2025年第11期48-61,共14页
随着人工智能在教育领域的深度融合,其决策过程的“黑箱”特性引发关于公平、问责与信任的广泛关切。可解释人工智能(XAI)旨在破解此难题,成为构建可信教育人工智能生态的技术与伦理基石。据此,系统审视欧洲数字教育中心专项小组发布的... 随着人工智能在教育领域的深度融合,其决策过程的“黑箱”特性引发关于公平、问责与信任的广泛关切。可解释人工智能(XAI)旨在破解此难题,成为构建可信教育人工智能生态的技术与伦理基石。据此,系统审视欧洲数字教育中心专项小组发布的《教育领域可解释人工智能:加强人类监督与责任共担》报告。其核心贡献有三点:构建“教育—法律—技术”三维协同分析框架,推动“模型可解释”向“人类可理解”的人本主义转向,并规划以分层能力建设为基石的系统实施路径。借鉴该报告核心思想,结合我国《教育强国建设规划纲要(2024—2035年)》与《国务院关于深入实施“人工智能+”行动的意见》的战略布局,从立法路径前瞻、教育生态构建、素养建设路径三个方面,提出完善我国人工智能教育治理体系的具体建议:一是构建“以人为本、权责清晰、动态演进”的法律体系;二是夯实教学、治理与责任透明;三是推行分层赋能与螺旋上升的课程框架。 展开更多
关键词 可解释人工智能 教育治理 人工智能法案 人工智能素养 教育生态
在线阅读 下载PDF
韩国2024年《人工智能基本法案》制度研究
7
作者 吴沈括 曾文丽 谭颖慧 《智能物联技术》 2025年第3期4-7,共4页
韩国于2024年12月26日正式通过《人工智能基本法案》,旨在推动韩国实现2027年跃身全球人工智能三大强国的目标。该法案通过人工智能分级监管、界定高影响人工智能、生成式人工智能标注义务等探讨人工智能发展与安全的平衡点,进而为韩国... 韩国于2024年12月26日正式通过《人工智能基本法案》,旨在推动韩国实现2027年跃身全球人工智能三大强国的目标。该法案通过人工智能分级监管、界定高影响人工智能、生成式人工智能标注义务等探讨人工智能发展与安全的平衡点,进而为韩国探索出一条不同于欧盟强监管的风险分级监管与美国以国家安全为导向的风险治理框架之路。 展开更多
关键词 《人工智能基本法案》 高影响人工智能 分级监管
在线阅读 下载PDF
人工智能挑战下对物行政行为理论的拓展
8
作者 汤啸天 李晶 《上海政法学院学报(法治论丛)》 2025年第2期65-90,共26页
探索建立对物行政行为的理论体系和操作规程,并在实践中不断完善。一方面,对物行政行为的私人所有物也会处于物权法与行政法的交叉作用之下,产生财产权伴随义务;另一方面,拥有财产而产生的伴随义务不能无限扩张,在私人所有物上所呈现的... 探索建立对物行政行为的理论体系和操作规程,并在实践中不断完善。一方面,对物行政行为的私人所有物也会处于物权法与行政法的交叉作用之下,产生财产权伴随义务;另一方面,拥有财产而产生的伴随义务不能无限扩张,在私人所有物上所呈现的“公私权重叠”必须具有合理的边界。对物行政行为的前提是尊重私有财产的所有权,恪守保护私人财产所有权与维护公共利益相平衡的原则,引导私人财产所有者在“有恒产者有恒心”的过程中不断增强财产伴随义务。改变我国对物行政行为研究薄弱的状态,必须按照依法、适度、互动、程序正当原则,廓清公共利益所包含的事项和内容,准确把握行使私有财产所有权获益的私人标准与避免公共利益受损的公益标准的结合,精准确定私人财产所有权受到限制的范围和尺度。 展开更多
关键词 对物行政行为 对人行政行为 行政权 人工智能 状态责任
在线阅读 下载PDF
构建人工智能教育应用风险防范“金字塔”——欧盟《人工智能法案》解读 被引量:1
9
作者 周丹 苏福根 +1 位作者 龚超 袁中果 《中国教育信息化》 2025年第2期79-88,共10页
欧盟发布的《人工智能法案》提出采用分级管控、全生命周期监管等措施提高人工智能的安全性。基于该法案提出的风险监管理念,结合全球人工智能教育应用的风险防范案例,从以下几个方面分析了面对风险时可采取的防范对策:保护受教育者的... 欧盟发布的《人工智能法案》提出采用分级管控、全生命周期监管等措施提高人工智能的安全性。基于该法案提出的风险监管理念,结合全球人工智能教育应用的风险防范案例,从以下几个方面分析了面对风险时可采取的防范对策:保护受教育者的基本权益,避免算法歧视;保护师生个人隐私数据,杜绝数据泄露;确保教育应用的透明性和可解释性,防范信息污染。最后,建议适时出台人工智能教育应用的分类分级指导政策,构建分类分级与风险防范并行的监管制度;高度重视师生隐私信息保护,加强师生人工智能素养教育,积极构建教育可信数据空间;在人工智能教育产品开发的过程中,应遵从人工智能应用风险防范和伦理规范,确保所开发的教育产品符合伦理准则和价值观。 展开更多
关键词 欧盟 人工智能法案 人工智能教育 风险防范 可信数据空间
在线阅读 下载PDF
个人数据权益的人工智能立法保护:全球实践与本土图景 被引量:1
10
作者 潘雨祥 《北京工业大学学报(社会科学版)》 北大核心 2025年第5期123-136,共14页
随着人工智能的发展,对其立法规制成为各国亟待破解的关键难题。个人数据权益保护制度对于人工智能产业发展尤为重要,但中国人工智能立法不宜对个人数据权益保护问题进行专门规定。从域外立法实践来看,欧美立法者倾向于利用网络领域法... 随着人工智能的发展,对其立法规制成为各国亟待破解的关键难题。个人数据权益保护制度对于人工智能产业发展尤为重要,但中国人工智能立法不宜对个人数据权益保护问题进行专门规定。从域外立法实践来看,欧美立法者倾向于利用网络领域法律协同保护个人数据权益,同时为企业和政府施加数据权益保障义务,并授权行政机构制定次级法律,以实现灵活治理。中国人工智能立法宜秉持领域协同保护思维,构建“基于义务”而非“基于权利”的个人数据权益保障制度。同时,应同等重视高位阶统一立法的指导作用和低位阶专门立法的补充作用,在中国人工智能立法条件尚不完全成熟的现状下,通过行政法规、部门规章等确立人工智能的具体治理规则,重点关注金融、知识服务、物联网技术等关键风险领域,并实施针对性专项治理。 展开更多
关键词 人工智能 个人数据权益 欧盟人工智能法案 行政规制
在线阅读 下载PDF
外部性视角下欧盟《人工智能法案》的国家安全风险分析
11
作者 廖秀健 史丽冬 《科技管理研究》 2025年第9期238-245,共8页
人工智能技术的颠覆性特征持续加剧立法紧迫性。以外部性视角探寻人工智能治理过程中国家安全风险的性质、缘由和影响,并寻求解决方案,对于制定合理的国家政策,以实现域内人工智能经济增长和全球社会福利的最大化至关重要。外部性视角下... 人工智能技术的颠覆性特征持续加剧立法紧迫性。以外部性视角探寻人工智能治理过程中国家安全风险的性质、缘由和影响,并寻求解决方案,对于制定合理的国家政策,以实现域内人工智能经济增长和全球社会福利的最大化至关重要。外部性视角下,欧盟《人工智能法案》的顺势颁布,其治理理念输出的正外部性,为全球治理预留了妥协合作的空间;但国家安全风险的负面影响也引发各国关于规则博弈的隐患。实现帕累托最优的利益平衡,成为破除规制困境的逻辑前提。只有当国家站在市场主体之上进行监管时,才可能形成持续、动态的帕累托最优平衡制度和机制。基于外部性理论框架,管窥欧盟《人工智能法案》的管控逻辑,研判其对国家层面的安全风险,认为中国应采取回应型治理模式,在积极应对技术创新趋势的同时,参与全球人工智能治理,推动完善治理规则;加强国内人工智能监管,加快国内相关人工智能立法,实现多方利益平衡。 展开更多
关键词 人工智能立法 欧盟《人工智能法案》 国家安全风险 回应型治理模式 监管协同
在线阅读 下载PDF
欧盟《人工智能法》的域外适用与中国方案建构 被引量:7
12
作者 何晶晶 《扬州大学学报(人文社会科学版)》 2024年第6期72-85,共14页
欧盟凭借自身的市场规模和监管能力,在越来越多领域不断扩展欧盟法的域外适用范围。欧盟通过《人工智能法》,成为全球主要经济体的首个人工智能监管立法。为传播欧盟数字人权的价值观、维护欧盟人工智能市场竞争权和抢占国际人工智能领... 欧盟凭借自身的市场规模和监管能力,在越来越多领域不断扩展欧盟法的域外适用范围。欧盟通过《人工智能法》,成为全球主要经济体的首个人工智能监管立法。为传播欧盟数字人权的价值观、维护欧盟人工智能市场竞争权和抢占国际人工智能领域的规则制定权,欧盟《人工智能法》将通过人权的普适性、先行规则的模范示范作用、严格执法等路径继续发挥欧盟立法的域外适用效果。但考虑到人工智能技术的复杂性、全球规则分化、监管能力不足等因素,《人工智能法》的域外适用效应可能受限。在全球人工智能治理竞争背景下,中国应以加强人工智能治理为契机参与全球数字人权治理、选择性吸收欧盟《人工智能法》的有益内容、以“互利共赢”为导向参与国际人工智能规则制定,为推动人工智能全球治理提供科学方案、贡献中国智慧。 展开更多
关键词 《人工智能法》 数字人权 布鲁塞尔效应 域外适用 人工智能治理
在线阅读 下载PDF
欧盟《人工智能法案》中的人工智能战略 被引量:3
13
作者 杨帆 夏君韬 《智能物联技术》 2024年第6期9-13,共5页
欧盟《人工智能法案》对于如何实现欧盟人工智能战略自主创新与有效监管两大目标的平衡具有重大影响。该法案通过建立风险分级、监管沙盒等制度,加强内部市场统一,从而推动自主创新;构建以欧盟价值观为核心的法律制度,强化监管协调,以... 欧盟《人工智能法案》对于如何实现欧盟人工智能战略自主创新与有效监管两大目标的平衡具有重大影响。该法案通过建立风险分级、监管沙盒等制度,加强内部市场统一,从而推动自主创新;构建以欧盟价值观为核心的法律制度,强化监管协调,以实现有效监管并提升其域外影响力;同时,该法案使创新与监管相互促进。该法案对中国人工智能治理有一定启示作用,其后续发展值得关注。 展开更多
关键词 欧盟人工智能战略 人工智能法案 风险分级 监管沙盒
在线阅读 下载PDF
人工智能在OODA循环中的应用 被引量:11
14
作者 黄东亮 戴苏榕 李辰 《航空电子技术》 2020年第2期55-59,共5页
当前人工智能(AI)是商业和工业,甚至军事应用领域中最热门的流行语。军事国防领域也已经将人工智能发展成为了一种技术,并应用到军事作战和决策系统中。最初OODA循环是最知名的空战战术模型,后来发展成为各国空军的作战方法。OODA循环... 当前人工智能(AI)是商业和工业,甚至军事应用领域中最热门的流行语。军事国防领域也已经将人工智能发展成为了一种技术,并应用到军事作战和决策系统中。最初OODA循环是最知名的空战战术模型,后来发展成为各国空军的作战方法。OODA循环对于任务的定义和决策过程的理解起到了重要的作用。本文主要研究了人工智能在OODA循环决策中的应用。讨论了未来OODA循环各阶段中所需的AI作用和技术,包括可解释的人工智能和基于学习的人工智能。 展开更多
关键词 人工智能 观察-判断-决定-行动 自主性系统 机器学习 深度学习 神经网络
在线阅读 下载PDF
国际竞争、标准化战略与欧盟的技术权力 被引量:11
15
作者 刘蕊 熊炜 《太平洋学报》 CSSCI 北大核心 2024年第9期15-30,共16页
标准在地缘政治时代被赋予新的内涵,掌握标准制定可以对他国施加影响而形成一种国际关系中的“标准权力”。世界各大国目前围绕技术标准展开激烈竞争,纷纷出台标准化战略进行国际标准制定权和话语权的争夺。2024年3月欧洲议会通过的《... 标准在地缘政治时代被赋予新的内涵,掌握标准制定可以对他国施加影响而形成一种国际关系中的“标准权力”。世界各大国目前围绕技术标准展开激烈竞争,纷纷出台标准化战略进行国际标准制定权和话语权的争夺。2024年3月欧洲议会通过的《人工智能法案》是世界上首部具有约束力的综合性人工智能法律,旨在为人工智能监管制定全球标准,助力欧盟成为人工智能监管领域的领导者。欧盟在国际标准化领域一直保持着强大影响力,在国际标准竞争中享有技术先发优势。通过整合成员国、欧盟和欧洲层面的标准制定和立法工作,欧盟建立了受欧盟立法管辖、由欧洲标准化组织和国家标准化机构组成的欧洲标准化体系,实现内部标准的统一。欧盟还推行国际标准化战略,国际协议的签署为其赢得国际标准制定主动权。研究显示,欧盟在玩具安全、核能和辐射防护、空间碎片领域的标准制定曾分别处于领先、空白和落后地位,通过对国际标准化组织的机构嵌入、标准制定的关键过程参与和以国际标准为先使其获得先行者优势。在内部“历史制度遗产”基础上,欧盟的国际标准化战略助力其成为技术权力,这为中国在国际标准化领域的国际竞争提供启示。 展开更多
关键词 国际竞争 国际标准制定权 欧盟标准化战略 人工智能法案 技术权力
在线阅读 下载PDF
论欧盟《人工智能法案》中的标准化模式及对我国启示 被引量:3
16
作者 张辛鑫 冀瑜 《标准科学》 2024年第5期39-46,共8页
2024年3月13日,经欧盟议会全会投票,正式通过了全球首个人工智能领域的综合性立法《人工智能法案》。本文对该法案的制定背景、规范体系与其中涉及标准化的内容进行了分析。该法案通过设置1025/2012号条例准用性条款,为法律适用提供了... 2024年3月13日,经欧盟议会全会投票,正式通过了全球首个人工智能领域的综合性立法《人工智能法案》。本文对该法案的制定背景、规范体系与其中涉及标准化的内容进行了分析。该法案通过设置1025/2012号条例准用性条款,为法律适用提供了大范围、开放的标准“接口”,一方面可一定程度弥合人工智能技术与法律条款之间的鸿沟,另一方面标准化法规也为欧盟未来人工智能的标准化治理提供了法律保障。此外,本文结合该法案中标准与法律的互通机制提出了我国未来人工智能的治理建议,以供参考。 展开更多
关键词 《人工智能法案》 人工智能治理 准用性条款 人工智能技术标准
在线阅读 下载PDF
生成式人工智能训练数据风险的规制路径研究 被引量:8
17
作者 邢露元 沈心怡 王嘉怡 《网络安全与数据治理》 2024年第1期10-18,共9页
探讨了生成式人工智能如ChatGPT在训练数据方面的法律风险与规制问题。首先分析了生成式人工智能在数据来源、歧视倾向、数据质量以及安全风险等方面的问题,通过对中欧法律体系的比较研究,建议明确界定治理原则,并针对数据合规性制定完... 探讨了生成式人工智能如ChatGPT在训练数据方面的法律风险与规制问题。首先分析了生成式人工智能在数据来源、歧视倾向、数据质量以及安全风险等方面的问题,通过对中欧法律体系的比较研究,建议明确界定治理原则,并针对数据合规性制定完善路径。最后,从具体措施层面,对中国现行的法律规制提出了具体的完善建议,为生成式人工智能的健康发展与法律规制提供有益参考。 展开更多
关键词 生成式人工智能 人工智能法案 训练数据风险 数据合规
在线阅读 下载PDF
算力的规制逻辑及其高质量发展
18
作者 袁曾 《上海师范大学学报(哲学社会科学版)》 2025年第6期73-84,共12页
算力作为发展人工智能技术的核心生产力要素之一,具有基础支撑性作用,但如何对其规制缺少系统性理论与体系性研究。算力规制缺位已引发多重现实风险,包括国际竞争中的法治框架缺失、算力资源管控不足以及实体法依据不完善等。西方国家... 算力作为发展人工智能技术的核心生产力要素之一,具有基础支撑性作用,但如何对其规制缺少系统性理论与体系性研究。算力规制缺位已引发多重现实风险,包括国际竞争中的法治框架缺失、算力资源管控不足以及实体法依据不完善等。西方国家通过技术封锁与法律手段强化算力垄断,而算力技术标准不统一、能源利用效率低下、市场化程度不足等问题制约了算力资源的优化配置与进一步发展。需从技术的底层逻辑出发,对算力、数据、算法进行一体化立体规制,同时以能源管控为基础抓手,充分发挥我国的清洁能源优势,推动算力绿色发展,并通过实体法逐步明确算力的法律属性与保护路径。系统性的规制框架设计,能够将算力治理纳入国家治理现代化进程,为数字经济高质量发展提供相应领域的制度保障。 展开更多
关键词 算力 生成式人工智能 能源法治 芯片法案 新质生产力
在线阅读 下载PDF
欧盟《人工智能法》中的风险防控机制及对我国的镜鉴 被引量:29
19
作者 皮勇 《比较法研究》 CSSCI 北大核心 2024年第4期67-85,共19页
欧盟《人工智能法》是世界上第一部促进人工智能安全发展的区域性国际法律文件,将人工智能系统定性为自主性工具,立足于人工智能安全风险全球化视角,以保障本土安全与发展利益为导向,规定了针对不同类型人工智能安全风险的、全过程多方... 欧盟《人工智能法》是世界上第一部促进人工智能安全发展的区域性国际法律文件,将人工智能系统定性为自主性工具,立足于人工智能安全风险全球化视角,以保障本土安全与发展利益为导向,规定了针对不同类型人工智能安全风险的、全过程多方协同防控机制。该法根据风险的类别和大小程度,将防控对象分为禁止的人工智能活动、人工智能系统和通用人工智能模型三大类六小类,分别采取禁止和不同程度的管控措施,重点防控高风险人工智能系统和通用人工智能模型的安全风险。以上防控机制主要通过规定人工智能安全管理义务及其处罚规定来实现,重点规定了高风险人工智能系统和通用人工智能模型的要求及相关方的安全管理义务,并对违反不同义务的自然人、公司以及欧盟机构、部门或实体设置了与行为人类型及义务相称的罚款。我国制定人工智能安全立法应考虑借鉴该法的成功经验,同时避免其出现的防控不全面不充分、法律责任制度存在缺漏、风险防控责任分配不合理等缺点。 展开更多
关键词 欧盟《人工智能法》 风险类型化 全程协同防控 安全管理义务
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部