- 张凌寒;何佳欣;
开源是人工智能发展的重要驱动力,其责任规则的科学配置关乎技术生态的可持续发展。现行法律对开源模型的规制沿用开源软件责任认定和人工智能责任规则双重路径,导致责任认定面临有限控制力与归责逻辑错位等结构性矛盾。本文主张责任体系更新应立足于开源模型公共属性、算法透明度增益效应及控制力边界三重维度,整合开源社区协同治理范式与域外立法竞争格局,构建“形式合规激励—实质伦理约束”的双层责任减免机制,对负责任创新的开源模型原则上适用行政合规与民事责任减免,在防范系统性风险的同时释放开源公地的创新活力,实现技术扩散激励与社会责任承担的规范平衡。
2025年03期 No.57 32-48页 [查看摘要][在线阅读][下载 2012K] - 程雪军;
在人工智能时代背景下,超级人工智能平台算法歧视是一个复杂且重要的问题。无论超级人工智能平台算法系统如何先进,都无法脱离人类社会的数据偏见与算法程序不公正,在多个应用场景出现相应的算法歧视,并造成多种不良后果。针对超级人工智能平台算法歧视,可以从主体层面、主观层面、客观层面剖析算法歧视产生的原因:超级人工智能平台对个人与商业机构的算法歧视、超级人工智能平台的算法偏见或思维有限性、超级人工智能平台的数据与算法因素衍生歧视性。为维护平台经济的公平竞争与有序发展,我国有必要结合超级人工智能平台本土化发展情况,对其算法歧视问题构建系统治理机制:其一,在公权力规制层面,加强算法立法与审查监管;其二,在私权利自治层面,提升技术创新与算法伦理;其三,在社会力量监督层面,强化社会监督,促进算法公正。
2025年03期 No.57 49-61页 [查看摘要][在线阅读][下载 1886K] - 郭旨龙;
互联网技术与社交媒体的普及在便利人际交往的同时,催生了网络暴力泛化蔓延的治理难题。以事后救济为主的现行治理模式在应对新型网络暴力的过程中呈现出显著的滞后性困境,根本原因之一即是网络暴力行为识别标准的体系性缺位。相关法律规范的空白造成了识别标准模糊、适应性不足及规制范围受限等问题,既加剧了网络暴力治理与言论自由的价值冲突,又造成网络平台在预防机制建设、权责划分等方面的实践困境。为完善和构建科学可行的识别标准体系,应当通过专门立法进一步明确网络暴力的法律界定、建立网络暴力信息的分类分级机制、针对未成年人和妇女等特殊群体设置专项识别标准,以此优化识别标准在平台的治理实践及其衍生应用,实现精准化预警。网络暴力行为识别标准的完善不仅能够为平台治理提供明确指引,同时也有利于平衡权利保护与确定自由边界、解决新型网络暴力治理难点,对构建网络空间治理新秩序具有基础性和关键性意义。
2025年03期 No.57 62-75页 [查看摘要][在线阅读][下载 1849K]