华英陪的论文笔记


3.31 竞技体育智能裁判系统的风险识别及规制路径

<p>竞技体育智能裁判系统的风险识别及规制路径 江岚 武汉体育学院学报 2023年3月 第57卷第3期</p> <p>研究目的: 明确人工智能系统在竞技体育裁判领域的构建路径与工具属性,归纳总结竞技体育智能裁判系统的应用现状。</p> <p>文章脉络: 1 智能化裁判系统的应用现状:从辅助性价值到裁判性价值 以人工智能所起到的作用或价值为划分标准,可以分为辅助性与裁判性两类。 首先,在球类比赛中,人工智能应用于羽毛球比赛的边界数字检测系统辅助裁判,能更加准确地判定一个球是否出界。 其次,在部分竞技类比赛项目中,考虑到规则自身地复杂性,有一定推理过程的人工智能裁判系统开始得到发展。以日本富士通公司开发的针对条码项目的体操裁判系统为代表。 最后,在部分具有较高主观化倾向的竞技赛事中,人工智能系统的应用还需要引入机器学习的概念以适应或模仿人脑的主观判断。以2022北京冬奥会中广泛运用的“花样滑冰AI辅助评分系统1.0为例。 2 智能裁判系统在竞技体育应用中的法律风险 2.1 算法规则与现实规则的冲突 即人工智能与传统裁判针对同一竞技赛事中的同一事实,给出了不同的裁判结果。 有些场景需要对运动员的主观意图进行判断,不同的主观状态会引发不同的判罚,裁判的选择无法事先就被理性化。 2.2 裁判数据的监管风险与定性难题 首先,智能裁判系统数据源的局限性对公平裁判实现具有负效应。在对体育数据的挖掘缺乏统一标准和规范的前提下,数据源的封闭性以及有限的数据样本无法满足数据客观性需求。 其次,智能裁判系统数据安全存在风险。目前缺乏对智能裁判系统中数据安全性保障的规范文件。 最后,智能裁判系统数据对运动员信息自决权的影响。当基本数据被收集、使用与共享,数据实际控制者完全具有整合运动员所有数据并对运动员进行完整数据“画像”勾勒的可能。 另外还需要考虑一个介入的因素,即数据使用之后的产出成果如何界定。 2.3 竞技体育之恶能裁判系统算法的监管与合规风险 一方面,算法的相对封闭性(不公开)的“黑箱操作”与公开裁判无疑处于一种矛盾之中,并且这一“黑箱”的存在也客观上为监管的执行带来了难度。 另一方面,算法偏见引发裁判公正性的偏差。人类裁判员“隐性经验”的获得是在日常生活中与周围事物不断进行吸收反馈的结果,机器则只能通过人类赋予的数据获取。 3 中国法视野下的智能裁判系统:从立法规范到行业监管 3.1 智能裁判系统配套监管的缺失 我国在国家整体层面,目前还缺乏一个关于体育数据隐私、网络安全、体育公平及其他相关潜在问题的跨部门、多法域 且“统一和分散”相结合的治理与监管框架。 3.2 智能裁判系统适用标准的模糊 自然人容易过度依赖机器辅助,并沉醉其中。可能会不可避免地造成技术市场垄断的形成以及“技术兴奋剂”的诞生。 3.3 智能裁判系统的责任落实盲区 4 智能裁判系统规制的路径探讨 4.1 补足智能体育裁判系统的内部规则短板 们当前的首要任务,便是挖掘现有立法,同时协调跨部门立法,为智能裁判系统的使用、规范与监督构建一个坚实的法理基础。 在体能类项目中,我们应将主要着力点置于技术规范之上,一方面可以确保技术的可靠性与准确性,另一方面需要确保技术使用的克制与透明; 技能类项目中,智能裁判系统发挥作用有限;对抗型项目的裁判工作不仅要考虑动作是否犯规、是否有效,还要考虑比赛的维持以及流畅性。 4.2 建立智能体育裁判系统的风险防范体系 首先,前沿技术的运用不能与基本权利的保障相冲突;其次,不能对公平公正的体育根本价值造成冲击;最后,不能对公共利益与安全带来危害。 4.3 配套智能体育裁判系统的连责任承担机制 4.4 技术人才与法律人才的双向储备 5 结语 唯有如此,技术、规范、立法三者形成一个良性互动且有序迭代的循环,才能实现科技服务于竞技体育的最佳效果。</p> <p>思考: 1 从构建智能裁判系统开始就应该进行监察,避免在构建系统过程中造假 2 制定相关的法律就能完全保障数据安全、个人隐私?是不是同兴奋剂一样,只能在事情发生之后才能吸取经验教训避免下次再犯。</p>

页面列表

ITEM_HTML