查看原文
其他

重点推介丨竞技体育智能裁判系统的风险识别及规制路径

本文引用格式

江岚.竞技体育智能裁判系统的风险识别及规制路径[J].武汉体育学院学报,2023,57(3):29-36,44.

竞技体育智能裁判系统的风险识别及规制路径

(江岚)

作者

江岚

湖北大学 法学院,湖北 武汉 430062

科学技术发展到人工智能时代,作为现代体育科学发展的一面镜子,“智能+”体育的发展对我国体育强国的建设具有重要的战略意义。2022 年北京冬奥会采用了我国自主研发的“花样滑冰 AI 辅助评分系统 1.0”,实现稳定性可视化的比赛评判,为技术组评分提供了辅助性功能[1]

竞技体育裁判是体育赛事规则的执行者,也是实现规则价值的重要载体,在竞技体育赛事中具有举足轻重的地位。在人工智能技术被广泛应用于体育领域的今天,如果我们期望以人工智能来代替或部分代替裁判的职能,同时以机器学习促进人工智能裁判的进一步完善与准确,那么我们便需要进一步思考几个基础性的问题,即代码及规则,乃至法律的关系、人工智能与传统裁判者冲突的解决机制以及算法自身的非公开特征与必要监管之间的衡平等等。唯有在解决了上述基本问题的前提之上,我们才能够确保虚拟规则与传统规则相融合,技术规范与法律规制相协调,并将技术发展的红利最大限度地赋能到体育赛事之中。

1

智能化裁判系统的应用现状:从辅助性价值到裁判性价值

在体育裁判领域,人工智能系统以计算机视觉系统的应用为代表,将基于计算机视觉系统感知捕捉的运动员动作、行为以及诸如球类飞行轨迹转化为基本数据,通过比对智能系统内存的数据,经由具体检测算法进行具体裁判判断。如果以运动类别为划分标准,可以分为应用于球类比赛中的智能系统和应用于竞技类比赛中的智能系统两大类。然而,如果我们以人工智能所起到的作用或价值为划分标准,则又可以分为辅助性与裁判性两类。

首先,在球类比赛中,人工智能应用于羽毛球比赛的边界数字检测系统辅助裁判,能更加准确地判定一个球是否出界。边界数字检测系统通过计算机视觉系统实时不间断地捕捉羽毛球的空间位置信息,通过计算得出球心坐标,在与内存界限数据进行比对后若球出界则通过数字和声音进行警示并显示界外球坐标[2]。应用于网球的即时回放系统(即门线鹰眼技术)将比赛空间以毫米为单位进行分隔,通过算法将计算机视觉系统对网球运行轨迹的捕捉生成的数据生成三维图像,大屏幕通过即时成像技术呈现网球的运动轨迹和落点。因此,人工智能裁判系统在球类比赛中的应用在一定程度上可以起到减少裁判员工作量、降低裁判失误率的积极作用。换言之,起到的是辅助性的作用,其主要目的或价值在于弥补人类自身感官上的劣势。

其次,在部分竞技类比赛项目中,考虑到规则自身的复杂性,包含有一定推理过程的人工智能裁判系统也开始得到了开发与重视,以日本富士通公司开发的针对跳马项目的体操裁判系统为代表。该系统通过向选手的身体及其周边200万处投射红外线,追踪选手动作,并实时转换为显示选手身体轮廓的三维立体图像。“骨架识别技术”根据图像对跳马选手身体的旋转和扭动等动作进行分析以确定诸如肘部、肩部和膝盖等各种关节的角度,并结合内存的比赛数据,遵照打分标准,判断技术的完成度。此裁判系统旨在通过激光雷达技术追踪选手动作时关节角度,将裁判员“人眼无法准确测量关节角度”导致的裁判偏差排除在外。据称,此系统目标误差小于±1厘米[3]。国际体操协会已将此技术纳入赛事,并在2021年举办的东京奥运会上实现了完全自动化评分。

最后,在部分具有较高主观化倾向的竞技赛事中,尤其是竞技与艺术结合的赛事中,预期提高裁判效率与准确率的同时,人工智能系统的应用还需要引入机器学习的概念以适应或模仿人脑的主观判断,可以说,自主学习机制的赋能是指挥裁判系统从“弱智能”向“强智能”转向的关键。以2022北京冬奥会中广泛运用的“花样滑冰AI辅助评分系统1.0”为例,其主要原理即“通过对运动员的整体运动轨迹进行实时追踪,根据专业评分标准,对视频数据的人体骨骼、形体动作进行捕捉识别,实现稳定性可视化的比赛评判。”[1]同时,自由裁量权指体育裁判在体育赛事过程中,在体育规则授权裁判予以自由裁量权以及缺乏规则规定或规则规定不明确的情形下,为实现比赛公正,根据比赛项目裁判规则的原则和精神以及具体的比赛情况,对规则作出合理解释,以自身判断对比赛的事实、规则适用、判罚等实体问题和相关程序问题作出决定的权力[4]。然而,裁判员自身的经历与阅历以及心理状态等个性化因素对自由裁量权行使具有极大的影响[5]。而人工智能裁判系统的辅助往往建立在大量案例的学习之上,并通过固定的机制将较为主观的非标准加以可视化或可量化呈现。相较于上述初期应用场景,人工智能裁判系统的“智能”特征得到了进一步的强化,其除了需要在感官上发挥延伸的作用,在裁判结果上进行基于给定规则的路径,还需要自我总结并发现案例的个性化,进而确保给出差异化的公平裁判。

2

智能裁判系统在竞技体育应用中的法律风险

2.1算法规则与现实规则的冲突

首先,引入人工智能扮演裁判的角色,我们必须考虑一个高度可能的争议场景,即“同赛不同判”的情况,即人工智能与传统裁判针对同一竞技赛事中的同一事实,给出了不同的裁判结果。出现这一情况的前提在于存在裁判自由裁量权行使的需求,而本质在于背后所遵循的算法或代码规则与传统行业规则乃至法律的冲突。如上所述,人工智能在进行裁判的过程中主要遵循以下三个方面的规则证成:首先是基础性比赛规则的吸收,并作为不可破坏与违反的大前提;其次是逻辑或算法规则,即裁判触发机制,这一机制的存在确保了在出现给定大前提的情况下能够及时反馈;最后是机器学习规则,尤其是在部分主观性较为突出的赛事中,人工智能会将主观化的标准经过客观化的样貌加以可视化与可量化的呈现。

当然,上述过程在逻辑上形成了一个客观的闭环,而传统裁判行使职能实际上是一个主观的过程。当二者出现冲突,尤其是在部分标准较为简单的竞技体育赛事中,或在一些弱自由裁量权的场景之下,通过简单的二次证成,或外部介入,是能够进行较为明确的结果判定的,如上述羽毛球等赛事中对于出界球的判定。当然,也存在着部分需要发挥裁判员基于个案来进行强自由裁量的场景,如在部分比赛中对于手球行为判定,传统裁判往往需要对运动员的主观意图进行判断,如进行“主观希望”“主观拒绝”以及“无法预料”等区分[6]。当然,不同的主观状态也会引发不同的判罚,而具体到判罚过程中,哪个或哪些原则、标准或要求更合适来作为这种特殊裁判的基础,其选择无法事先就被理性化,即通过对裁判者施加先前确立的一般性规则和程序来理性化。

2.2裁判数据的监管风险与定性难题

首先,智能裁判系统数据源的局限性对公平裁判实现具有负效应。数据源的不确定性导致数据客观性的偏离和价值密度的稀释。具体至体育裁判领域,智能系统开发人员对体育赛事数据可通过赛事官方、互联网视频、专业教练员和裁判员等多种途径进行追踪和收集。数据客观性的提高有赖于数据样本数量的提升,对数据进行持续追踪和收集能够实现对基本比赛规则的精细化分类,不断提升细分算法中的解释变量(包括个人偏见、环境因素等多个参数)的数据质量。目前人工智能体育裁判系统仍处于初级研发阶段,在对体育数据的挖掘缺乏统一标准和规范的前提下,数据源的相对封闭性以及有限的数据样本显然无法满足数据客观性需求。

其次,智能裁判系统数据安全存在风险。智能裁判系统在对已有数据进行分析研判的同时,对实时数据的收集分析又能循环优化算法决策框架。竞技运动员的体育技术水平差异往往在毫厘之间,因此,竞技体育中的微小因素都具有改变竞技比赛结果的可能性,裁判数据与竞技运动员数据的保密尤为重要,但目前缺乏对智能裁判系统中数据安全性保障的规范文件,共享的竞技体育数据没有相应的共享标准与技术管理保障[7]。国际性体育赛事中对运动员个人数据的收集与处理约定在运动员申报参赛的报名表中,并要求经参赛者同意,运动员本人个人数据由赛事举办方收集并与相应机构(如国际奥委会)共享。2020年东京奥运会在《主办城市合同》中规定组委会和主办城市应在国际奥委会任何合理要求下免费共享,免费提供有关奥运会过程中所有信息、知识和专门知识,其中包括参赛者信息。全球大型赛事存在频繁的数据传输与共享,甚至涉及跨境问题,增加了网络攻击的可能性[8]

最后,智能裁判系统数据对运动员信息自决权的影响。竞技体育领域中运动员的绝大多数数据处于公共领域,虽然在竞技体育大型赛事中对相关数据的收集需经运动员同意,但运动员自身和数据的实际控制者之间存在明显的力量悬殊和权力失衡。在此不平等的关系框架内,运动员“同意”的作出难以满足“任意性自由”的基本条件[9]。当基本数据被收集、使用与共享,数据实际控制者完全具有整合运动员所有数据并对运动员进行完整数据“画像”勾勒的可能,隐私侵扰问题随之发生。

除此之外,我们还需要考虑一个介入的因素,即数据使用之后的产出成果如何界定;抑或是,裁判结论本身的法律定性。如上所述,人工智能在扮演裁判角色的同时,一方面不可避免地会涉及个人数据的使用,但另一方面,其最终的裁判结论本身也具有单独视觉呈现的可能,甚至已有学者认为可以归纳为某种形式的作品,除了上述的运动员“画像”之外,还可以包括基于运动员个人数据而自动生成的赛事点评,等等。对于这类“裁判”,我们还不得不进一步思考如下两个问题,即:首先,其法律性质为何?是否可以视为是著作权法上的作品,对于这一问题,虽然体育赛事本身并不属于我国《著作权法》所规定的客体范畴,但赛事集锦以及相关比赛剪辑作为作品并受到著作权法保护则具有了一定的法理基础[10],并且也有着个案的支持[11]。同时,我国《体育法》第五十二条明确提出,“未经体育赛事活动组织者等相关权利人许可,不得以营利为目的采集或传播体育赛事活动现场图片、音视频等信息”。因此我们可以初步认定,有权主体所制作的并且具有视觉呈现的“裁判”是可以视为作品的;其次,在前一问题为“是”的基础上,人工智能成了一个不可忽视的变量,我们需要进一步思考生成作品的所有权归属如何认定,对于这一问题,目前争议较大,现有观点可以分为三类,包括:(1)承认人工智能生成物是作品,如欧盟的“电子人”保护模式;(2)区分人工智能与人类创作,如澳大利亚的领接权保护模式等等;(3)认为人工智能本身属于“物”,进而采罗马法上的“原物主义”原则与日耳曼法上的“生产主义原则”,认定人工智能生成物属于一种知识产权“孳息”[12]。可以说,就第二个问题,我们在实践中是完全无法回避的,但也无法在短期内预见统一观点的形成。

2.3竞技体育智能裁判系统算法的监管与合规风险

当人工智能系统所发挥的作用与我们的利益保持一致并契合了特定的市场属性时,这种影响力就是积极的。当我们批判地检视这个由算法驱动的虚拟世界史时,不难发现这个新兴领域存在的缺陷。如同法官判案,公平科学的裁判工作是体育赛事得以顺利展开的基本条件之一。公平、公开、公正是体育裁判的基本原则,因此在以“数据+算法”为核心的人工智能系统应用于体育裁判的过程中,人工智能系统的固有属性和发展特征或引发其与基本的裁判原则产生矛盾与冲突。

一方面,算法的相对封闭性(不公开)的“黑箱操作”与公开裁判无疑处于一种矛盾之中,并且这一“黑箱”的存在也客观上为监管的执行带来了难度。作为数据挖掘的主要任务,人工智能裁判系统的研发人员通过模糊方法、粗糙集理论、云理论、人工神经网络等方法对从公开或私人的数据库中抓取的体育裁判数据进行分类、聚类、回归、关联、序列和偏差六种模式的识别[13],数据清洗后进行数据特征提取并以此为基础建立模型。但人工智能系统研发人员在体育领域尤其是体育裁判领域专业性的不足易引发数据筛选过程中无效数据的录入、有效数据被清洗、数据呈现小样本或短期特征等现象影响数据客观性。算法就犹如未知的“黑箱”——体育赛事中的裁判员、运动员、教练以及观众不清楚智能裁判系统算法的目标与意图,更无法获取智能裁判系统中算法的研发者、所有者和由算法推导出的裁判结果的责任归属,评价与监督就更无从谈起了。与此同时,由于智能系统技术的复杂性、知识产权的保护及数据算法公开可能引发的一系列社会问题,智能裁判系统研发机构一般不公开决策所依据的数据和算法。一旦裁判智能系统作出的裁判结果显失公平需要进行回溯分析时,算法和决策的控制者可以商业机密和知识产权保护为由拒绝公开。由此,智能裁判系统相对封闭性导致的裁判不透明与裁判原则的公开性产生冲突。

另一方面,算法偏见引发裁判公正性的偏差。智能系统中具备自主决策与学习能力的复杂算法在体育裁判过程中发挥着重要作用。而算法参数的调优有赖于获取更多不同体育裁判场景下的行为数据。作为人工智能系统的固有属性,算法偏见只是“算法在不断优化点击率分析与其他参数的过程中的无意识自发行为”[14],但“自我实现的歧视性反馈循环”会反复巩固这种偏见[15]。在智能系统初始模型搭建的时候,技术人员对算法赋予不同等级的容忍度阈值。但机器学习是一个持续的过程,在数据质量和算法精准度提升的同时,当前使用的算法很有可能与初始算法有很大差异,易导致体育裁判规则在系统内部自发的内在调整与转化。数据偏离客观性和算法偏见的共同作用最终会导致基于算法和数据做出的智能裁判决策存在偏见,裁判偏见的直接后果是裁判不公,与体育裁判公正性产生冲突。除此之外,机器的深度学习是将大量数据输入智能系统,设定一条学习路径,机器则需要通过大量数据尽量获得跟裁判接触到同样广度的“隐性经验”,根据一定算法从中自己总结并尝试运用规则。人类裁判员“隐性经验”的获得是在日常生活中与周围事物不断进行吸收反馈的结果,机器则只能通过人类赋予的数据获取,无论是广度还是深度与人类裁判的隐性经验无法相比。

3

中国法视野下的智能裁判系统:从立法规范到行业监管

3.1智能裁判系统配套监管的缺失

当前《体育法》所设定的仲裁管辖范围并不包括裁判判决纠纷,更无法囊括基于技术规则运用而引发的纠纷。而我国现行《体育竞赛裁判员管理办法》中也更多涉及裁判员的自身义务,对于裁判争议的解决则未有提及,同时,对于智能化裁判系统的使用等,则更未加以提前预判。可以说,在现有的规则和政策框架下,裁判纠纷,无论是传统抑或是人工智能纠纷,主要解决方依旧是赛事委员会或者大会建立的内部仲裁委员会或者依托单项体育协会,对于外部主体,尤其是司法与监察部门的介入则无法可依。简言之,竞技体育智能裁判系统目前处于一种立法定位与政策定位双缺失的状态,面对纠纷争议的管辖,也会导致现有法律的扩展性适用带来了阻力。

此外,如果我们走出体育相关法规的范畴,去寻求跨部门协同治理,那么,参考《数据安全法》第六条的有关规定,对于人工智能的监管主要以“统一和分散”相结合的模式为主,因此,较为科学的措施是网信部门负责统筹协调,体育主管部门具体负责本领域的监管工作。但即便如此,我们也需要考虑到网信部门现阶段的业务范围,其并不包含有体育赛事或竞技相关领域,因此,对于运动规则、运动员权益等都难以有效了解与把握,贸然进入一个陌生的领域在效能角度并不理性。同时,在分散层面,我们也应考虑到多个主体承接权责的可能,竞技体育智能裁判是一个跨越多法律部门且公私法融合的领域,每一场赛事的举办都会涉及文旅、海关、公安等多个部门的共同参与,因此,单一体育主管部门虽然具有专业方面的便利性与经验层面的能动性,但受限于上文所述的制度设计、权责分配等问题,也难以解决人工智能裁判应用的现实风险与缺失。简言之,我国在国家整体层面,目前还缺乏一个关于体育数据隐私、网络安全、体育公平及其他相关潜在问题的跨部门、多法域且“统一和分散”相结合的治理与监管框架。

3.2智能裁判系统适用标准的模糊

基于机器学习的决策支持系统可以帮助体育裁判作出更好的判断与决策,但越来越多的证据表明,自然人容易过度依赖机器辅助,并沉醉其中[16]。当前,除了法律定位的缺失,缺少配套监管措施之外,智能裁判系统在具体适用的过程中也缺乏明确的规范约束,对内表现为算法或标准的隐藏,即我们仅能获取最终的裁判结果,对于推导的过程或标准则无从得知;对外表现为边界或外延的缺失,即技术手段发挥了超越赛事裁判的功能,或者突破了赛事组织者所赋予的权能,进而对网络、信息与市场产生了难以或不可控制的风险。

法律或外部公权力主体的介入更多的时候在程序上发挥着一个“事后”定纷止争或者“事中”的监督作用,对于智能裁判系统的“事前”,即如何用、怎么用,则更多地需要行业或技术标准来加以铺垫。但不可否认的一个现实是,目前研发竞技体育智能裁判系统的多为掌握人工智能技术雄厚的大公司或研发机构,各公司或研发机构相对独立,优势领域也不尽相同。除了研发系统人员本身,赛事主办方与承办方即使提供了初始数据,对程序算法的计算过程是否公正或公平一无所知,程序算法在计算时是否有倾向性或发生扭曲亦无法核查。即使结果显示公平,囿于竞技体育数据的收集、清洗、挖掘、分析与体育裁判算法框架标准并未出台统一规定,即使存在权责明确的监管机构与争议解决部门,如何界定竞技体育智能裁判系统是否存在数据泄露、数据侵权、数据安全或算法偏见成为无法解决的难题。此外,体育裁判算法作为竞技体育数据分析产品的关键,受知识产权法的相关保护。因此,在体育裁判算法成为商业秘密的时候,无论是赛事主办方或承办方,抑或运动员自身,均不能强制要求研发主体披露和解释该算法,更遑论对竞技体育智能裁判系统予以评价和检验,这也就不可避免地造成了技术市场垄断的形成以及“技术兴奋剂”的诞生,这是与体育公平的自然本质所背离的。

3.3智能裁判系统的责任落实盲区

在竞技体育智能裁判系统的应用中,当前我国无论从立法抑或是政策的层面都无法就智能裁判系统“是什么”以及“怎么用”给出一个明确的回答,相应的,从逻辑上顺承,当监管发现问题,“谁来担责”以及“怎么担责”也将无法落实。虽然《体育赛事活动管理办法》规定:“体育赛事活动应当坚持政府监管与行业自律相结合的原则,实行分级分类管理,加强事中事后监管”,“国家体育总局负责全国范围内体育赛事活动监管,县级以上地方人民政府体育主管部门负责所辖区内体育赛事活动的监管”(《体育赛事活动管理办法》第3条)。但是对竞技体育智能裁判系统的数据和算法审查并无相应的规定,制度缺失不仅导致了竞技体育智能裁判系统的行业监管缺位,也催生了责任落实盲区。由于竞技体育智能裁判系统是跨学科交叉的新兴产业,受限于技术研发能力,体育赛事主办方自行研发设计竞技体育智能裁判系统较为少见,通常通过招投标采购竞技体育智能裁判系统并将中标系统应用于体育赛事中。从另一个角度来说,参考《体育赛事活动管理办法》第十六条,即符合“主办方或承办方根据国家或全国性单项体育协会有关裁判员管理的规定,按照公开、公平、公正、择优的原则确定体育赛事活动的裁判”,同时,办法第十三条也规定:“协办方应当确保其提供的产品或服务的质量和安全”。因此,围绕智能裁判系统的责任通常是基于民事合同的约定,如赛事主办方在购买智能裁判系统的同时,往往会与开发者达成合意,约定过错责任承担内容。但仅仅依靠合同是无法涵盖除质量外的相关风险规制,尤其是面对新技术引发的新争议,合同以及事前合意的价值将被进一步降低。

除了合同之外,责任也可能产生于公权力或准公权力的行使,毕竟“权责统一”是不可否认的基础性原则。以单项体育协会为例,其有权制定内部机制与行业规则,并具有日常管理的职能,因此,规则或者机制的制定如若不对人工智能在内的前沿技术加以预判,管理行为如若不对包括智能裁判在内的个案加以涵盖,那么完全有可能会出现准公权力或执法行为实际影响了智能裁判系统的使用,但技术的开发者以及使用者在面对上述问题时,却无法依据现有法律或规则提出相应的责任承担请求,换言之,即权责不统一。因此,公私权交织、公私法融合,责任主体多方化,都导致行业内部监管没有统一的划分与规定[17],同时,上述配套监管的缺失又进一步造成了竞技体育智能裁判系统的行业监管在信息产业部门和体育行业主管部门之间的权责不清,乃至出现“重权推责”的情况。

4

智能裁判系统规制的路径探讨

4.1补足智能体育裁判系统的内部规则短板

也正如上文所述,在目前智能裁判系统法律定位缺失的环境之下,后续的规制,不论是内部规范抑或是外部监督,都存在着较大的连带性盲区。因此,我们当前的首要任务,便是挖掘现有立法,同时协调跨部门立法,为智能裁判系统的使用、规范与监督构建一个坚实的法理基础,同时,在具有较高可行性的前提之下,完善制度设计、补足责任机制,使之成为一个跨部门、跨领域、多主体协同的科学系统。

参考现有立法,尤其是《体育法》第六章的有关表述,其赋予了单项体育协会“制定相应项目技术规范、竞赛规则、团体标准,规范体育赛事活动”的权利,同时也规定了“健全内部治理机制,制定行业规则,加强行业自律”的义务。不难看出,当前《体育法》的立法更倾向于发挥内部自治与行业自律的主导作用,智能裁判系统既可以视为一种需要加以规范的技术,亦可以视为是竞赛规则的自动执行者。因而,对于人工智能裁判的定性以及后续的标准,单项体育协会是第一责任人。如果我们结合上文的表述,尤其是针对不同的竞技类别,可以发现,人工智能裁判的定性是具有多样性的,在绝大部分项目之中,智能裁判系统更多地发挥着人类感官增强或技术辅助的职能,换言之,其定性应为一种不具有自由裁量权的技术是较为合理的;然而,在少部分竞技赛事,如花样滑冰、跳水等,中发挥了一定的弱自由裁量权角色,此时,其更多地扮演着“电子”裁判的角色。因此,区分赛事,将人工智能裁判的定性交由各个单项体育协会在目前既有法理基础,亦有科学基础。

具体来说,竞技运动项目按照运动能力的主导因素的不同,可分为体能类和技能类两大项。体能类项目和技能类项目中的准确类项目运动员的成绩按照高度、远度、速度、重量等客观数值进行衡量,智能裁判系统对客观数据的追踪和评定在准确度较人类裁判存在优势,裁判行为对比赛干扰度较小,因此体能类项目中裁判借助智能裁判系统对运动员成绩进行评定时客观性偏差较小,故而我们在竞赛规则、标准层面可以沿袭传统,并将主要着力点置于技术规范之上,一方面确保技术的可靠性与准确性,并在技术的先进与设备的稳定之间形成一个动态的平衡,最终为裁判的主观判罚提供科学且有价值的参考;另一方面也需要确保技术使用的克制与透明,做到技术应用于赛场、服务于赛事,而在其他环节,则要有序退出,以避免对个人信息的过度收集。技能类项目中的难美类项目因其评分标准包括艺术表现力等无法量化的必须依据主观评判的内容,智能裁判系统发挥作用有限,即使出现重大争议,智能裁判系统的结果也仅对技术分的评判具有参考意义。对抗型项目的裁判工作不仅包括诸如依据比赛规则判定球是否出界、运动员动作是否犯规、进球是否有效,还需要控制比赛节奏、保证比赛的流畅性以及对比赛秩序的维持。所以为体现体育赛事的魅力与精神,保证比赛的完整性和观赏价值,裁判针对边界问题的判罚可借助智能裁判系统完成外,比赛全程由裁判掌控。在这一场景之下,智能裁判系统除了满足上述两个方面的要求之外,考虑到其存在着基于算法与人工智能的自我决策或裁量机制,因此,我们在优先确保“人”或者传统裁判作为最终权威的前提之下,还应当确保技术在一定范围内的公开,尤其是串联整个自动化决策过程的算法,各单项体育协会也应确保“应知尽知”,并保留算法调整与标准干预的权利,以避免在体育赛事中就存在两套不同判罚体系的可能。但也正如上文所述,目前,智能体育裁判系统完全有可能成为知识产权相关法律的保护客体,如何平衡算法公开与权益保护之间的矛盾,目前并无一个权威且完美的解决措施,但有一点是可以肯定的,即体育协会或赛事主办方在“应知尽知”之外,也应履行保密义务,将公开严格限定在内部,并预先设立有关问题的时候追责与救济机制。

此外,如果各个单项体育协会构成了一个狭义的内部体育组织,那么,各协会与上级体育行政部门之间也构成了一个广义的体育内部组织。毕竟,虽然《体育法》强调了单项体育协会自治与自律的价值,但也明确了其与体育行政部门的指导和监督关系。对于这一关系的具体内涵与外延,《体育法》并未有过多的着墨,但参考中共中央办公厅和国务院印发的《关于构建更高水平的全民健身公共服务体系的意见》,我们可以明确如下三点:首先,体育协会与体育行政部门之间处于一种平等的关系之中,二者的有序“脱钩”是实现自治与自律的前提;其次,监督是路径的指引,也是改革的推手,体育行政部门的监督,其主要定位是规范协会的公权力行使,避免出现“分家单干”,同时,也要杜绝体育协会及其工作人员的“自由人”和“社会人”意识;最后,体育协会与体育行政部门的监督应形成一个有机统一的整体,参考体育总局印发的《关于对体育协会加强监督管理的意见》,体育总局是履行监督管理责任的“第一主体”,但同时,各体育协会也应积极在条件允许的前提下成立内部的监督机制,并成为权力或权利行使监督的“日常主体”。

4.2建立智能体育裁判系统的协同风险防范体系

在具体构建智能体育裁判系统的风险防范体系之前,我们必须树立若干大前提,这既是一般性人工智能运用所必须遵循的底线,亦是维护现有体育精神所必须具备的原则。具体来说,首先,前沿技术的运用不能与基本权利的保障相冲突;其次,不能对公平公正的体育根本价值造成冲击;最后,不能对公共利益与安全带来危害。在此基础之上,我们需要就体育领域个人数据隐私保护制度、数据和算法审查制度、网络安全防范制度这三个优先级较高的细分风险领域进行具体阐述。

首先,当前,个人数据保护是构建在“知情—同意”基础之上,这是意思自治原则在数字空间的一贯延续。然而,在竞技体育领域,由于运动员与体育协会以及赛事主办方之间处于一种非对等的地位之中,加之体育数据处理的复杂性以及部分领域所蕴含公益价值,如反兴奋剂工作,适用环境的差异就使得“知情—同意”原则不能通过改良来解决数据保护相关问题。因此,较为科学的做法实际上是构建一种“弱同意”,或者“准同意”的机制,即在放宽数据主体同意的同时,强化非必要不使用,或要求数据处理者所处理的个人数据的范围和期限必须以实现目的为必要,或者在部分场景下对数据处理者加以权利的克减,如俱乐部仅限于收集运动员训练和比赛的个人数据,亦如上文所提出的,将赛场的数据留在赛场之内,等等。此外,我们也有必要适度强化数据处理者的责任和义务,以及更为严格的合规义务,转变思路,以数据处理者的规制上来代替针对个人控制数据的转移,进而效能化隐私保护工作的展开。

其次,体育领域数据和算法的审查制度缺失,这也造成可能存在的数据错误、算法偏差以及体育公平的风险,这也要求我们需要建立一套区别化,或者说符合体育环境的数据与算法的审查制度,这一制度需要分为“事前”“事中”与“事后”三个阶段。首先是事先的准入审查,即由监管机构和各体育协会基于单项体育项目的个性,建立区别化的人工智能体育数据采集设备,以及差异化的算法模型准入标准;其次,事中数据处理者的自我审查机制,既包括以体育协会为代表的公主体,亦包括以赛事主办方为代表的私主体,对于二者,我们既要求数据处理者在数据挖掘前对采集的数据准确性进行评估,以防止带有错误或偏见的数据进入算法模型,亦要求要定期对算法进行审核,避免算法可能对相关数据主体造成的不利影响或可能的歧视。当然,自我审查的全过程是需要强制予以“留痕”,并加以定期的披露和说明,这也是引入群众监督的必要举措;最后,事后公众审查机制,以我国《个人信息保护法》为例,其表示个人有权要求个人信息处理者对自动化决策予以说明。考虑到《个人信息保护法》的较高位阶,因而在体育应用场景中亦引入上述“算法解释权”是合理且必要的场景扩张,具体来说,当个人遭受来自算法的不公,可以请求公开或使命算法决策的依据,展开包裹在算法中的输入数据、运行逻辑、决策考量及权重等。

最后,网络安全风险的防范也是我们在智能裁判系统应用中需要考虑的一个重要环节。面对新技术的运用,较为科学的做法是以积极防御措施为主,以严格的惩戒规则为辅。前者要求数据控制者实施与互联网安全有关的网络安全最佳实践,同时,强制履行定期网络安全尽职调查义务,包括渗透测试和反钓鱼措施等。此外,也应建立网络安全事件迅速通知义务,在发生网络事故时及时通知,通知的主体包括有关上级主管部门,以尽快采取补救措施以减轻后果,同时也包括数据主体或所有权;以便数据主体知悉可能带来的权益损失风险等等,及时做好应对或获取保护。最后,健全行业内部的网络安全惩戒体系的辅助价值也是我们必须关注的,毕竟,惩戒并不是目的,而是补救与威慑的手段,具体到体育领域,除了依照我国《数据安全法》《网络安全法》等传统部门立法并将之视为底线之外,考虑到网络安全还有可能是来自于行业内部的攻击,因而,在法律规范的基础上,在民事与刑事介入之外,还可以融入行业内部的惩戒,如行业禁入、资质剥夺等等,以解决可能的网络安全漏洞。

4.3配套智能体育裁判系统的连带责任承担机制

当我们明确了智能裁判系统的法律定位、分配了监督与治理权限,下一步便是思考人工智能应用在某个具体情境中出现错误时造成的损害如何承担责任。对于这一问题,我们应当从两个角度来加以论述。首先,是责任引发的角度,如果是基于公权力或准公权力行使而产生的责任,那么,我们目前首要的任务便是健全行业规则,完善救济机制,确保“有权必有责”这一底线的确立。同时,也可以在单项体育协会或体育行政部门内部设立专门机构来集中研判并解决技术运用冲突与侵权责任承担。此处,专门机构的成立还有另一层的优势,当私主体之间就责任的承担产生争议,并且合同未有或无法涉及,那么,此时专门机构也可以基于自身的专业性与权威性,在灵活适用规则与规范的前提下,对个案加责任加以区别化的分配与落实。

其次,从有关人工智能的定位或定性的角度。一是在体能类项目中,由于智能裁判系统发挥的只是辅助价值,最终裁量权依旧由人来行使,因此,在法律责任的承担上,还是要回归到“人”本身;二是在技能类项目中,智能裁判系统已经开始行使有限的自由裁量权。责任承担也应有所区别,考虑到人工智能系统的开发者和人工智能的使用者往往是分离的,因此,较为合理的做法是规定由开发者和使用者承担不真正连带责任,即开发者和使用者可以内部约定责任承担的比例。但对外,被侵权人可以向二者的任意一方要求承担全部责任,担责的一方也有权要求另一方补充承担与其过错相等或约定比例的责任。这一套源自消费者权益保护法的模式一方面适应了新技术的发展趋势,承认了人工智能所可能具有的独立思维,但在另一方面也没有将最终责任的承担交由无实际行为能力的虚拟主体,同时,也使得人工智能系统的开发者和使用者都具有了提升风险注意义务,并以责任的预设刺激了义务的履行。

4.4技术人才与法律人才的双向储备

体育和人工智能以及法律作为两个独立的学科,发展的相对独立性阻碍了二者的交汇融合。虽然相互渗透、相互吸引是必然趋势,但两者还需要强有力的桥梁和纽带以实现内部的交叉。由此,为了实现这一内部的协同,避免人工智能与体育规则产生不必要的冲突就成了当务之急。这一方面要求我们挖掘并启用同时掌握体育裁判和智能裁判技术研究人员,毕竟,专业体育裁判加入智能裁判系统的研发过程,就裁判的专业问题与技术人员进行交流与分析。同时,通过教育、培训和其他配套措施也能反向培养体育裁判智能工程师,为智能裁判专家系统的开发与研制提供人才支持。此外,作为智能裁判系统存在与发展的根基,考虑到基础理论研究对于争议解决的根本性价值,实际上我们完全可以通过技术的迭代或者质变来最大化地减少乃至于消除内部争议,抑即实现完全智能化的体育裁判系统。但无论是人才的培养,抑或是基础理论的突破,面对成本与效益的考量,都不可能是一蹴而就的过程,也无法在短期内经由市场调节而发生,因此,政策的导向乃至立法的支持也是我们需要加以考虑的。

此外,除了技术人才与体育人才的培养之外,我们也不能忽视法律人才解决争议以及服务赛事的功能。较为合理的思路是,以技术人才构建互助服务平台,并将经验可量化、可检索化,而以法律人才保证公平、公正的体育精神,同时不断丰富和发展体育法治实践,确保各项体育法律法规制度行得通、真管用。当然,体育法律人才的培养也不应仅仅面向人工智能或智能裁判系统这一单一领域,其更多发挥的是将技术法治化以及避免技术滥用的角色,在此之外,体育行业的诸多法律事务处理,如裁判、诉讼、代理、仲裁、反垄断等,也需要我们构建充足的法律人才库来加以应对。智能时代的到来使体育领域应用人工智能成为一种必然趋势,裁判员对智能系统理论与实践知识的掌握已成为必然。随着现代比赛场地的设施与器械的不断完善,人工智能裁判系统的应用日益增多,诸如边界电子检测系统、即时回放系统、电子裁判系统等智能系统在赛场上的应用,势必需要裁判员对系统的规格、性能和使用等有所了解和研究,并掌握这些系统在计量成绩的准确性、新纪录的可靠性、最后裁定的权威性等方面对比赛活动的各种影响。当裁判员了解和掌握智能裁判系统的基本原理、裁判逻辑和对比赛的影响时,既能更为合理地决定是否以智能裁判系统输入结果为判罚依据,亦能为智能裁判系统的优化提供智识支持。

5

结语

科技与竞技体育具有的天然耦合性,使得智能系统应用于竞技体育裁判领域成为未来体育赛事的一大趋势。在2022年北京冬奥会上,AI技术的广泛应用,无疑为减少赛事纠纷、提高判罚准确度及裁判效率提供了更为精准的辅助性方案。然而,随着竞技体育从辅助性裁判系统向智能裁判系统迈进,我们不可避免地会面临着多样化的利益冲突与规制困境,如现裁判结果的权威冲突、数据及算法的内生性风险、著作权益保护的外在衍生性风险等等。因而,对于智能系统应用于竞技体育裁判领域,应保有一定的审慎态度。一方面我们应承认其价值,承认其在效能方面的开创性作用;另一方面,我们也必须意识到其对于现有行业规则与法律规则的冲突,进而在将其融入现有的规则体系架构的同时,也应注意体系化与法治化的发展。同时,技术规范的法治化目前依旧面临着诸多现实的风险与困境,我们也不应忽视技术发展与实践探索对于规范演变的推动作用。唯有如此,技术、规范、立法三者形成一个良性互动且有序迭代的循环,才能实现科技服务于竞技体育的最佳效果。


参考文献:略

基金信息:国家社会科学基金项目(18BFX089);湖北省社会科学基金项目(2018059)。

长按识别二维码更多精彩

继续滑动看下一个
武汉体育学院期刊社
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存