2020东京奥运会一如既往的激烈。在7月28日举行的体操男子个人全能决赛中,中国选手肖若腾在赛场上的表现堪称零失误的完美表现。但最终肖若腾仅以88.065的成绩获得男子个人全能银牌。遗憾的是,我们想问,在追求公平的过程中,还有多少问题没有得到解决?科技日新月异,人工智能技术能否作为体育赛事的辅助判罚手段?2013年人工智能裁判的发展水平2010年,NBA引入了SportVU系统,通过悬挂在每个赛场天花板上的6个3D高清摄像头与电脑数据分析相连。每个摄像头每秒可以拍摄25张图像,各种传感器连接到超级摄像头。捕获、跟踪和分析,提取数据,并将处理后的数据输入NBA数据库。NBA的金州勇士队作为硅谷科技大亨和科技狂人的宠儿,正是借助这套系统获得了2018年NBA总冠军。金州勇士队自此被誉为“NBA的谷歌”。目前,人工智能技术在体育比赛中的应用研究相对较少,主要集中在辅助判断方面,即“鹰眼”在网球、排球等项目中的应用。所谓“鹰眼”,又称即时回放系统。它利用高速摄像头从不同角度捕捉快速运动中的目标轨迹,确定起止点,协助裁判对比赛进行判罚。“鹰眼”存在的意义在于它克服了人眼观察能力的缺陷,帮助裁判做出准确、公正的判罚结果。2018年俄罗斯世界杯,赛场上使用了视频助理裁判VAR系统,通过视频回放帮助裁判进行判罚。这是VAR系统首次应用于足球世界杯这一顶级赛事。小组赛阶段,场均使用VAR6.9次,在VAR的帮助下,判罚正确率从95%提升至99.3%。那么类似的,在武术、舞蹈、跳水等运动项目中,人工智能的运用能否减少裁判的主观性,让比赛更加公平呢?事实上,目前的人工智能裁判技术距离成熟还有很长的距离,体育人工智能技术还远远落后于计算机科学的发展,在软硬件匹配方面还存在一系列问题。“算法判别”人工智能裁判取代人类裁判最大的问题是让机器“看懂”体育比赛,但反过来说,我们这些有机会利用这项技术的人往往很难“看懂”人工智能。随着算法越来越复杂,通过机器学习过程形成的决策越来越难以解释AI内部的代码,即算法中存在一个“黑匣子”,让人无法控制和预测算法的结果,并在应用中产生某种不公平的倾向。一般情况下,基于算法的“黑匣子”和普通消费者对平台定价方案的信任,用户通常不会质疑自己的购买价格与其他消费者不同,更难识别。隐藏的和“聪明的”价格歧视。而广大消费者在不知情的情况下被迫接受了各个平台差异化的支付模式。这就是所谓的“大数据杀熟”,也是一种不公的表现。当今市场上广泛使用的人工智能系统大多是不透明的,加上商业秘密的保护,意味着它们往往能够逃避审查,脱离现有的监管体系,在没有外部监管的情况下不仅歧视性操纵可能增加,而且在算法使用者的有意掩盖下,算法黑匣子可能会逐渐迁移到监管真空,导致现有监管体系无法有效打开算法“黑匣子”。华南理工大学肖天认为,“期待算法、模型等数学方法重塑一个更客观、公平的现实社会”的“数学洗脑”想法太过一厢情愿。“算法歧视”的本质是将社会歧视延伸到人类现实世界中。《自然》杂志发表社论认为,大数据算法中不可忽视的潜在风险使其有可能增加偏差并重现或加剧人为错误。他还指出,大数据算法应该承担更多的责任,消除或减少社会歧视,而不是加剧社会歧视。也就是说,大数据是反映人类社会生活的一面镜子。算法通过分析历史数据来预测未来,人类至今未消除的歧视和偏见可能会通过大数据导入到算法中。原始训练数据是有偏差的,这些偏差可以在算法执行时带入决策过程。鉴于算法本身不会质疑它接收到的数据,而只是简单地发现和挖掘数据背后隐藏的结构和模式,如果人类输入给算法的数据存在某种偏见或偏好一开始,那么算法得到的输出结果就会和人类的偏见一样。一方面,算法的应用制度化、广泛化,算法模型经常被重复使用,影响越来越大。技术本身能否消除这种影响?美国亚利桑那大学人工智能实验室研究员AhmedAbbasi在《哈佛商业评论》发表文章,以数据为切入点,讲解了几种防止算法歧视的方法。对策之一是“过采样”,即根据人口统计方法设计算法模型,以提高算法输出结果的准确性。除此之外,“在机器学习中引入额外的公平措施,例如手动放大和缩小少数群体或边缘案例的重要性”也可以用来纠正算法模型产生的歧视。但仅此还不够。因为另一方面,算法偏差不仅会导致计算结果出现偏差,还会引发伦理和法律风险。这种矛盾在医疗领域尤为突出。目前,AI在医院实际应用过程中并没有伦理审查机制。有医院参照药物临床试验引入的伦理审查机制,对引入医疗AI进行伦理审查,但难以完全应用。越来越多的医院引入医疗人工智能并没有经过伦理审查,一些医院在将医疗人工智能系统应用到患者身上时,通过征得患者的知情同意来规避一些潜在的风险。国家药监局出台了医疗人工智能的相关指南,并启动了认证流程,对范围、风险、临床试验等进行了规定。现阶段,医疗AI的最终结果仍需人工验证和审核,医生对患者的诊疗结果承担责任。未来医疗AI在临床实践中广泛引入后如何实现问责,目前还不清楚。人工智能的法律规制,就像大数据专家、《大数据时代》一书的作者勋伯格所说,大数据的特点是追求效率,而不是绝对的准确性;现代社会追求相关性,而不是因果关系,大数据与算法的结合颠覆了传统的决策方式。那么,是否存在一种价值中立的平等算法,或者宪法和法律的平等保护是否有一个“唯一正确答案”可供法院遵循或借鉴?中国人民大学法学院副教授丁晓东说:“这是一个不可能完成的任务。”中国社会科学院法学研究所助理研究员许斌认为,算法应用带来的偏见和歧视尚未成为中国社会关注的焦点,在“弱人工智能”背景下》,针对人工智能部署的各类法律规定需要结合具体的应用场景。由于立法活动无法规范快速变化的社会关系,我们可能无法通过人工智能的一般性法律规定。这意味着我们目前需要构建和完善各种法律法规来规范探索过程中的算法歧视。目前,我国对包括算法歧视在内的人工智能的法律规制还处于起步阶段。在监管层面,目前电子商务立法中有个别条款对算法歧视进行监管。例如,《电子商务法》第18条首次明确回应“大数据杀熟”。该条规定,电子商务平台在推荐商品、推送广告时,还应当向消费者展示不包含用户画像的服务内容。.此外,《电子商务法》第40条还规定了搜索引擎服务中的竞价排名。它要求服务提供者清楚地表明相关信息。事实上,本条规定了算法控制者的信息披露义务。国务院于《新一代人工智能发展规划》发布《新一代人工智能发展规划》,明确要求政府在风险控制和市场监管等方面履行相应职能,围绕人工智能建立“全流程”监管体系。“通过算法审计和无监督训练来避免或纠正偏见,保持人工智能的透明和公平是发展的必由之路。”上海交通大学附属儿童医院院长于广军说。一方面,监管部门定期审查算法控制者使用的算法是否符合预定轨道,是否造成歧视性后果。如果自动化算法对受保护群体产生不同的影响,监管机构应向公众披露审查结果。另一方面,在缺乏算法透明度的情况下,监管机构应检查算法控制者是否提供了必要的访问权限,以允许个人或组织审查影响公共利益的算法。公平是相对的,不公平是绝对的。作为一种充满无限想象的全新技术,人工智能不仅没有颠覆这一原则,反而验证了这一原则,甚至还出现了前所未有的算法判别问题。面对这样的现实,如果没有办法找到一个公平的解决方案,那么唯一的取胜之道就是在制定规则时拥有话语权,以更大的实力取胜。
