当前位置: 首页 > 科技观察

AI如何改变数据隐私游戏

时间:2023-03-12 18:34:02 科技观察

最近的研究表明,基于AI的深度学习模型可以根据胸部X光片等放射学图像确定患者的种族,其准确度高于人类学家专家。凯捷咨询首席数据科学家SandeepSharma指出,当人工智能应用于个人数据收集和分析时,存在侵犯个人隐私的巨大风险。由于使用AI的组织对隐私缺乏足够的了解,这种威胁更加严重。总体而言,目前企业组织中涉及个人信息的AI应用存在几个显着问题:一是将数据用于收集以外的目的;二、收集不属于数据收集范围的个人信息;第三,存储数据超过必要的时间。这些可能会违反有关数据隐私的规定,例如欧盟的通用数据保护条例(GDPR)。人工智能应用加剧数据隐私暴露风险基于人工智能的系统带来的风险是多方面的。例如,英国律师事务所BurgesSalmon技术团队的高级助理TomWhittaker认为,需要考虑人工智能的潜在偏见。AI系统依赖于数据,当涉及个人数据时,该数据或模型的训练方式可能会无意中产生偏差。同时,AI系统也可能遭到破坏,个人隐私信息也可能被泄露。惠特克指出,部分原因是人工智能系统依赖于大型数据集,这可能使它们成为网络攻击的主要目标。人工智能系统输出的数据可能会直接或与其他信息结合时暴露个人隐私信息。随着人工智能系统在越来越多的应用中使用,社会也面临着更多的普遍风险。信用评分、犯罪风险分析和移民裁决就是一些例子。如果人工智能或其使用方式存在缺陷,人们可能会比其他情况下更容易受到隐私侵犯。“AI也可以对数据隐私产生积极影响然而,一些专家指出,AI可以对隐私产生积极影响。它可以作为隐私增强技术(PET)的一种形式,帮助组织遵守数据保护设计义务。”Whittaker解释道,“AI可用于创建合成数据,以复制个人数据的模式和统计属性。AI还可以通过加密个人数据、减少人为错误和检测潜在的网络安全事件来最大限度地降低侵犯隐私的风险。“一些国家政府已经看到了人工智能好的一面。例如,爱沙尼亚经济事务和通信部首席数据官奥特维尔斯伯格表示,人工智能在各个行业都发挥着关键作用。爱沙尼亚政府的目标是实现到2030年人工智能广泛应用。他说,为了确保在应用数据保护法规时遵守这些法规,爱沙尼亚开发了一项服务,使人们能够与外部利益相关者共享政府持有的数据。此外,爱沙尼亚还推出了一个数据跟踪器,用于查看政府门户网站上个人数据的处理情况。遵守隐私法规是人工智能应用的关键。人工智能目前受包括GDPR在内的法规监管,但未来将引入更多隐私法规。目前,欧盟在法律上拥有最强大的AI相关隐私保护。惠特克指出,欧盟还计划引入更多针对人工智能的法规,旨在禁止某些人工智能系统滥用数据,并对任何高风险系统施加数据存储和使用方式方面的义务。这些法规涉及在欧盟市场部署人工智能系统的企业,并将影响在欧盟销售或部署人工智能解决方案的企业。为此,在尝试管理AI风险时,企业领导者应了解当前和计划中的AI监管政策,不遵守这些规定可能会产生严重后果。报告显示,违反欧盟拟议的AI法案下的高风险义务可能面临高达2000万欧元或高达年营业额4%的罚款。首先,对于使用人工智能系统的组织而言,数据使用方式的透明度至关重要。如果用户不知道他们受到AI决策的影响,他们将无法理解或质疑它。二是要保障用户对数据的使用有知情权,合理合法地使用数据。第三,组织应确保人工智能算法本身以及它们所依赖的数据经过精心设计、开发和管理,以避免不必要的负面后果。简而言之,人工智能应用中良好的数据安全措施必不可少。组织不会收集不必要的数据,并确保在一定时间后删除信息。还要确保对数据的访问受到适当限制并具有良好的安全实践。综上所述,人工智能无疑是一项改变游戏规则的技术,将广泛应用于商业应用,但必须对其进行负责任的管理,以免侵犯隐私。为此,企业领导者需要更加批判性地思考人工智能的使用和滥用方式,以利用人工智能的积极影响并避免人工智能的负面影响。