如今,很多公司会收集越来越多的敏感数据,这不可避免地会遇到数据泄露的问题。隐私已成为当前科技行业的热门话题。隐私是指个人有权控制或影响其信息的收集、使用和存储方式,以及谁可以披露以及如何披露。第三方无法通过他们提供的数据或统计信息直接追踪一个人的身份。最后一项要求使公司难以收集和分析用户数据以深入了解用户行为、改进决策过程以及衡量产品、临床试验或广告活动的有效性。为了继续使用这些数据,遵守CCPA和GDPR等数据隐私和保护法规,避免因违规而受到处罚,许多组织采用了隐私增强技术(PET)。PET确保个人或敏感信息在其整个生命周期内保持私密性。PET涵盖了广泛的技术集,旨在遵守隐私和数据保护原则,同时保持从用户提供的数据中提取价值的能力。为此,大多数PET方法使用加密和统计技术来混淆敏感数据或减少实际处理的数据量。以下是一些最常见的加密和统计PET及其用途。加密隐私增强技术?差分隐私差分隐私在数据集中加入经过处理的噪声信息,从而在保持个体匿名性的同时识别数据集中的群体模式。这使得可以发布大量数据集以供公共研究。科技公司还使用差异隐私来分析大量用户数据并从中获得洞察力。?同态加密同态加密可以对加密数据进行计算操作。任何分析的结果都是加密的,只有数据所有者才能解密和查看。这种加密方法使企业能够分析云存储中的加密数据,或与第三方共享敏感数据。谷歌发布了开源库和工具来对加密数据集执行同态加密操作。?安全多方计算(SMPC)安全多方计算(Securemultipartycomputation,简称“SMPC”)是同态加密的一个子领域,它将计算分布到多个系统和多个加密数据源。该技术确保任何一方都无法看到整个数据集,并限制任何一方可用的信息。OpenMined在其PyGrid对等平台中使用SMPC进行私有数据科学和联合学习。?零知识证明(ZKP)零知识证明(Zero-KnowledgeProoforZero-KnowledgeProtocol,简称“ZKP”)是一套加密算法,可以在不泄露证明信息的数据的情况下验证信息。它在身份验证中起着至关重要的作用。例如,ZKP可用于验证某人的年龄,而无需透露他们的实际出生日期。统计隐私增强技术?联合学习联合学习是一种机器学习技术,它使单个设备或系统能够协作学习共享的预测模型,同时将数据保存在本地。例如,手机下载当前模型,通过学习手机上的数据改进该模型,然后仅将汇总的更改上传到集中式模型。然后将更改与其他设备上的更新相结合,以改进共享模型。联邦学习减少了需要存储在集中式服务器或云存储上的数据量。Google在GboardforAndroid中使用联合学习。?生成对抗网络(GAN)生成对抗网络(GAN,“GAN”)生成模拟真实数据集的新合成数据实例。这种方法为分析师、研究人员和机器学习系统提供了大量高质量的合成数据。GAN识别数据中复杂模式的能力正被用于快速发现医学测试和网络流量中的异常情况。?假名化/混淆/数据屏蔽可以使用多种方法来替换或隐藏敏感信息,将其与虚构、分散注意力或误导性的数据相结合,包括假名化、混淆和数据屏蔽。这是企业用来保护用户敏感数据和遵守隐私法规的常见做法。但是,某些匿名化措施(例如简单地删除包含个人身份信息(PII)或屏蔽数据的列)可能仍然允许处理后的数据通过“重新识别”恢复信息,从而追踪提供数据的个人。?设备端学习可以分析用户在设备上的操作以识别模式,而无需将个人数据发送到远程服务器。设备上学习可用于使算法更智能,例如自动更正。Apple的FaceID使用设备上学习来收集有关用户面部不同外观的数据,因此其识别方法更加准确和安全。?合成数据生成(SDG)合成数据生成(“SDG”)是从具有相同统计特征的原始数据集中人工创建的数据。由于SDG数据集可以比原始数据集大得多,因此除了用于人工智能和机器学习之外,该技术还用于测试环境以减少数据共享和所需的实际数据量。结论PET是多方共享和分析数据的安全方式,对用户、组织和社会具有巨大的潜在利益,因为高质量数据的可访问性和可用性是创新的第一步。PET已被用于应用程序和系统测试等不同方面,尤其是在物联网、金融交易和医疗保健服务领域。英国数据伦理与创新中心发布了《PET采用指南》,以帮助组织考虑PET如何为数据驱动的创新提供机会。负责监督GDPR执行的欧洲数据保护委员会和欧洲网络安全局也发布了支持SMPC作为有效隐私措施的技术指南,并列出了在医疗保健和网络安全中的用途。参考链接:https://www.techtarget.com/searchsecurity/tip/Privacy-enhancing-technology-types-and-use-cases
