当前位置: 首页 > 科技赋能

字节跳动隐私保护论文入选 NeurIPS 2020 联邦学习研讨会

时间:2024-05-20 01:18:06 科技赋能

第 34 届神经信息处理系统会议暨研讨会(以下简称 NeurIPS)于 12 月中旬在线举办。

本次会议上,字节跳动关于联邦学习隐私保护的最新研究论文被NeurIPS联邦学习研讨会接收并在线分享。

NeurIPS 作为机器学习和计算神经科学领域的顶级国际会议,由 NeurIPS 基金会主办,每年 12 月召开。

NeurIPS 旨在促进神经信息处理系统的研究交流,在同行会议上展示和讨论新颖的研究。

在中国计算机学会的国际学术会议排名中,NeurIPS属于人工智能领域的A类会议。

自2018年欧盟出台GDPR(GDPR)以及国内涉及数据隐私的法律法规逐步建立以来,联邦学习逐渐成为保护数据隐私的有力工具。

它可以实现机器学习模型的协同训练,而无需双方公开各自的私有数据。

因此,它受到了越来越多企业的关注,并产生了许多实际应用。

在此背景下,NeurIPS专门设立联邦学习研讨会,邀请全球联邦学习行业专家共同探讨联邦学习的可扩展性、隐私性和安全性。

由于拥有海量的用户数据,字节跳动深知用户数据安全保护的重要性。

为了增强用户信任,寻求建立开放透明的平台,字节跳动持续投入资源在联邦学习领域进行研究和探索。

已在电商、金融、教育等多个行业场景得到应用,自主研发的联邦学习平台Fedlearner已于年初开源(项目地址:Fedlearner Workshop)。

Fedlearn Workshop 上,字节跳动应用机器学习团队分享了用户体验标签数据安全的最新研究论文《Label Leakage and Protection in Two-party Split learning》。

论文分享了一种垂直联邦学习中隐私标签数据保护的新解决方案——通过理论分析,进行附加扰动的约束优化,帮助联邦学习实现效用和隐私之间的平衡。

更好的平衡。

具体来说,分析了联邦学习过程中双方交互的梯度,提出了一种基于梯度范数推测标签信息的高效攻击方法,进而创新性地提出了一种基于交互梯度的方法。

增加扰动保护方法。

字节跳动应用机器学习团队研究员孙建凯表示,大量实验表明,在梯度范数攻击中,论文提出的标签数据保护算法可以将标签泄漏的AUC从接近1.0降低(1.0为完全泄漏)到0.5-0.6之间(0.5是完全保护),模型的预测效果比较小。

孙建凯指出,虽然还有其他他们没有想到的攻击方式来窃取用户标签数据,但论文中提到的方法即使面对未知的攻击方式,也能最大程度地保护标签数据,防止数据泄露。

由于联邦学习能够有效解决数据孤岛问题,让参与者在不共享数据的情况下共同建模和挖掘数据的价值,国内外众多一线互联网公司纷纷投入研究和应用。

标签作为一种高价值的数据,吸引了众多业界人士不断思考和探索如何在联邦学习的框架下最大程度地保护标签。

字节跳动提出了在交互梯度中加入智能扰动的方法,一定程度上解决了标签数据安全问题,消除了大家的顾虑,有利于进一步推动联邦学习应用,让数据发挥出更大的价值。

为了让更多的企业和开发者受益,字节跳动关于隐私保护的最新理论研究已经落地,以及相应的算法(Fedlearner)。

字节跳动联邦学习技术负责人吴迪在接受采访时表示:“希望我们的最新研究能够为企业在应用联邦学习保护用户数据安全方面提供更多选择。

我们也希望为联邦学习的进一步大规模应用做出贡献,共同推动隐私计算的发展。