在今年的ACMWiSec安全活动上,讨论普通人如何评估物联网中的风险以及人们采取了哪些措施来保护自己。在思考物联网在联合和高度分布式计算的世界中所带来的挑战以及监管机构可能需要介入的地方时,有7个想法:1.消费者权益损害源于伪装成硬件的软件互连产品生活在硬件和软件之间的灰色地带。当公司停止基于云的服务,使物理设备无用时,这会给消费者带来很多冲突和不确定性。或者当公司改变他们的软件条款和条件时,改变设备的运行方式。最近的一个例子是Peloton更改了其跑步机产品上的软件,以防止消费者在没有付费订阅的情况下使用它。与硬件外壳中包含的软件相关的权利缺乏明确性是“维修权”条款的原因,也是消费者在公司提取数字内容时提起诉讼的原因。这种混淆主要伤害了消费者,因此随着购买非联网产品变得更加困难,各国需要制定基本的所有权规则来保护消费者。二、数字时代对第四修正案的反思在美国,第四修正案保护公民“人身、房屋、文件和财产安全免遭无理搜查和扣押”的权利。新技术和工具意味着需要围绕执法部门如何从公共和私人设备访问数据以及何时需要搜查令制定明确的规则。该行业还应该做更多的事情来帮助发现自己卷入调查的公民。在某些情况下,他们可能收到的唯一通知是:手机位置数据或一些关于他们自己的其他数据已在搜查令或传票中被删除,这是一封来自放弃该信息的技术提供商的电子邮件。从那时起,这个人有责任弄清楚为什么他们的信息成为目标以及他们应该怎么做。3.惩罚泄露数据/要求快速披露的私人实体这与公民自由关系不大,而更多地与数据泄露可能对消费者造成的巨大伤害有关。公司应该因不安全的做法而受到惩罚,例如在测试中使用生产数据,将未加密的个人数据留在解锁的云实例中等等。当数据泄露是由不良的安全措施引起时,公司是疏忽大意的,应该为此付出代价。在披露方面,人们越早知道他们的数据或密码已被泄露,他们就能越早修复它。目前,政府正在讨论一项规定,该规定将强制公司在24小时内告知公众他们的违规行为。4.在现有政府机构中建立审计权力以测试结果的原则是解决人工智能中存在偏见或缺乏透明度的说法。人工智能被用作当今人们生活的许多方面的工具,从决定谁获得保释到使用面部识别进行逮捕。作者认为,每个政府机构都需要制定审计协议,以证明人工智能如何做出决策,并为毫无疑问会出现的偏见提供理由。没有无偏见的算法这样的东西。所有算法都旨在将某些数据优先于其他数据以取得结果。审计委员会需要能够评估这些结果,看它们是否符合当前的政策目标。5.提供类似GDPR的规则来帮助消费者控制他们的数据目前还没有好的法律来帮助消费者控制他们数据的使用方式。加州有《加利福尼亚州消费者隐私法》,这是一个开始,但人们需要一部法律来帮助消费者选择共享他们的数据,有机会评估提供者拥有的关于他们的数据,并在需要时强制提供者更正或删除该数据数据。还应该有关于可以使用哪些数据以及公司如何基于这些数据歧视消费者的法律。6.确保数据可以更正/删除儿童数据想想所有被错误地列入政府禁飞名单的穷人。随着人工智能和数据被用于让计算机做出关于人类的决策,公司共享不正确数据的风险也在增加。还认为孩子们在18岁时应该有机会删除他们的数据,但是,由于令人讨厌的数字所有权问题,这说起来难做起来难。如果孩子想从互联网上删除她所有的照片,她将不得不让我将她的照片转储到GoogleCloud中,或者找在Facebook上分享她照片的朋友。在这种情况下,谁的权利最重要?我认为谷歌最新的儿童政策决定,从谷歌图片搜索中删除18岁以下儿童的图片,是一个好的开始。具有讽刺意味的是,这是一家私人公司因为其他国家的新规定而对互联网上的儿童采取行动。让孩子们有机会成为孩子,而不会在他们的余生中困扰他们,这一点很重要,尤其是当他们的照片越来越多地在私人和公共场合被相机捕捉到时。7.重新思考当前的身份形式并创建身份等级制度这是一个难题。人们允许私人公司获取他们的面部、指纹甚至掌纹,以此作为向计算机验证自己身份的一种方式。但是这些形式的ID可能会被盗并可能被滥用。例如,也没有向消费者明确指示何时使用好的密码以及何时使用指纹。鉴于滥用和混淆潜在危害的可能性,政府应该教育并可能执行一些规则来解决何时密码足够以及何时需要虹膜扫描。它还应该就公司如何存储这些标识符中最敏感的标识符制定规则,迫使收集它们的人将它们视为重要的。
