当前位置: 首页 > 网络应用技术

如何保护人工智能的用户权利和利益(人工智能如何保护用户权利和利益)

时间:2023-03-07 19:54:28 网络应用技术

  简介:本文的首席执行官注释将介绍有关人工智能如何保护用户权益的相关内容。我希望这对每个人都会有所帮助。让我们来看看。

  隐私保护中人工智能的两个典型定律是:“通用数据保护法规”和“健康保险公司和责任法”。《通用数据保护条例》(GDPR)是欧盟的新隐私法规,旨在统一欧盟的数据保护要求并适应现代发展。尽管该法规与以前的欧盟隐私法规相比具有许多新的或改进的要求,但核心的基本原理保持不变。个人数据的定义更广泛地定义和涵盖更广泛的承保范围,这将影响所有在EU中出售产品和服务的公司。作为值得信赖的数据处理器,我们致力于帮助客户完成GDPR合规性工作。“健康保险公司和责任法案”(HIPAA)是美国国会颁布的联邦法律1996年,为患者提供了为各种医疗机构和业务合作者提供患者隐私保护。是隐私保护中人工智能的两个典型定律。

  人工智能在网络安全领域中具有以下特定应用程序(包括但不限于):

  (1)防止网络攻击

  人工智能技术可以帮助人类搜索和修复软件错误和漏洞,以防止潜在的网络攻击。目前,麻省理工学院(CSAIL)和机器学习启动Patternex开发了一个名为A12的人工智能平台。该平台集成了人类专家的输入和AI系统的连续回收反馈,并进行了上下主动的上下写作模型模型。LEALNING与仅机器学习系统的攻击检测率相比,A12算法系统增加了10倍。

  (2)预防犯罪

  AI技术可以帮助预测恐怖分子或其他威胁何时会攻击目标。它可以使用包括乘客在内的数据源和交通变化,以动态增加警察的数量以确保安全。

  (3)隐私保护

  可以通过AI技术执行不同的隐私,以为不同用户提供自定义的隐私保护体验。

  避免人工智能对基本权利的影响:

  1.从隐私到安全

  IT领导者需要让用户知道收集哪些数据并获得用户的同意。此外,数据集的适当培训和实施对于防止数据泄漏和潜在的安全漏洞至关重要。

  测试人工智能系统,以确保其实现其目标而不会产生意外影响,例如允许黑客使用虚假的生物特征数据访问敏感信息。实施人工智能系统的监督可以使企业在必要时停止或撤销其行动。

  2.从透明到透明

  当企业的人工智能 /机器学习工具对用户做出重要决策时,他们需要确保收到通知,并可以完全解释为什么做出此决定。

  企业的人工智能团队还应该能够跟踪导致每个决策并诊断此过程中的任何错误的关键因素。面向雇员的文档和外部的外部文档应解释人工智能系统如何像这样运行。

  3.偏见的公平

  仔细检查历史数据,并评估是否引入或减少任何潜在的偏见。通常忽略的因素是企业发展团队的多样性,而更多样化的团队通常会引入公平的过程和结果。

  为了避免意外损害,企业需要确保来自人工智能项目的所有高级原则,价值和控制计划,这些项目已经完全理解并指导了人工智能 /产品,审计和治理团队的企业。确认所有项目都符合这些原则和价值观。

  人工智能与隐私保护之间的关系

  人工智能应用程序和隐私保护并非两者都不是。

  一方面,人工智能申请不得以隐私泄漏为代价。不得侵犯隐私权。它既是公民的基本权利,又是社会文明进步的重要象征。有效保护隐私有利于人们维持人格尊严,保持舒适的心情并促进人们的全面发展。

  在最终分析中,无论人工智能技术如何以及在何种程度上是在何种程度上,都是为了帮助人们和为用户提供便利。这是人工智能应用程序必须遵守的底线,否则人工智能技术将损失价值,很难走远。

  另一方面,由于隐私泄漏的道德风险,它不能延迟甚至放弃人工智能的应用。

  我们必须有效地防止道德风险并加速人工智能技术的发展。实际上,人工智能应用与个人隐私保护之间的关系不一样,或其他关系。它可以通过各种手段正确指导人工智能应用,以最大程度地减少隐私泄漏的风险。

  作为一项新兴技术,人工智能本身没有善恶,对与错。关键是用户是否可以在道德准则的前提下正确地应用它。隐私泄漏现象是由人工智能的应用不当引起的,大多数是兴趣驱动的结果。因此,隐私泄漏不能简单地简单归因于技术层面,也不能简单地归咎于人工智能。

  人工智能应用程序和隐私保护并非两者都不是。

  尽管人工智能应用在一定程度上有隐私泄漏的风险,但这并不意味着它与隐私保护是绝对反对的关系。

  一方面,人工智能申请不得以隐私泄漏为代价。不得侵犯隐私权。它既是公民的基本权利,也是社会文明进步的重要象征。

  另一方面,由于隐私泄漏的道德风险,它不能延迟甚至放弃人工智能的应用。在目前,人工智能申请受到了世界主要国家的极大关注,并被视为下一个“超级 -科学和技术创新的风格,具有强烈的溢出驾驶,具有“头鹅”的效果。

  1997年,Deep Blue多次击败了顶级国际象棋大师,引起了世界的极大关注。人们为超越人类智慧的人工智能的持续趋势感到兴奋和担心。尽管人工智能为人类社会做出了巨大贡献,但它会违反人类的利益吗?这已成为许多科学家,政治家和普通公众的重大事件。

  结果,广泛提及和讨论了科学和科幻泰国泰国的三个规则。第一定律:机器人不得伤害人类,否则它们受到人类的伤害;第二定律:除非第一条规则违反了第一条规则,否则机器人必须遵守人类秩序;第三个规则:在不违反第一和第二规则的情况下,机器人必须保护机器人必须保护。

  在将机器人推广到人工智能之后,这三个规则被普遍认可,甚至成为人工智能研究和发展的原则。

  二十年过去了,阿尔法狗击败了多个国际大师,但人们通常不再担心,但很高兴看到人工智能的胜利。

  人们的态度为什么会发生变化?这不是人工智能的潜在伤害,而是人们已经习惯了。

  在过去的二十年中,随着移动互联网的蓬勃发展,每个人都习惯了现状,也就是说,信息社会中的每个人都是透明的。

  街上的密集覆盖的Tianyan监视摄像头记录了您所有的活动。在公共安全器官的监视大厅中,通过多个摄像机的链接,您的步行轨迹毫无障碍。

  已经完全记录了机场,码头,车站,甚至开放房屋的信息。从传统意义上讲,不再建立隐私。购买房屋,购买汽车并进入学校,您的个人信息长期泄漏,现在正处于使用诈骗者的阶段。People已经适应了一个信息化社会隐私逐渐被剥夺的地方。

  但是,人工智能的本质是为人类社会服务,人类社会的核心价值是“以人为导向”。私有化是人类的基本权利。人工智能的发展不能被剥夺人类的基本权利。相反,人工智能应该更好地保护人类的基本权利,其中应包括隐私,这是人工智能发展的正确方向。

  在移动互联网时代,我们的普通用户的信息可以分为两类,一个是身份认证信息,例如我们的用户名和登录密码以及生物学特征,例如指纹Iris。其他信息。

  身份身份验证信息必须由用户本人控制。它不能转移给任何商人,甚至转移给政府。这应该是人工智能的铁法。

  您为什么这样说?因为在移动互联网时代,一旦您的身份身份验证信息被坏人泄漏和使用,您可能会遭受经济损失,甚至危害您的生活安全。个人。

  不仅不能相信自己的诚信,也无法相信自己的能力。近年来,许多知名的网站泄露了用户身份认证信息。这些公司是诚实的,但是它们的保护不足,并且已被黑客复制。

  我们的订购,滑行,购物和租赁房屋的内容信息如何?与身份认证信息不同,这一部分信息不能完全掌握。为了享受人工智能服务,有时必须将其转移出去。

  人工智能有四个链接:智能感知,智能推理,智能学习和智能行动。这些链接由数据驱动。您不提供数据。它如何了解您的需求?如何通过学习和推理为您提供准确的服务?

  尽管必须传输内容信息,但它也必须遵守一个原则,也就是说:“统计结果属于商人,并且个人信息的所有权属于您自己。”

  这是什么意思?例如,当使用DIDI出租车应用程序时,我们的私人汽车的模型,期间,路线和费用等信息将上传到DIDI的服务器。大量信息形成大数据。统计分析结果包含巨大的结果。企业的机会和财富,该统计结果归DIDI拥有。

  我们每个人都从Jiu Niu Mao的一个数据中贡献了该统计结果的数据。例如,Heping社区的平均每月汽车量为500人。如果您居住在Heping社区中,您已经为这些数据做出了贡献,但是您在Heping社区中呼吁。汽车信息的所有权是您的。没有您的授权,DIDI部门将无法使用。

  我的妻子用笔记本电脑搜寻衣服后,我第二天去办公室指导学生。一旦我打开电脑,浏览器就把我的许多花边edge女子内衣推了出来。它还特别表明这是您可能感兴趣的产品。我很尴尬。

  未经用户授权,商人不应收集用户的偏好和习惯。即使收集它们,也只能用作统计分析的原始材料,也不应将其用于精确的营销。不使用“”是滥用人工智能的原则。

  Google使用最新的Android操作系统Nougat 7.1发布了第一个“ Google Made” Pixel手机。更重要的是,它第一次配备了Google人工智能助理Google Assistant,而Google Assistant是手机人工智能的创新。Google的首席执行官Sundar Pichai宣称,我们很高兴为任何地方的每个人创建一个独特的Google。

  但是,发问者认为,这个方便的价格是允许Google继续获取个人信息和用户的偏好,并且用户完全失去了其隐私,从而成为一个透明的人。

  Google的人工智能是好还是坏?这不能根据个人的善与恶来判断。必须是某人喜欢厌恶的人,因此用户的授权已成为关键。默认情况下应关闭此功能。当您清楚地知道自己会泄露隐私,但是您仍然自愿做一个透明的人来获得人工智能的帮助,那么您可以打开此开关。

  随着移动互联网的迅速发展,人们的透明度趋势是不可逆转的,但隐私不能完全放弃。我的概念是:身份认证信息必须绝对由自治控制。个人喜好内容信息披露吗?也应该给用户本人提供此选项。

  人工智能正在上升,各种企业的实践都大不相同。在我联系的公司中,他们比较了华为的方法。首先,在用户身份认证方面,华为保留了以密文的形式独立开发的Hisilicon芯片的认证信息。当互联网商人需要身份身份验证时,他们将在CPU中进行比较,然后发送“是或没有判断结果”。由于华为拒绝向Internet商家提供用户指纹信息,因此也存在行业矛盾。

  一些网民可能会质疑华为说身份认证信息密封件是在芯片中,是真的吗?这种怀疑是非常合理的。没有人能依靠个人的善与恶来盲目地相信企业。

  我应该相信谁?我的建议是相信政府。如果某些政府认可,我可以相信,老实说,我不相信华为朋友这样做,直到我看到中央银行的安全认证和Unionpay的Hisilicon 960 Chip。

  最近,华为和腾讯由于荣誉魔术电话而引起争议。每个人都知道华为手机通常安装EMUI系统,但是该手机配备了带有一些新颖智能应用程序的Magic Live系统。

  在此手机从智能助手开始之后,系统可以自动识别SMS和微信中的关键字,以及基于手机位置的智能建议。例如,当您在微信中讨论晚餐时,您的手机会建议您一家好餐厅附近。如果您不需要此功能,则可以关闭智能助手。

  腾讯对此非常不满意,认为华为已经从微信中偷走了数据,并向工业和信息技术部报告了问华为。属于用户。用户授权使用智能助手。这很好。工业和信息技术部的答案是讨论它。

  荣誉Magic Live和Google的Google Assistant都是手机上人工智能的创新,但两者都有基本差异。Google的模型是“上传个人信息”,荣誉模型是“潜水服务信息”。

  这是什么意思?简单地说,Google已上传到诸如个人偏好之类的云中。在Google了解用户的喜好之后,它提供了准确的人工智能服务。

  荣誉是将所需的公共服务信息潜入手机。Magic Live打开了每个应用程序的障碍,智能识别和对用户信息的分析,然后提供精确的服务。

  实际上,华为将私人秘书放在您的手机中。它获得了您的个人信息并提供精确的服务,但没有向华为报告。这些是在手机内部执行的。默认情况下,此功能已关闭,除非您授权打开,否则它不起作用。

  除了Google和华为外,Apple还拥有类似的移动人工智能服务。苹果使用与荣誉相同的“服务信息”模型,并且不上传用户信息。

  为什么在华为?这是因为荣誉魔术手机已在国内手机中开放了人工智能的先例,打破了各种应用程序的障碍以重新融合数据。此举是对应用商人利益的重大打击。现在这只是一场暴风雨。乍一看,摔跤仍然落后,这是一个值得每个人的注意力的重大事件。

  与Google和Apple相比,华为具有在芯片INSE区域密封用户认证信息的方法。与苹果的信任区类似,用户信息的服务信息与苹果不同。

  人工智能是主要趋势。它将为我们带来更准确的服务。但是,由于用户提供的数据,它将客观地影响我们的个人隐私。这是一个困境。

  移动人工智能现在处于探索阶段。每个商人的实践都不同,每个人的想法都不同。作为行业旅行和普通用户,我有三种手机中的人工智能原则:用户认证信息必须由自治绝对控制,这是制定权利的决定权。内容信息上传是用户本人,并且没有商家不可能使用用户使用它。

  我们所说的AI实际上是一种算法。在当今的发展中,可以将统一总结为人工智能。因此,在当今社会的发展中,随着AI算法的发展,人工智能变得越来越人性化,智商和智商,智商,越来越缓慢地改变了人们的生活,但是随着分析,在人工智能大数据的AI计算中,这也是结果,某些负面事物类似于某些平台使用大数据分析来构建模型以实现精确定位,从而导致某些用户的核心利益损失。如今,一些黑客使用现有算法来犯罪。这会影响社会保障,因此对我们来说,从以下方面考虑问题。

  1.使用AI时,我们应该遵守法律法规,以避免首先福利。

  实际上,一些互联网公司已经构建了各自的AI系统,因此对于这些大公司和大型平台,AI的进步帮助这些公司实现了更好的市场发展,但也导致了一些负面消息。,对于这些大型公司和公司而言,要确保的第一件事是遵守法律法规。

  2. AI的进步给人们带来了便利,这绝不是为团体赚钱的工具。

  实际上,在当今的社会发展中,AI变得越来越聪明,一些平台还通过自己的算法平台对自己的用户群体进行隐私监控和定位分析。这种方法不仅违反了人们的隐私和安全性,而且间接地违反了用户的核心权利和利益。因此,在大数据时代,人工智能应使用方便的服务作为基本起点。

  3.使用AI时,您应该学会尊重人权和生命。

  实际上,在当今的社会发展中,人工智能对人们的生活产生了更大的影响,因此在大数据时代,人工智能应该了解尊重人权和对生命的尊重的价值。EAI绝不是冷冰算法,也是向人们传达幸福的工具。因此,在当今的发展中,AI应该有基本原则。

  实际上,对我们而言,随着科学技术的发展,AI算法对人们的生活产生了更大的影响,这就是人们应该理解的是,在使用AI时,人们应该遵守人们的概念 -当今的社会发展,应该理解的是,技术是人类的帮助,而不是资本家收取资金的工具。

  结论:以上是首席CTO的相关内容的相关内容,注明了人工智能如何保护用户的权利和利益。希望它对您有所帮助!如果您解决了问题,请与更多关心此问题的朋友分享?