使用AI进行社交媒体监控可能会导致某人失去工作、大学入学资格、租房等等,而且人们不会知道这是怎么发生的。AirBnB想知道客户在出租别墅之前是否具有“马基雅维利”性格。根据客户在Facebook、Twitter和Instagram上发布的内容,AirBnB可能会使用人工智能软件来确定租用别墅的客户是否值得信赖。他们将使人工智能系统去社会化,运行算法并获得结果。流程的另一端将没有透明度,没有信息,也没有针对流程另一方人员的上诉流程。该公司拥有一项技术专利,旨在通过分析潜在访客的社交媒体活动来确定他们是否是可能伤害房东的高风险客户,从而对潜在访客的“个性”进行评分。他们技术的最终产品是为每个AirBnB客户分配一个“可信度评分”。据报道,这不仅将基于社交媒体活动,还将基于在线发现的其他数据,包括博客文章和法律记录。该技术由Trooliy开发,该公司是AirBnB三年前收购的公司。Trooly创建了一种基于人工智能的工具,旨在“预测可信赖的关系和互动”,并使用社交媒体作为数据源。该软件根据软件识别的感知“人格特质”建立分数,包括一些可以预测的(例如尽责性、开放性、外向性、宜人性)和古怪的特征——例如“自恋”和“狡猾”。(有趣的是,该软件还会寻找卷入民事诉讼的客户,这表明他们可能会根据可能提起诉讼的客户的行为做出预测。)AirBnB尚未透露他们是否使用该软件。如果人们对这个消息感到惊讶、震惊或不满,那么就像大多数人一样,他们没有意识到社交媒体使用AI来判断人(客户、公民、员工和学生)的巨大且快速增长的实践。AirBnB不是扫描社交媒体用来判断性格或预测行为的唯一组织。其他机构和组织包括美国国土安全部、中央情报局、雇主、学区、警察部门、保险公司等。据估计,超过一半的大学招聘人员使用基于人工智能的社会监控工具作为招聘的一部分。申请人选择过程。人力资源部门和招聘经理也越来越多地在招聘前使用人工智能社交媒体监控。美国政府机构(特别是那些雇用需要进行安全检查的人员的机构)也依靠社交媒体监控来检查不受信任的员工。而且,正如该领域的报道,CBP在人们越过美国边境时搜索的智能手机数量每年都在急剧增加。这些搜索包括社交媒体账户,以后可以使用人工智能对其进行监控和分析。不仅越来越多的学校监控学生的社交媒体活动,一些州也开始通过法律要求这样做。基于人工智能的社交媒体监控是一种趋势。各种组织都在积极参与。基于人工智能的社交媒体监控并不那么聪明多年来,各种组织一直在质疑社交媒体监控。但最近出现了基于人工智能的监控工具,并创造了新的行业和职业。这些工具寻找人格特质,例如智力、社会责任、财务责任以及守法和负责任的行为。问题不在于人工智能是否适合数据收集。当然。问题是社交媒体是否揭示了用户的真相。也有一些专家质疑其数据质量。例如,扫描某人的Instagram帐户可能会“显示”他非常富有、环游世界并享用香槟和鱼子酱。事实可能是他破产了,经济压力大,他们在酒店和餐馆用餐时社交炫耀,他们的自拍纯粹是为了建立声誉而精心伪造的照片。有些人利用社交工具刻意塑造自己的高大上的形象。一个Twitter帐户可能表明该用户是一个正直、有建设性和富有成效的社会成员,但如果第二个匿名帐户被社交媒体监控系统所知,则可能表明该用户可能是一个反社会的不法分子。人们有多个社交媒体账户,反映了他们个性的不同方面。其中一些是匿名的。此外,某人的Facebook帐户可能充斥着粗俗和夸张的枯燥幽默信息,监控工具可能会断定它显示出不可信的个性,而实际上问题在于AI没有幽默感或讽刺意味。而人工智能工具的创造者本身也未必对人格有真正的理解。例如,网上的不良行为可能会降低一个人的信任度,因为它被视为缺乏道德。但最近的研究表明事实恰恰相反,一般来说,这样的人可能更值得信赖,也更聪明、更诚实、更能干、更专业。那么构建AI软件的开发人员是否知道或关心人类个性的微妙和复杂性?如今,有些人是许多社交媒体网站的固定用户。其他人从不使用社交媒体。大多数介于两者之间。当然也有代沟。从统计数据来看,年轻人不太可能公开发帖,他们更喜欢私密消息和群组社交。基于人工智能的社交媒体监控从根本上是年龄歧视吗?女性比男性更有可能在社交媒体上发布个人信息(关于自己的信息),而男性比女性更有可能发布非个人信息。发布有关个人事务的信息可能更能揭示个性。AI性别歧视是基于社交媒体监控吗?在采用这种潜在的极端监控技术之前是否问过这些问题?像AirBnB这样的公司正在努力解决一个真正的问题。就AirBnB而言,它们本质上是一种匹配服务,其中一个用户的“产品”是另一个用户。这是质量保证的问题。他们如何最大程度地减少对用户的伤害?提醒一句:在过去的40年里,技术的作用被夸大了。人工智能现在是新技术。业内人士担心像AirBnB这样的公司会出问题,他们认为解决方案是让人工智能神奇地解决问题。他们会把AI系统从社交网络中拿出来,运行算法,得到结果。AI系统会告诉他们谁不能进学校,谁不能招人,谁可以被剥夺安全许可,谁不能进AirBnB。AI是否在拒绝合适的人选?怎么会有人知道?某些被AI视为“值得信赖”的人是否以某种方式欺骗系统获得了这种殊荣?怎么会有人知道?如果人们在互联网上浏览有关社交媒体监控的信息,会发现很多关于“网上发布的内容”的建议,这听起来很合理,直到人们真正思考这些建议的含义为止。他们说,如果某人是真正应该被解雇的人,而不是根据他们的社交媒体活动被学校录取或拒绝的人,那么它确实需要聪明并冒充或冒充一个没有令人反感的社交媒体活动的人.随着人们对社交媒体监控范围的了解不断扩大,限制人们在社交网站上的一些不良行为将变得司空见惯(向人工智能受众提供虚假数据,以便机器判断他们是否值得信赖)。许多类型的组织,从政府机构到企业,再到硅谷的一些科技公司,都在加入基于人工智能的社交媒体监控潮流。数十家专门从事这些工具的公司不断涌现,而且这种做法也越来越普遍。而当公众意识到这种普遍做法的现实时,他们的反应必然是改变他们的社交媒体行为并采取正确的方法来维持他们的“信誉评分”,黑客的攻击让整个事情变得毫无意义和过时。现在是开始关注基于AI的社交媒体监控的时候了即使没有AI技术,人们也可以从扫描社交网络中获得一些灵感。知识渊博、精通技术的公众通常对“监视资本主义”的做法持谨慎态度,并淡化个人数据收集、网络活动跟踪以及广泛使用各种网站和应用程序的随机用户的联系人数据库的做法,利用它们这样做,企业可以在用户不知情和不同意的情况下访问他们认识的每个人的个人信息。与此同时,很少听到关于基于人工智能的社交媒体监控的在线对话。然而,潜在的“危害”是巨大的,导致一些人失业、被学校拒绝或提高保险费率等。这里没有“不可信”的方法来欺骗人工智能系统并获得机器信任。而基于人工智能的社交媒体监控来判断“可信度”,本质上是不可信的。
