绮乐网

新的数字鸿沟存在于选择退出算法的人和不退出算法的人之间

云洋网络

人工智能算法可以指导生活的方方面面——从选择早上的通勤路线和决定日期,到复杂的法律和司法事务,如预测性警务。

谷歌和脸书等大型科技公司利用人工智能来洞察他们庞大而详细的客户数据。这样,他们就可以通过微定位等做法将用户的集体偏好货币化,广告主利用这种策略锁定特定的用户群体。

与此同时,许多人现在更信任平台和算法,而不是他们自己的政府和公民社会。2018年10月的一项研究表明,人们表现出“算法欣赏”,当他们认为建议来自算法而非人类时,他们会更加依赖建议。在过去,技术专家们一直担心能使用电脑和互联网的人与不能使用电脑和互联网的人之间的“数字鸿沟”。较少接触数字技术的家庭在赚钱和积累技能方面处于劣势。

然而,随着数字设备的激增,分歧不仅仅是关于访问。人们是如何应对信息过载,以及渗透到生活方方面面的太多算法决策的?更聪明的用户正在远离设备,并开始意识到算法如何影响他们的生活。与此同时,信息较少的消费者更依赖算法来指导他们的决策。人工智能背后的秘密

在我看来,作为一个研究信息系统的人,新的数字鸿沟的主要原因是很少有人理解算法是如何工作的。对于大多数用户来说,算法被视为一个黑箱。AI算法接收数据,将它们拟合到数学模型中,并做出预测,从你可能喜欢的歌曲到应该在监狱中度过太多青少年的人。这些模型是基于过去的数据和以前模型的成功开发和调整。大多数人——有时甚至是算法设计者自己——并不真正知道模型里面有什么。

研究人员长期以来一直关注算法的公平性。例如,亚马逊基于人工智能的招聘工具最终解雇了女性候选人。亚马逊的系统选择性地提取隐藏的性别词汇——男性在日常言语中更有可能使用的词汇,如“处决”和“俘虏”。其他研究表明,司法算法存在种族偏见,对贫困黑人被告的判决时间比其他人更长。

作为最近批准的欧盟通用数据保护法规的一部分,人们有权解释算法在决策中使用的标准。这项立法将算法决策过程视为一本食谱。我们的想法是,如果你知道公式,你就能明白算法是如何影响你的生活的。与此同时,一些人工智能研究人员推动了公平、负责和透明的算法,这意味着他们应该通过一个人类可以理解和信任的过程来做出决定。

透明度的影响是什么?在一项研究中,学生通过一种算法进行评分,并对同龄人的分数如何调整以达到最终分数提供了不同程度的解释。解释越透明的学生,其实对算法的信任度越低。这再次暗示了数字鸿沟:算法意识不会导致对系统更有信心。

但是透明不是万能的。即使在概述算法的整个过程时,细节仍然过于复杂,用户无法理解。透明性只会帮助那些足够熟练掌握算法复杂性的用户。例如,2014年,美联储前主席本伯南克最初被自动系统拒绝抵押贷款再融资。大部分申请房贷转按揭的人都不明白算法是怎么决定他们的可信度的。退出新的信息生态系统

虽然算法会影响人们的生活,但只有少数参与者足够勤奋,能够充分参与算法如何影响他们的生活。关于算法识别的人数统计不多。这项研究发现了算法焦虑的证据,这导致了部署算法的平台和依赖算法的用户之间的权力严重失衡。

对脸书使用情况的研究表明,当参与者理解脸书的新闻摘要时,约83%的人会修改他们的行为以尝试使用该算法,而约10%的人会减少他们对脸书的使用。皮尤研究中心2018年11月的一份报告发现,绝大多数公众对算法用于特定目的有重大担忧。它发现,66%的人认为通过算法计算个人财务得分是不公平的,而57%的人认为自动简历筛选也是如此。

一小部分人对算法如何使用他们的个人数据有一些控制权。例如,human ity平台允许用户选择控制他们收集的数据量。在线百科全书Everipedia为用户提供了成为策展过程中的利益相关者的能力,这意味着用户也可以控制如何聚集和呈现信息。

然而,大多数平台没有为最终用户提供这样的灵活性,他们也没有选择如何使用他们的偏好来规划他们的新闻提要或推荐他们的内容。如果有选项,用户可能不知道。约74%的脸书用户在一项调查中表示,他们不知道该平台如何描述他们的个人兴趣。在我看来,新的数字素养不是使用电脑或互联网,而是理解和评估永远插电式生活方式的后果。

这种生活方式对人与人交往的方式影响很大;注意他们关注新信息的能力;以及他们决策过程的复杂性。不断增加的算法焦虑也可以通过经济的平行变化反映出来。一小部分人正在从自动化中受益,而许多工人处于不稳定的地位。退出算法策略是一种奢侈——它可能有一天只是少数人能致富的象征。那么问题是数字鸿沟的错误一面的可测量的危害是什么。

标签:新的数字鸿沟介于选择退出