文章目录[隐藏]
互联网可以让人感觉像是人类最糟糕方面的无底洞。到目前为止,几乎没有迹象表明元宇宙——一个我们工作、娱乐和生活的虚拟数字世界——会好得多。正如我上个月报道的那样,Meta 的虚拟社交平台 Horizon Worlds 的 Beta 测试人员已经抱怨被摸索了。
Tiffany Xingyu Wang 觉得她有办法。2020 年 8 月,比 Facebook 宣布将更名为 Meta 并将重点从其旗舰社交媒体平台转移到自己的元宇宙计划的一年多前,Wang 成立了非营利组织Oasis Consortium,这是一个由游戏公司和在线公司组成的团体设想“一个道德的互联网,后代相信他们可以互动、共同创造,并且没有网络仇恨和毒性。”
如何?Wang 认为 Oasis 可以通过帮助科技公司进行自我监管来确保一个更安全、更好的虚拟世界。
本月早些时候,Oasis 发布了其用户安全标准,这是一套指导方针,包括聘请信任和安全官员、采用内容审核以及整合对抗毒性的最新研究。加入该联盟的公司承诺为实现这些目标而努力。
“我想给网络和元宇宙一个新的选择,”过去 15 年一直致力于人工智能和内容审核的Wang说。“如果元宇宙要生存下去,它必须有安全性。”
她是对的:该技术的成功与其确保用户不受伤害的能力息息相关。但我们真的可以相信硅谷的公司能够在虚拟世界中自我监管吗?
更安全的虚拟世界的蓝图
迄今为止,与 Oasis 签约的公司包括游戏平台 Roblox、约会公司 Grindr 和视频游戏巨头 Riot Games 等。他们之间拥有数亿用户,其中许多人已经在积极使用虚拟空间。
然而,值得注意的是,Wang 还没有与 Meta 进行过交谈,Meta 可以说是未来元宇宙中最大的玩家。她的策略是“当他们看到我们在这场运动的最前沿做出的有意义的改变时”接近大型科技公司。(当被问及 元宇宙的安全计划时,Meta 向我指出了两份文件:一份新闻稿详细说明了与团体和个人合作以“负责任地构建元宇宙”,以及一篇关于保持 VR 空间安全的博客文章。这两篇文章均由 Meta 撰写首席技术官安德鲁博斯沃思。)
Wang说,她希望通过几种方式确保透明度。一种是通过创建一个分级系统来确保公众知道公司在维护信任和安全方面的立场,这与许多餐馆展示城市等级以符合健康和清洁标准的系统不同。另一种方法是要求成员公司雇用一名信托和安全官员。王说,这种职位在大公司中变得越来越普遍,但没有一套统一的标准让每个信任和安全官员都必须遵守。
但绿洲的大部分计划充其量仍然是理想主义的。一个例子是使用机器学习来检测骚扰和仇恨言论的提议。正如我的同事 Karen Hao去年报道的那样,人工智能模型要么让仇恨言论有太多传播的机会,要么越界。尽管如此,Wang 还是为 Oasis 将 AI 推广为一种调节工具进行了辩护。“人工智能和数据一样好,”她说。“平台共享不同的审核实践,但都致力于通过设计预防来实现更好的准确性、更快的反应和安全性。”
该文件本身长达七页,概述了该联盟的未来目标。大部分内容读起来像是使命宣言,Wang 表示,前几个月的工作主要集中在创建咨询小组以帮助制定目标。
该计划的其他元素,例如其内容审核策略,是模糊的。Wang说,她希望公司聘请多元化的内容版主,以便他们能够了解和打击对有色人种和非男性人士的骚扰。但该计划没有为实现这一目标提供进一步的步骤。
该联盟还将期望成员公司共享哪些用户被滥用的数据,这对于识别屡犯者很重要。参与的科技公司将与非营利组织、政府机构和执法部门合作,帮助制定安全政策,Wang 说。她还计划让 Oasis 成立一个执法响应小组,其工作是向警方通报骚扰和虐待事件。但目前尚不清楚该工作组与执法部门的合作将与现状有何不同。
平衡隐私和安全
尽管缺乏具体细节,但与我交谈过的专家认为,该联盟的标准文件至少是一个很好的第一步。“Oasis 正在关注自我监管,从了解系统及其局限性的人开始,这是一件好事,”专门研究技术和人权的律师布里坦·海勒 (Brittan Heller) 说。
这不是科技公司第一次以这种方式合作。2017年,一些人同意与全球互联网反恐论坛自由交换信息。今天,GIFCT 仍然是独立的,签署它的公司进行自我监管。
墨尔本大学计算与信息系统学院的研究员 Lucy Sparrow 表示,Oasis 的目标是为公司提供一些可以合作的东西,而不是等待他们自己提出语言或等待第三方来做这项工作。
Sparrow 补充说,正如 Oasis 所推动的那样,从一开始就将伦理道德融入设计是令人钦佩的,而且她对多人游戏系统的研究表明它会有所作为。“道德往往被推到一边,但在这里,他们 [Oasis] 从一开始就鼓励人们思考道德,”她说。
但海勒说,道德设计可能还不够。她建议科技公司重新调整他们的服务条款,这些条款因利用没有法律专业知识的消费者而受到严厉批评。
Sparrow 表示同意,并表示她不愿相信一群科技公司会为消费者的最大利益行事。“这确实提出了两个问题,”她说。“一,我们在多大程度上信任资本驱动的公司来控制安全?第二,我们希望科技公司对我们的虚拟生活拥有多少控制权?”
这是一个棘手的情况,特别是因为用户拥有安全和隐私权,但这些需求可能会很紧张。
例如,Oasis 的标准包括在用户受到骚扰时向执法部门提出投诉的指南。如果一个人现在想提交报告,通常很难这样做,因为出于隐私原因,平台通常不会记录正在发生的事情。
这一变化将对惩戒屡犯者的能力产生重大影响;现在,他们可以在多个平台上摆脱虐待和骚扰,因为这些平台不会就哪些用户存在问题而相互交流。然而,海勒说,虽然这在理论上是个好主意,但很难付诸实践,因为公司有义务根据服务条款对用户信息保密。
“你怎样才能匿名这些数据并且仍然让共享有效?” 她问。“共享数据的门槛是多少?您如何使共享信息的过程变得透明并使用户删除具有吸引力?谁有权做出这样的决定?”
她补充说:“公司与其他公司共享有关因骚扰或类似不良行为而违反服务条款的用户的信息没有先例,尽管这经常跨越平台界限。”
更好的内容审核——由人类——可以从源头上阻止骚扰。然而,海勒并不清楚 Oasis 计划如何标准化内容审核,尤其是在基于文本的媒体和更虚拟的媒体之间。在元宇宙中进行调整将带来一系列挑战。
“捕捉仇恨言论的社交媒体提要中基于人工智能的内容审核主要是基于文本的,”海勒说。“VR 中的内容审核将主要需要跟踪和监控行为——而当前的 XR [虚拟和增强现实] 报告机制充其量是笨拙的,而且通常是无效的。在这一点上,它不能被人工智能自动化。”
正如 Meta 摸索受害者所经历的那样,这将报告滥用行为的负担放在了用户身上。音频和视频通常也不会被记录下来,这使得建立攻击证据变得更加困难。海勒说,即使在那些录制音频的平台中,大多数也只保留片段,即使不是不可能理解,也很难理解上下文。
Wang强调,用户安全标准是由一个安全顾问委员会制定的,但他们都是该联盟的成员——这一事实让 Heller 和 Sparrow 感到不安。事实是,在互联网历史上,公司在保护消费者健康和安全方面从未有过良好的记录。为什么我们现在要期待有什么不同呢?
麻雀认为我们做不到。“关键是要建立一个系统,以便可以制定正义或表明预期的行为类型,并且会对那些不合时宜的行为产生后果,”她说。这可能意味着让其他利益相关者和普通公民参与进来,或者某种允许用户作证并充当陪审团的参与式治理。
不过有一点是肯定的:虚拟世界中的安全可能需要的不仅仅是一群承诺为我们提防的科技公司。