欢迎光临GGAMen游戏资讯




活跃用户突破 18 亿,Facebook 该如何审核争议性贴文?

2024-11-25 202

英国卫报于 5 月 21 日发表了一系列有关 Facebook 贴文审核机制的文件:Facebook Files,这些文件显示 Facebook 内部针对暴力、儿童虐待、动物虐待以及不宜观赏的照片所需遵照的流程规范。

Facebook 近年来不断为平台上讯息真伪以及内容适当性所苦,在维护言论自由的同时,他们也希望确保用户不被平台上的内容误导或受伤。为此,Facebook 一方面采用自动系统以消除不适当的内容,一方面则仰赖人力审核。例如在“暴力内容侦测手册”中提到,人们常用开玩笑或不正经的方式威胁他人来表达不满的情绪,而 Facebook 认为诸如“John,我要杀了你!”的言论是可接受的,但像“John,我要杀了你!我手上有把不错的刀子。”就会被审核人员移除。

我们可从上述范例看出 Facebook 想要这些审查人员辨别哪些言论是纯粹发泄情绪,哪些会对他人造成实际的威胁:当贴文中有较具体指出威胁的类型、时间地点或方法时,就有较大的可能性被移除。此外 Facebook 也会特别关注那些提到特定族群或弱势群体的贴文,例如犹太复国主义人士或无家可归的人。

但可想而知的是,这类的审核机制都存在备受争议的灰色地带。比如说 Facebook 内部认为“与动物虐待有关的照片或影片,应该继续保留在平台上以提升人们在动物权利方面的意识”,不过儿童虐待相关的内容就多半会被移除。另外和“自我伤害”相关的内容也是允许的,因为他们不想惩罚或限制那些极度痛苦的人。

英国卫报指出,这些审查人员需要对数以百万计的可疑贴文进行审核。Facebook 全球政策管理负责人 Monika Bickert 表示,“审查人员往往无法负荷这么大量的贴文,因此他们常常在决定贴文的适当性时犯错。”“Facebook 庞大而多样化的使用者让我们很难界定什么样的内容对一群人是可接受的,但对另一群人又是不合适的内容。”Bickert 曾向科技媒体《The Verge》表示,Facebook 将用户的安全视为首要任务:

维护用户安全是我们最重要的任务。Mark Zuckerberg 最近宣布在未来一年中,Facebook 会在现有的 4,500 人社群维护小组中再增加 3,000 名人员来审查数百万则贴文并加速审核流程。我们会让用户更容易举报问题、让审查人员更快辨别出违反 Facebook 内部规范的内容,且协助用户透过法律管道解决问题。

近几个月的内容审查争议,包含越战图片移除、直播杀人影片等皆促使 Facebook 重新审视内容审核机制,并雇用更多审查人员以进行移除不适当内容的工作。上述事件显示这些具争议性的内容有多么容易在这个平台上发布和分享,可是 Facebook 对这些争议向来未能提供足够的回应,以及良好的解决方案。

今年 5 月初,Facebook 宣布用户人数正式突破 20 亿人,活跃用户则达 18 亿人。随着用户人数的增长,如何建立一套有效且迅速的内容审核机制,对 Facebook 而言,绝对是一项刻不容缓的重要任务。

  • Leaked moderation guidelines reveal how Facebook approaches handling graphic content

(首图来源:Flickr/Christopher CC BY 2.0)

延伸阅读:

  • Facebook 动态时报更新“诱骗点击标题”侦测,也包含中文
  • Facebook 教你识别假新闻 10 大技巧
  • Facebook 成立及赞助“新闻诚信计划”冀提高新闻真确性及专业信赖度
2019-03-21 11:31:00

标签:   游戏头条 资讯头条 ggamen科技资讯 ggamen科技 ggamen科技资讯头条 科技资讯头条 ggamen游戏财经 新闻网 科技新闻网 科技新闻 ggamen ggamen游戏新闻网 科技新闻网 新闻网 ggamen游戏财经 科技资讯头条 ggamen科技资讯头条 ggamen科技 资讯头条 游戏头条 ggamen ggamen游戏新闻网 科技新闻 科技新闻网 新闻网 科技资讯头条 ggamen科技 ggamen科技资讯 资讯头条 游戏头条
0