Facebook扎克伯格对外宣布,明年将会雇佣3000名员工处理网站上的不良内容,还会加大力度删除涉及谋杀、自杀及其它暴力行为的视频。Facebook现在已经有4500名员工评估帖子,看这些帖子是否违反服务条款,新招募的3000人将会让评估团队更加壮大。
从招聘可以看出,Facebook已经意识到光靠自动软件还不够,公司必须聘请员工才能提高内容监管水平。去年,Facebook推出了Facebook Live,让用户可以提供广播直播服务,但是有人用Live播放暴力内容,使得服务受损。
上周,一名泰国人在Facebook Live直播,他杀了自己的女儿。等了一天多时间Facebook才将视频删除,浏览量已经达到37万次。另外,芝加歌、克利夫兰的一些视频也因为暴力让观看者感到震惊。
扎克伯格说:“我们正在采取措施让视频举报变得更顺畅,这样就可以及早采取行动;当有人需要帮助或者想撤下帖子时,我们可以及时响应。”
3000名员工将会在新职位上工作,他们会监控Facebook的所有内容,不只是直播视频。至于员工安置在哪里,Facebook没有明言。
Facebook月用户达到19亿,它用AI技术寻找色情、暴力及其它可能存在攻击性的内容。3月份,Facebook还说要用技术发现存在自杀倾向的人,向他们提供帮助。
尽管付出了很大的努力,Facebook主要还是依靠用户举报不良内容。每周用户都会提交几百万份报告,和其它大型硅谷公司一样,Facebook也用人力监督人员评估报告。
加州大学洛杉矶分校信息研究教授沙哈·罗伯茨(Sarah Roberts)表示:“与产业所说的相反,我不知道有什么计算机制可以代替人类,充分、准确、100%完成此项工作,现在技术还没有发展到这样的水平。”
罗伯茨还说,监督员一般按合同工作,工作地点设在印度、菲律宾等地方,他们的工作环境很不好,因为要长间快速决策,浏览那些会对心理造成创伤的内容。