净网特工

HD

主演:汉斯·布洛克

类型:电影地区:美国语言:英语年份:2018

 无尽

缺集或无法播,更换其他线路.

 剧照

净网特工 剧照 NO.1净网特工 剧照 NO.2净网特工 剧照 NO.3净网特工 剧照 NO.4净网特工 剧照 NO.5净网特工 剧照 NO.6净网特工 剧照 NO.13净网特工 剧照 NO.14净网特工 剧照 NO.15净网特工 剧照 NO.16净网特工 剧照 NO.17净网特工 剧照 NO.18净网特工 剧照 NO.19净网特工 剧照 NO.20

 剧情介绍

净网特工电影免费高清在线观看全集。
从脸书公司的网站中,清除“不合时宜”内容的内容审查员,人称“清洁工”。本片首次独家披露网络审查作业的真实现状,描写社交媒体所存在的风险,还揭露了审查作业对“清洁工”造成精神创伤的事实,并聚焦世界各国日益高涨的言论自由论争。采访从脸书位于菲律宾的“清洁工”工作据点开始。被聘用的多为会多国语言的学生精英。他们以秒为单位,审查世界各国用户发布的数以亿计的图片视频,删除色情、暴力内容的帖子。有时也会误删一些具表现性、新闻性、艺术性的内容。他们被严禁向家人透露工作内容。社交媒体的发布者和管理者,大半是业余人士,由用户生成的内容,使得平台异常脆弱,存在很大风险。必须针对不同文化、宗教、价值观以及时代等要素,做出不同对应。与此同时,审查被认为是“威胁表达自由”,“导致政治迫害”,对各大社交网络服务平台的批评,也在日渐高涨。本片潜入互联网的阴暗幕后,曝光秘密的数字保洁业的内幕,揭示是谁在控制我们的所见所闻和所思所想。窄路微尘红鹰1960白饭修行僧波吉亚家族(法国版) 第二季松开拳头我盛大的意大利同志婚礼山里红血族第四季曼斯菲尔德庄园1999坎农铜矿血琥珀我们能拯救珊瑚礁吗德州之心见习天神夺命小丑查理2号分手,不分手哥本哈根牛仔第一季共犯者们新少林寺国语版沙尘暴2016约会规则第四季怒海救援寻凶记2009女城主直虎暗网第一季霍比特人1:意外之旅追凶粤语版天知道超级少女 第三季向大地头球超级豪宅第一季那女人的大海恶魔游戏2024芈月传海上毒战舌尖上的中国第二季豆包县令爱在战火纷飞时假如没有遇见你宿敌 第二季春天不是读书天1986追鱼传奇外星世界沉默庖丁传奇之金刀御厨

 长篇影评

 1 ) 这个世界会好吗?

技术、媒介是中性的吗?傻子都知道不是。不然也不会有网瘾和杨永信了。

反过来看,而互联网曾经承诺的“连接每一个人”的乌托邦,在当今现实里的大图景到底是什么样子?

社交媒体,在总体上,是否将把我们的世界变得更好呢?

这几年对互联网和智能手机全球性地改变人的行为的嘲讽或自嘲也不少见了。

前不久又爆出脸书向剑桥分析泄露5000万用户而被用来操控选举的新闻。

上个月中下有哥本哈根纪录片电影节,偶然去看了这部 《清理者》The Cleaners。

片中播放了去年年末美国法庭关于 俄罗斯和2016年大选 Russia and 2016 Election Investigations 的调查。法官质疑,这三大公司的内容环境受到国际政治力量的左右,影响选民,以及被用来组织、散播、宣扬非人道的行动。唯唯诺诺中互联网公司的法律负责人(我不确定这里使用的名词是准确的)说到了自己外包了大量的员工来审核内容的事实。而脸书透露出,他们雇佣的审查者居然有数千人之众,而且未来还会继续增加人数。

——这些被雇佣的网管就是本片的主角,他们内部自称为“内容仲裁者”content moderator,所谓的“清理者”。这是一个驻扎在菲律宾马尼拉的公司,而他们的职业对于外界是一个秘密。

影片开始的时候,镜头在一间典型的现代白领办公室里,关着灯,只有一个人操作着一台亮着的电脑,并只能看到这个人面部的局部。背景音不断回放着,“删除”delete/“无视”ignore/“删除”delete/“无视”ignore……随后镜头跟随同一个主角描述ta夜晚上班的场景,穿过熙攘、喧闹、混杂的马尼拉的城市街道、高架桥,进入一栋漂亮的办公楼。在喧闹拥挤的亚洲城市里,做一项秘密却关乎数十亿人口的工作。这就是他们的工作内容,而操作看起来如此的简单,就是审核每天从全世界上传的上百亿的照片、图片,然后决定是要保留还是删除。

脸书内部关于上传信息内容规定的条例相当复杂,关于对暴力、色情的内容判定是否删除的规定,有一百多条。然而在去年被卫报曝出来以前鲜有人知。被采访者包括Google的负责人、工程师,面对镜头,检讨公司创始人们对中性技术的美好设想并没有尽到相关的责任;而另一方面也列出了关于支持自由者的质疑,包括一些内容被删的艺术家、摄影师。

“这些规定也让自由言论倡导者担忧。他们认为,Facebook可能已经成为了世界上最大的审查员,该事实敲响了言论自由的警钟。”

脸书提供的强大平台,涉及了一系列冲突明显的社会问题,包括美国内部的种族,西欧对移民的态度——到底是发泄不满,还是有组织的政治立场,这两者界限模糊。以ISIS为例的恐怖组织也在借脸书宣扬自己的。片中截取的片段。蛋最让我看不下去的是缅甸迫害罗兴亚人,一个母亲对着镜头哭诉自己的家庭怎样被迫害。——这种原本平缓融洽的文化混杂,被西方殖民者弄得互相仇视的例子早就不新鲜了。

传播能力的扩大,既然足够提供人与人的连接,也可以能让人与人更加分裂。爱是可以被传播的,那么仇恨也可以;敌意、仇视、偏见,技术本身不会过滤任何人人心里的东西。

回到清理者们,这项工作是否看起来十分简单?

然而,到目前为止机器/ AI还没有能力处理人类复杂的认知和表达。光是言论,根据不同的语境,是发泄情感还是表达真实意图都难以判断;再加上图像、视频中更加复杂微妙的视觉语言,机器对此无能为力。而这些内容仲裁者也有很大的负担:他们的神经每天要处理25000项图片或视频,而对每一张图片最多只有8秒钟做判断。这对大脑是巨大的负荷。

更糟糕的是,他们要经手的材料大多都是令人不适甚至不安的内容:色情、虐待、战争、恐怖组织的非人道行为——尽管在正式工作之前已经被训练去应对这些内容,但仍对他们的日常生活也造成困扰,也包括道德上的处境。

开头的场景展示了他们的两难处境,深处闹市,却做着全世界的网管,而工作内容也不能让身边的人知道——他们需要一个让自己心安理得的身份,当然也需要这份得体的薪水;他们不得不相信自己确实是在有尊严地维护秩序。很多人也因为上面这些原因放弃了这份工作。

技术到底带来了什么呢?纪录片的好处是,导演呈现给你的是各方视角和立场。这个问题暂且还不会有结论。

它是给我们所有人的问题。

片头片尾,截了两段扎克伯格对公众的演讲;看他如何表情坚定、豪迈地谈论脸书如何能够成就新的未来。

然后片尾字幕亮起,意味深长,留下片场一片唏嘘。

“太可怕了。太可怕了。”

我跟波兰的好朋友聊起感受,感觉出来的大概是对全球网络的这种无序状态和其无解的担忧。——就他所言,人们还是倾向于相信,世界是需要秩序的;但由谁来引导呢?现在的声音越来越多、越来越庞杂,到最后就是谁也不服谁。朋友说,这里为什么美国人会雇佣菲律宾人就很玩味了——菲律宾是个天主教国家,在价值观上跟西方基督教世界更相通。

技术悄然滋生的权力绕过了所有人的眼睛,但信息审查是真实存在的。(你看,我们的互联网环境在世界上也没有那么特殊嘛)

过去的“信息集权”提供了同一套世界的框架;哪怕你要质疑某个事实,要叫骂对着的也是同一个屏幕。而今天每个人都在自己的屏幕里接受现实,在传送到自己眼前的信息流里,营造自己世界的小泡泡——而且老一辈还带着上个时代的惯性:“那么多人都看了的信息,能不是真的吗?”。但外面还有个过滤的大泡泡呢。

信息是种权力无疑;我想对于很多人,这部片的隐喻是,我们以为今天的时代走向的是美丽新世界,其实背后并行着一个一九八四。——反正我对这种自由斗士的论调保持怀疑;有时不免有点“见到短袖子就想到裸体”的意思。

尼尔·波茨曼早在60年代就在《娱乐至死》里说过的话,到今天仍然适用:从有广播、新闻报纸、电视开始,这个世界的行动跟信息比率越来越小了,我们关注的大多跟自己眼前的事实、跟自己的生活无关。大多数事情不需要关注。而这个世界本身运行机制的复杂程度,远远超出一般普通人所能理解;这种理解也许是不必要的。 我们自己,是在为这个世界带来了更多的噪声,还是更多的秩序、平和呢?这个问题,互联网不会回答我们,技术也永远不会回答我们。

靠点击就能得来的东西并不真的属于我们自己。

这个世界会好的。不是因为技术,而是因为我们在把自己变好。

 2 ) 科技确实存在偏见,偏见就是它实际追求的一个目标,那个目标就是什么才能得到最多人的关注,什么才能吸引数十亿人

内容审查员就像是一名狙击手,我们的目标是违反应用程式规定的用户。 我妈妈总是告诉我,如果不好好读书,就只能跟她一样当个拾荒者,他们依赖捡垃圾为生,这是他们唯一知道的谋生方式。我害怕自己将来只能留下来跟着捡垃圾,这也是促使我用功念书的一个原因。 2016年1月,我画了一张男性器官很小的川普画像,叫做“让美国再次伟大”,它立刻爆红,数百万人在许多社群平台上疯传,几天后川普在竞选辩论中提到自己的器官尺寸,我记得有朋友打电话告诉我说,是你让川普在辩论中透露他的器官大小吗。 作为内容审查员,你必须要有原则,是你在决定人们是否该看到某张图片,所以头号重大错误就是批准裸照、 和女性胸部、男性器官,这没有容忍的余地。 一个虚构的作品,它并不暴力,也无关性爱,它只是一个人的裸体配上川普的脸,不懂为何人们会觉得人的裸体这么恶心。 这工作真的不好做,但最后却成了带罪恶感的乐趣,感到罪恶是因为我居然在看这样的东西,乐趣是因为我现在很享受看到的内容。 脸书基本上就是一家科技公司,有许多工程师经营,它重视自家产品,重视公司设施,它重视发展规模,重视用户体验,但它不是一家媒体公司,它不会考虑到内容或内容创作,或是内容编辑和审查的事,这些事并不在它的基因里面,只要脸书碰到有人说,“嘿,你们要为这内容负责的时候,他们的答复会是,‘哦,我们只是搞数学的,我们只负责写演算法,去提供你们想要的东西,我们不干涉编辑’”,但政治现实是在川普之后,在英国脱欧之后,这样的说法已经不行了,我们现在在一个点上,只要大众不接受现状,在某些点上政府就会立马介入,我认为脸书是了解这情况的。 YouTuBe一直希望能够跨越国界,因此从2007年左右,我们遭遇许多被封锁的情况,当土耳其政府不知如何与你取得联系时,他们索性关闭你在该国的服务。我们花了一段时间才弄清楚,是什么令他们感到不舒服,我们最后终于设法掌握了令他们不开心的特定影片,其中有些是关于凯末尔,有些则是他们声称违反土耳其法律的恐怖主义影片。我记得有一天我在凌晨两点,审查令土耳其政府感到不快的67个影片,从中做出哪些应该删除,哪些应该留下的决定,有个重点是对于一些影片来说,它们其实没有违反社群准则,所以一般不会从平台移除,可是却触犯了土耳其的法律,所以我们决定对土耳其用户采取IP位置封锁,土耳其用户将无法看到这些影片,我不喜欢这种解决方式,但这就是我们的做法。 街上聚集了许多了不起的人,警方在这里部署的人数相当多,我很好奇他们会在这里待多久,因为我知道只要他们一撤离,人们就会开始干架。 一些左派人士认为你政治不正确,我们这群人拥有枪支、子弹,受过训练,只要我们开始开枪射杀,我相信所有的赃东西很快就会消失。 人性归人性,而科技就只是种中性工具,并没有助长任何东西,但事实并非如此,因为科技确实存在偏见,偏见就是它实际追求的一个目标,那个目标就是什么才能得到最多人的关注,什么才能吸引数十亿人,成功转移他们的注意力,并且保持下去。 这项工作会损害你的大脑,让你觉得暴力是正常的,让你认为杀人,轰炸是正常的。 我不能让影片影响你,但这因人而异,有些人就是会受到画面的影响。 我突然自己,为什么要做这份工作,只是为了让人们认为上网是安全的,事实上在你的日常工作中,上处都是危险,我们在奴役自己,我们应该从麻木中觉醒,因为这并不安全,我们应该正视现实。 选择希望而非恐惧这需要勇气,期许我们可以建立比过去更加良好的环境,你必须乐观的认为你可以改变世界,我们投身其中,每一次都是一种联系,每一次都是一种创新,日复一日,日复一日,这就是为什么我认为我们一起投入的工作,现阶段比以往任何时候都重要。

 3 ) The cleaners 台词摘录

delete... ignore...

That's the two actions that a content moderator does every day.

"I protect the user who uses the app", said one of the moderators, as the president tried to protect his people by killing all the criminals.

"One of the misconceptions is that human nature is human nature, and then technologies are just useful tools: it's not amplifying anything - but this is not true, because technology does have a bias, and that bias has a goal, it's actually seeking a goal, it's the goal it's seeking that what will get the most number of people's attention, what tends to work on billions of people that's successfully attracting their attention out of that, and keep it; and not just getting their attention but getting them to share things, and so it turns out that our rage is actually good at doing so"(Cleaners, 2018, 1h6m).

“I sacrifice myself, yes, there will always be sacrifices, it will always be a part of life... it's my job to prevent the sinful images, I'm a preventer“(1h21m)

 4 ) 网络分裂人人有份

网络审查员的任务,是监视社交媒体上的发布内容,并做出合理化处理,包括防止儿童色情物扩散,觉察恐怖活动于未然,防止网络欺凌等,自动程序所无法完成的工作。

他们每天的处理指标是25000个,这意味着一天单击鼠标25000次。由于这份工作存在的本身就是秘密,作为社交媒体的清洁工,他们都要签署保密协议,不得向家人和朋友透露任何与工作相关的信息。

片子呈现了来自网络审查员,众议院、参议院对谷歌、脸书的听证会,前谷歌、推特法律负责人,大学教授,被删帖封号的艺术家,联合国言论自由特别报告员,记者,前脸书项目经理,前谷歌设计伦理负责人等多个角度的声音,

一个不得不面对的事实就是,社交媒体,确实加剧了人群的分化。精准的数据算法,只显示自己感兴趣的内容,屏蔽不想看到的内容,从人人都有发表自己意见的权利,慢慢演变成人人都只相信自己看到的才是真相。一次又一次的网络热点事件,反复证明一件事,没有基于共同事实认知的理性对话,只有不同阵营发泄情绪的对战。

20世纪我们关于世界的认知,正在被21世纪复杂的计算机算法重新编写,社交媒体的产品属性,决定了它为了存活下去,必须尽可能吸引更多人的注意,并设法不让他们厌倦,一个针对人性弱点,不断刷新认知底线的,充满戾气的,煽动对立,制造愤怒和恐怖情绪的平台,肯定比处处设限的平台能吸引更多用户的关注。

我们的个人喜好,决定了网络社会的变化和走向。没有人是孤岛,所以,今日的分裂局面,每个网民都有份。

 5 ) 【转载】信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人

原作者 全媒派 2018-10-24 仅供学习交流

信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人 qq.com

9月,加州女子Selena Scola一纸诉状把Facebook告上了法庭——因为看了过多暴力、血腥和色情图片,她患上了PTSD(创伤后应激障碍)。Selena是Facebook合作的第三方Pro Unlimited的内容审核员,负责删除Facebook上“剧毒、不安全、有害的内容”,包括色情、暴力、仇恨言论等。

对于PTSD,维基百科的解释是“指人在经历过性侵犯、战争、交通事故等创伤事件后产生的精神疾病”,常见于遭受重大打击后导致的精神创伤。然而,在互联网时代,没有性侵,也没有战争和交通事故,因视听感官长时间遭受刺激产生的伤害,不亚于物理刺激造成的精神损害。

新技术带来了繁荣的互联网产业,随之也诞生了新工种,内容审查员是其中的代表之一,除此外,还有事实核查员、论坛版主、合作伙伴经理等,他们的生存与困境成为了网络时代的缩影。

内容审查员与PTSD:隐匿的信息“擦洗工”,无处安放的焦躁

社交网络上,一头是梦想家用技术缔造的开放盛世——用网络建设一个连接世界的地球村,另一头的人躲在盛世的影子里,把好最后一道关卡——鉴定并删除变态的视频,这一点,人力比机器做得好多了,至少在当下是如此。

或者更早以前的论坛时代,版主们也担任着这个角色,但他们的规模和工作量远不如社交网络时代。据报道,仅Facebook一家,内容审查员的数量就达到了7500人。这些人甚至不是Facebook的员工,只是被第三方雇佣来的廉价劳动力。

2014年,《连线》杂志发表了一篇调查报道《社交网站上不为人知的隐匿职业:信息“擦洗工”》。担任“擦洗工”的廉价劳动力多分布在东南亚,他们可以拿着“美国水平”的工资,代价是“直面人性的恶”。

YouTube在美国本土雇佣的审查员要求更高,需要对东南亚员工审核过的视频进行二次过滤,公司许以YouTube的工作场所、办公福利等条件,甚至承诺转正机会,Facebook条件也是如此。

事实上,这些审查项目几乎是秘密进行,科技公司和外包员工、第三方签订保密协议,不允许他们向外透露任何审查细节,Facebook把这个秘密项目起名为honeybadger(蜜獾)。在此次起诉事件中,Selena暂时无法提供更多工作细节,她担心一旦违反保密协定,会遭到报复。

纪录片《信息擦洗工》海报(2018.5)

在Selena的起诉声明中,她提到Facebook和第三方公司都不曾提供心理干预以保证审查员的精神健康。但即便提供了心理医生,内容审查员也不知道如何开口讲述自己的经历。据《连线》杂志报道,YouTube审查员Rob说,YouTube给擦洗工们雇了心理咨询师,理论上谁都可以和他们谈心,但Rob不知道如何接近他们。据他所知,也没有谁去找过咨询师。所以他只能靠自我调节——喝酒喝得越来越多,身材也越来越胖。

而创伤之后,审查员们可能产生一辈子的心理阴影。Selena的起诉文件里写道:“她的PTSD症状可能会因为碰到鼠标发作,也可能是因为走进了一栋冷冰冰的大厦、在电视上看到一段暴力视频、听到吵闹的声音,又或者,是因为受到一点惊吓。”

如果要真正解决审查员们的心理问题,或许还是应该回归技术,比如提高人工智能的识别能力和审查效率。但目前看来,开放的网络世界背后,还有如此多阴暗和不堪,扎克伯格与科技巨头们在人工智能审查上所做的努力还远远不够。

Reddit版主:用爱发电,无薪且糟心的职位

Reddit,一家月活达到3亿的神奇网站。界面设计极其Old School,但因为许多细分、有趣的小组吸引了一个又一个小圈层爱好者。

相比于Facebook内容审查员的隐秘身份,Reddit版主似乎更为人熟知一些,他们有自己的账号,有删帖和禁言的权利,小组用户可以直接和版主沟通。不同的是,在Reddit上当版主没有薪水,全靠志愿者们用爱发电,他们也一样要遭受种族主义、性别歧视、水贴刷屏等垃圾内容的精神侵害,甚至是被用户直接攻击。

全媒派在《 不抬杠是不可能的!有人用五年筛出了60万优质杠精 qq.com》提到一个小组changemyview,该小组为了建立一个理性讨论的优质社区,启用了22个志愿者作为版主,24小时巡视新鲜发帖,如有不当,则会沟通或删除。

其它小组的版主工作模式也是如此,但生存条件可能更艰难一些,至少,版主人数达不到22个之多。而被审核的小组用户们可没有那么开心,极端的人,给版主们发去一条又一条的辱骂和威胁信息。

在Engaget和 Point发起的联合报道中,他们找到了10个Reddit版主。版主们管理着大大小小的小组,最大的达1600多万订阅者。但无论小组大小,他们的困境都是相似的,被辱骂、攻击、人肉、诅咒甚至死亡威胁,而Reddit官方,一次又一次忽略了版主们提交的被攻击报告。

版主Emily管理着“伦敦”小组和“新闻”小组,为了避免极端报复,她从来不暴露自己的性别,以免有人威胁“强奸她”。还有一些攻击和威胁,描述得具象又恐怖,让人光看文字就会起一身鸡皮疙瘩。

牛津大学实验心理学副教授Lucy Bowes认为,长时间的版主工作必然导致抑郁症、PTSD和焦虑症等精神疾病,工作时间越长,患病危险越高。

对于Reddit这样的社区来说,技术监管和人力监管不到位,内容过于野生是一大原因。但与此同时,注册机制过于松散,导致恶意账号删不尽,喷子们随便用一个邮箱又可以注册回归。即便是禁言72小时,用户被解禁后还是会继续攻击。

而Lucy认为,对于Reddit这样体量的公司而言,要解决版主们的问题,应该从公司自身入手,比如对新版主进行培训,加强汇报反应机制的建设,或是截屏留取证据,以确保未来起诉。另一方面,对于这些志愿者,Reddit也应该随时关注他们的心理健康,及时进行干预和治疗。

尽管体量大,提供咨询的话会增加不少成本,但对于一个依靠一个个小组支撑起来的庞大社区而言,这些愿意资源维持社区秩序的人才是Reddit的财富。

事实核查员:真相的代价

在巴西,一份299页的文件在WhatsApp的右翼群里疯转,里面有40名事实核查员的社交媒体详细资料。巴西网友视奸他们所有人的账号:看,这是他2011年发的贴,他就是一个左派分子。

这一切,只是源自于事实核查组织Agência Lupa和Aos Fatos在今年5月宣布的计划:与Facebook合作,做好今年10月的总统大选辟谣工作。事实核查员们将手动辨别信息流中的假新闻,并打上“Fake”标识,将假消息的影响力降低80%。

但打击也由此开始。

先是大V和右翼媒体发文指责,事实核查员的工作是做“信息审查”,后又有人画了幅漫画,把事实核查员画成了投资人乔治·索罗斯的宠物,在WhatsApp门口巡视。

接下来是死亡威胁。有人给Lupa的总监Tardáguila发信息“你看不到巴西的下一任总统”、“我们会挨个来收拾你”……

这并非孤例。事实上,同Facebook合作的34个事实核查组织都受到了网络谩骂、人肉等威胁,这对他们的工作造成了很大困难,尤其在媒体信任度本就不高的国家。

事实核查的进展并没有那么顺利,一是利益相关方和一些网民在疯狂打击,二是在Facebook方面,他们并没有对这34个事实核查项目投入足够的资源,甚至在态度上都不够强硬和坚定。

在巴西,Facebook从未就此次事实核查项目召开新闻发布会,反复要求的热线和邮件也迟迟没有开通,唯一有的,只是在今年5月发布了两条博文,一是承认网络暴力确有其事并谴责有关行为,二是宣布和巴西、墨西哥和哥伦比亚的事实核查项目的合作。

在Tardáguila看来,Facebook需要明白,这是他们的项目,公司必须要发声,“我们努力了三年,没有任何改变,这些改变必须由Facebook来承担”。为此,她也提出了一些切实可行的合作条例:

关于需要被核查的内容,平台需要更好地翻译相关通知。

Facebook方开通热线或邮件地址,用户和媒体可以询问事实核查项目的相关问题。

在每个国家建立和事实核查员的主要沟通渠道。

对Facebook的事实检查项目运作流程进行可视化,翻译至现有的合作国家。

定期与事实核查合作伙伴开会,了解项目进展情况。

合作伙伴经理:与170个编辑室共同产出

ProPublica在2016年推出了有史以来规模最大的新闻众包项目Electionland 2016,和全国大小媒体合作,以任务分派的形式合作完成大选报道。报道覆盖范围广,参与媒体多,资源利用率高。随后,ProPublica试着开了新的项目,也由此诞生了一个新的职位。

新项目名为Documenting Hate,一个追踪和报道仇恨犯罪和偏见事件的调查项目。新的职业则是合作伙伴经理(partner manager),目前由记者Rachel Glickhouse担任。她像一个统筹者,同时担任记者、编辑、研究员、社交媒体制片人、招聘、培训和项目经理。

Documenting Hate官方网站

通过合作伙伴经理的努力,Documenting Hate项目和150家国家/本地媒体,以及20家高校媒体建立起合作关系。项目的关键在于资源共享和合作报道,ProPublica搜集到的仇恨事件案例和数据都被统一上传到官方数据库保管,并向加入的媒体开放使用,比如公众提供的线索和故事、警方的案卷信息,真正实现了资源上的共享和合作。

与此同时,合作伙伴经理也会担任起“空中管制调解员”的作用,确保不同记者不会在一个事件上耗费精力,或是针对不同当事人,指派合适的记者跟进。

虽然类似Documenting Hate这样的新闻众包项目有利于报道资源的合理分配,但合作伙伴经理也面临着不小的挑战。加入项目的记者可能无法彼此合作,也可能有等级倾轧,又或者,记者们对项目的热情有一定的周期性,有的可能无法长期为这个项目效力,而在一些特殊时期,参与者会少得可怜。

尽管如此,在Rachel看来,众包模式依然会是未来新闻的发展方向之一,在编辑室的时间和资金都非常稀缺的时代,有一个中心化的项目聚合资源并进行再分配,自然能极大程度上缓解编辑室所面临的尴尬。

互联网浪潮下诞生的新职位固然有其局限性和困境,但菲律宾事实核查项目Vera Files的联合创始人Chua认为,类似于事实核查员遭遇网络暴力的事件,Facebook固然有保护事实核查员的责任,但如果Facebook无法保护他们,那记者必须自我保护,“新闻业有风险,事实核查同样如此。”身为大时代下的小个体,我们能做的,不过是催促科技公司解决眼下的问题,让个人迅速跟上这滚滚向前的历史车轮。

【参考资料】

FB内容审查员患PTSD

//www.businessinsider.com/content-moderator-sues-facebook-ptsd-2018-9

社交网站上不为人知的隐匿职业:信息“擦洗工”-钛媒体官方网站 tmtpost.com

//www.theguardian.com/technology/2017/jan/11/microsoft-employees-child-abuse-lawsuit-ptsd

真相的代价:事实核查员遭到的威胁与攻击

//www.poynter.org/news/these-fact-checkers-were-attacked-online-after-partnering-facebook

Reddit讨论区审核管理员遭仇恨言论攻击

//www.engadget.com/2018/08/31/reddit-moderators-speak-out/

新闻业的最新职位 - 合作伙伴经理 -如何在ProPublica的新闻编辑室工作

http://www.niemanlab.org/2018/10/chasing-leads-and-herding-cats-how-journalisms-latest-job-title-partner-manager-works-in-propublicas-newsroom/

 6 ) 网络审查员

你知道为什么有的微博内容会被官方删除吗?你知道为什么B站博主发的视频有一些不能通过审核吗?你知道为什么微博热点会被撤下吗?……这些背后存在着特殊的工种,那就是“网络审查员”。

《网络审查员》是我无意间在微信公众号看到的,吸引我的就是它的特殊,这是我从未听说过也从未关注过的一个工种。出于好奇,我利用下午的空闲时间将其看完。

这篇影片是纪录片,它讲述着一群网络审查员的真实工作。什么是审查员?就是网络的清道夫,清理不符合规定的图片,影片。他们是由互联网一些平台比如脸书,推特等等来和菲律宾的外包公司合作,清理网络上的罪恶(黄色内容,反政治言论,血腥暴力等)。塔曼的工作看似简单,实则不易。

在菲律宾,很多工作的薪水都很微薄,为了能够获得好点的生活,会有一些人选择了网络审查员这个工作。有个女孩面试的时候,看到的视频是恋童癖,一个女孩正在进行口交,而另一个影片则是,一个女孩身上都是精液。对于这些画面,她无法忍受,但因为工作需要,还是要克服自己心中的那个坎。另一名女审查员在步入这个行业之前是很单纯的,一些敏感词比如肛交之类的含义她并不清楚,为了这份工作,她甚至通过看性爱片进行学习这些词。除此之外,因为全球化劳动力,对于审查的内容多数是来源于其他国家,而对历史背景一无所知的情况下,审查的难度就会增加。

在审查的眼中,有些艺术不得不删除。有个女艺术家画了一个川普裸体,并且画上了一个很小的生殖器。虽然审查员知道这幅画表达的意思是,川普的能力和他的生殖器一样弱,不适合领导美国。但是涉及到裸体的图片是审查的底线。尽管艺术家自己认为,为什么会有人觉得裸体恶心。还有一个摄影师,他对叙利亚十分关注,他将一个溺水的小男孩发布到他的脸书上,不到三天就被删除。虽然他想呼吁战争的可恶,政治间的博弈造成无辜生命的丧失,但是影片涉及到sisi影片,审查员不得不删除。

审查在一定程度上,阻挡了黑暗,但也阻挡了真相。叙利亚战争的打响,很多难民都会通过手机记录真实的情况,最后却无法过审。

联合国言论自由权特别报告员说“这些公司越来越多权力决定什么留下什么撤下,利用人乐于安逸,讨厌努力,讨厌挑战的心态。随着时间的推移,总有一天,丧失我们进行批判性思考能力,妨碍接收挑战的能力,造成限缩言论。”

网络审查员的本质是不容犯错,他们决定着人们将会看到什么。而看到的这些东西,很可能引发战争,霸凌,犯罪现象等等。所以他们小心翼翼。这是一项不轻松的工作,更是一份艰巨的责任。有些黑暗是光无法到达的地方,只有审查员能替我们前往。虽然有利有弊,但是利大于弊总是好的。

(摘抄:社交媒体是中性的,不会助长什么,但如何才能吸引眼球增加关注是原因,而愤怒是最有效的诉求。)

 短评

你好,你发表的关于《The Cleaners》的短评,因为含有违反相关法律法规或管理规定的内容,已被移除。感谢你的理解与支持。——豆瓣电影

4分钟前
  • 朝阳区妻夫木聪
  • 还行

引人深思。同样的内容在不同的语境下是不一样的,讽刺或者谴责是不是就可以?(实际工作中真的就遇到这样的情况啊)提供一个“干净”的环境是不是就不利于理性批判呢?非常不爽的是,这样一个“国际纪录片节”竟然放个样片给我看,中间字幕还因为剪辑版而字幕对应不上。

5分钟前
  • vivi
  • 推荐

这群为了网络的健康与和谐默默付出的人们,难以想象他们每天要面对多少充满血腥、暴力、色情以及政治恐怖的镜头。他们目睹过自杀,目睹过砍头,目睹过性侵,出现一点小小的纰漏都可能会造成死伤甚至战争,他们在不为人知的地方守护着世界的和平

7分钟前
  • greenjoker
  • 力荐

看!这盛世,时代之恶,我在这儿先糊你脸上为敬。

12分钟前
  • 朱马查
  • 推荐

当影像创作紧紧地与道德与立场捆绑,纪录片本身也跳脱开单纯的新闻属性,质问甚至鞭挞所有人习以为常的伦理框架。从网络清道夫,到社交媒体时代的仇恨传播,一块荧幕前后是监控的过犹不及,和话语的无孔不入。信息量大,有些话题点到即止,拍的精细完整,但再做扩充也无妨。

16分钟前
  • 鸡头井。
  • 还行

看到扎克伯格意气风发的脸,就像是这个世界真正的领导者一样。可怕的是竟然还有人把自己和国家的人民与希特勒和被屠杀的犹太人类比,渺小无力的我们只能对着社交媒体冒泡。

17分钟前
  • 噼里啪啦
  • 推荐

一部片顶十季《黑镜》,而且与当下联系更紧密,讨论的核心仍处在on-going状态,没有人知道之后会发生什么改变。手法无甚高明,但贵在争议的提出和创作者的态度,毕竟很多难题并不可能也并不应当由这部纪录片来回答。

18分钟前
  • Lycidas
  • 力荐

設計的場面和台詞過多,集中於弘大命題而遠離了作為網絡審查者的“人”。始終陷在一種美感過度的不適中。講演現場等視頻的活用很好。“被審查”的部分影像,那些自殺情色宗教與恐怖暴力,除了展示,真的沒有更好的方式了嗎?對影像資料的處理和使用,需要倫理上的再思考。JIFF0507M9

22分钟前
  • 看守煙霧的人
  • 还行

特别严肃、深沉、拓展视野和引人熟思的一部纪录片。新网络时代社交媒体在左右我们的思维动向,可怕的是它利用我们的潜意识,就在我们毫无意识之间替我们决定了一切。而被牺牲的网络审查员,真的新时代最悲伤职业。

26分钟前
  • L.C.
  • 力荐

一部上影节北影节选片首轮一定被毙的纪录片出现在即将被迫全面退票转为免费包场的西宁,来自一个全球最大的被清理者组成的国度。

30分钟前
  • 黑狗成
  • 推荐

① 网络审查的存在是必要的,如同现实生活中的质检、保洁和垃圾分类等工种;但对「垃圾」、「有害」的标准界定是模糊的;② 人与人之间的道德标准、族群与族群之间的习俗观念、国与国之间的法律政策都是存在差异,而遍及全球的社交网络平台必然无法普适所有地区人民;③ 平台工具的中立属性,与吸引点击的传播逻辑,形成天然矛盾;④ 国家和联合国都难以解决的矛盾争端,居然需要距离事发千里之外、月入几千元的审查员做出判断,真心无奈。

34分钟前
  • 十一伏特
  • 力荐

索爾仁尼琴說過“每個人有不知情的權利”,但是人又卻是好奇和獵奇。前幾年Dark Net第一季的其中一集就對網絡審查員有過展現。感覺這部紀錄片是擴展版,而且選取的事例頗具典型性。我依然覺得對於互聯網(尤其是移動互聯網)要採取謹慎甚至消極的態度。整個片最讓我印象深刻的是NGO組織對敘利亞內戰的社交網絡視頻爭分奪秒的保存。畢竟,很多視頻基於版權和審查已經無法被觀看,而本身又具備價值。其實,“知道太多”的審查員和違規視頻圖文資料庫同樣是個不穩定的危險因素。難道就不怕造反嗎?

35分钟前
  • 熊仔俠
  • 推荐

常在河边走哪能不湿鞋

40分钟前
  • 推荐

很有意思的视角,第三世界廉价审查员,被剥削的不只是重复性劳动,还被迫承受了最为骇人听闻的精神暴力。后半部分上升到社交媒体就比较泛泛而谈了,无非是民主和民粹的讨论,作者立场也过于明显。这部电影本质还是猎奇,但也只有冲击力和未知能引发思考。

44分钟前
  • 阿暖
  • 还行

不涉及处在局域网的我们,主要介绍采访不存在的欧美几大上传类社交网站的图片视频的人工审查员,他们居然都是在菲律宾的当地人,每天面对两万多件的色情暴力政治战争等敏感信息。梦到大量不同男人生殖器的女基督徒,还有的看过上百段斩首的影像,在自残部门调离不成而自杀的员工,叙利亚老百姓拍摄的那些和isis的如何处理,开放网络后只识脸书的缅甸人被假消息散播利用挑起的大屠杀,最后现身的扎克伯格发布会好像把矛头直指大公司在建立自由之地的同时今后要怎么走向,穿插在美国被诉讼而改变准则的几次事件,对了解那些人背后的操作程序和世界阴暗面有不少直观的感受,联想在高墙之内被保护的这片土地更加唏嘘。

45分钟前
  • seabisuit
  • 推荐

发人深思的优秀纪录片,不能忽视的人群——网路清道夫

50分钟前
  • 妮可妍妍
  • 力荐

“Delete, delete... Ignore, ignore”,以网络世界不为人注意的审查过滤工作展开,用Google和FB做引子,到最后拉开成了对极右思潮的兴起、政治讽刺的界限还有中东和罗兴亚人的全面涉及,88分钟里满满的信息量和各种立场。勾勒了网络世界近年来除去深网、色情交易和信息安全之外最严峻的现状。无法想象各位清道夫需要在工作中承受多少压力与伤害,才能换得一份维持温饱的工作;女孩穿行于垃圾堆的画面映照,十分加分。

54分钟前
  • 基瑞尔
  • 推荐

脸书YouTube推特上,内容合法不合法,是让一群外包的菲律宾人来审查。难怪影片中,故意让审查员看两张照片,一张是获普利策奖的越战照片《火从天降》,因为小女孩全身赤裸,被删;另一张,伊战美军虐囚事件,审查员看成了ISIS士兵在虐美军俘虏,被删。

59分钟前
  • bugz
  • 力荐

清道夫不是人干的活。每天看各种黄色暴力血腥视频,有害身心。审查员有自杀的,也有宁愿回去捡垃圾,也不再看那些网络垃圾。

1小时前
  • 伊壁鸠鲁
  • 推荐

审查;还以为是日本人做的,原来是德国人;色情delete,战争暴行(宣传恐怖delete,反战ignore)但作为网络守望者的这部分菲律宾人不可能了解那个背景不好判断,忽略的害处:罗兴亚人的迫害,稀疏的言论自由:人里面不成熟、容易受恶影响的还是不少的,审查是一种偷懒的方式,人类就不用自己费劲去判断了,政治言论:油管的仅对该国ip屏蔽,也算厚道,那为啥我们不行?(大概扶植本国经济吧,也能偷懒,毕竟自己人好管);审查员自己的影响,每天看这些势必有影响(发条橙);网络使全球人心的共通,对于审查员更明显;言论自由观点(我的):事物都有丑恶一面,如果你没看到,说明你还不了解它;人总是需要假象的敌人(鄙视对象),外国移民、CXK。

1小时前
  • 马828
  • 力荐