每天能看俊男美女翻云覆雨?鉴黄师:丧失男人的乐趣

时间:2019-11-29        

  在那里,他们不需要具备多牛X的技能,工作内容极其简单,但工资和福利却超乎想象。

  在2013年,由百度、腾讯、金山等10多个互联网公司组成的“安全联盟”曾以20万高薪招聘“首席淫秽色情鉴定官”,很快就收到了超过4000份应聘简历。

  那样的风光日子,早已成为过往。如今鉴黄师成了很多了解真相的人避之不及的岗位。

  要在这里做一名鉴黄师,在专业知识上,要做到吊打各路老司机,不怵任何考验,比如:

  文字题:“科技处女干事每月经过下属科室都要亲代24换机等技术性器件的安装工作”,在这句话中,一共有多少个淫秽色情词汇。

  此外,他们至少还得满足三个硬性要求:已婚、身体及心理素质极佳、极度耐心。

  2016年5月,警方曾破获一起利用微信和百度网盘销售淫秽视频的案件。为了尽快量刑定罪,六名鉴黄师熬夜看片儿,半年刷了5万多部淫秽视频,看得“视力明显下降”。

  一位叫陈锋的民警就有过惨痛经历,“送来的鉴定光盘上印着男女裸露的图像,一打开却是《还珠格格》。”但为了防止淫秽色情内容被藏在电视剧的某个片段中,陈锋不敢快进,结果“从头到尾都是《还珠格格》....”

  也有新晋鉴黄师看了几小时《猫和老鼠》没看出毛病,但老民警只几分钟就察觉出问题所在,语重心长地说道:下次戴上耳机。

  夜以继日地鉴黄后,不少民警都表示,“对身体伤害很大。”“鉴定完,最不想看到的就是电脑、电视。”

  发展到今天,鉴黄师已经是社交媒体、短视频平台、直播平台,乃至电商等各行业的标配。

  在社交软件Soul上,一位鉴黄师说,“永远不要在我面前开车,我看过的片子可能比你看过的电视剧都多。”他还落下了职业病:看到肉色就往不和谐的方向脑补,老想着和谐,全部和谐掉!

  《红星新闻》曾采访过一名语音社交平台的鉴黄师,在面试时,考官第一个问题就是,“你有男朋友了吗?”后来她才明白过来这问题的含义:没处过对象的人,根本无法胜任这份工作。

  他们的筛查范围里,埋藏着各类奇行种。比如在评论区,买了内衣的顾客晒买家秀,“遮了脸,露了点”;买到劣质纸尿裤的妈妈,生气地晒出了女儿被捂烂了的下体;买了痔疮膏的人展示患处,表扬“立竿见影”.....

  很多人在成为鉴黄师前,都抱有一定好奇心,以为能免费看到不为人知的大尺度画面。

  因为他们要审核的,一般来说不仅是色情,还有各种暴力、自残、仇恨等不良内容,随便拿出一个视频都能让你觉得“人善论”就是扯淡。经典:2016年勇士VS雷霆G6 汤普森逆天表演 勇士老板跪了!含录像

  例如负责审查儿童内容的人,每天都会看到儿童被猥亵、强奸的视频和图片,最小的只有6个月大......很多长期审查儿童色情的人,日常生活中看到有人接触孩子,甚至下意识地想报警。

  在一部关于网络审查的纪录片《The Cleaners》中,一位直播审查员曾眼睁睁看着面前的人上吊自杀,最后脖子都断了,像个木偶一样垂了下来。那场直播有3000多人观看,还有人起哄。

  审核极端内容的审查员,常要面对恐怖组织的处决视频,这当中有枪击,还有用匕首进行的漫长斩首。

  战争中被剖腹、溺死的受害者;参与屠杀的儿童士兵;一只猫被扔进微波炉.....

  上传视频的人,通常就是施暴方。随着互联网在全球的普及,这些人急欲让更多人欣赏其“杰作”,于是令人作呕的内容不减反增,随时都可能出现在你手机上。

  如今在Facebook、YouTube,以及国内的微信、抖音等,每分钟都能产生你一个月不眠不休都看不完的新内容。在这海量信息中,就夹杂着、虐杀、自残、色情、极端组织言论等等内容。

  这也是为什么内容审核成了不少互联网公司的必备技能,并渐渐有了正儿八经的上岗培训。

  负责审查色情的,上岗前必须了解各种有关下半身的脏话,对男女的人体构造研究透彻,对人类诸多的变态癖好吃个通透,对最新上市的成人用品了然于胸。

  负责审查恐怖组织的,要记住几十个恐怖组织的各种信息,比如他们的旗帜、制服、口号。

  而像在Facebook等平台,审查员还要能做到细致地归类,将内容放到具体语境下进行区分。因为当审查员判断失误,Facebook就很有可能涉嫌侵犯,最终遭殃的还是审查员,被扣工资或被辞退。

  在这样高度紧张的工作中,审查员都练成了火眼金睛,绝大多数不良内容都逃不过被删除的命运。

  2017年3月,一名15岁美国少女遭多名男子性侵,这一情况被直播到Facebook上,40人参与观看,却没有一个人报警。

  同年4月,一位泰国男子在Facebook上直播杀害11个月大的亲生女儿,随后自杀。视频在Facebook上挂了近24个小时,还被上传到其他平台,大量用户都看到了整个过程。

  前两年,美国微软公司网络安全团队的两名员工把微软告上法庭,因为他们查看了大量儿童性侵、谋杀的视频和图片,出现了严重创伤后应激障碍症状,要求公司赔偿。

  因为内容审查技术含量不算高,是个劳动力密集型产业,所以各大科技公司的内容审核员工大都是通过外包公司找来的第三世界国家或不发达地区的人。

  尽管时薪低至1美元,但一家人的吃穿用度,或许就指望着它,所以他们只能极力忍受。

  在纪录片《The Cleaners》中,一位姑娘负责审核侵犯儿童的内容,这些内容谁也看不下去,但必须看完才能给出评判。最后,她放弃了这份工作,宁可回老家,和父母一起捡垃圾。

  这种事发生得愈发频繁。为了防止更多内容审查员萌生退意,外包公司开始和他们签下协议,必要时以此要挟——违约要赔付高昂的违约金。

  在他们当中,只有极少数人能以一种崇高的使命感激励自己,保持着相对健康的心态。

  “世界上大多数正常人都TMD是变态。当我离开那里时,我对人性感到厌恶。”

  更严重点的,会像上面提及的微软员工一样,产生创伤后应激障碍症状,乃至出现幻觉、精神分裂和抑郁等症状。

  最绝望的人选择一了百了。在纪录片中,一位负责审查自我伤害的员工在看过海量的自虐视频后,不堪重负,有一天突然没去上班。等他同事到他家一看,发现已经自杀了。

  尽管很多公司都会对内容审查员进行心理辅导,但在高强度工作下,他们的求生欲望早被消磨殆尽。2019北京注册会计师报名官网:中国注册会计师协会

  话说回来,这些为大众筑起长城的内容审查员到了崩溃的边缘,那些公司真会费心施以援手吗?

  Facebook上曾有一张全身赤裸的小女孩在越南战争中逃离汽油弹袭击的照片被AI算法标记出来,随即被管理员删除。这张照片正是1973年荣获普利策奖的《火从天降》,却被AI误认为是儿童色情。

  在一些测试中,AI还把沙漠识别为色情,而稍加处理的真色情图片,却被识别为正常。

  在真实生活中,比这些更复杂的情况多如牛毛,AI还需要海量的高质量数据“喂养”,才可能独立做出正确判断。

  正因如此,那些为我们背负黑暗、持续战斗的人,无论是谁,身在何处,都值得深深的敬意。

跑狗报吧| 开奖结果智能走势图| 世外桃园藏宝图| 香港天龙图库总站| 奇人原创论坛| 香港马会| 百家神算| 高手收集杀肖统计论坛| 牛魔王管家婆开奖结果| 今期天线宝宝点特玄机图|