性虐视频正成为施暴者帮凶!技术公司如何精准“拆弹”,防止受害者视频二次传播

由大数据文摘制作

作者:刘俊欢,曹培新。

3月22日,韩国N号房事件曝光,以裸照威胁放纵女性、对受害者进行性剥削的产业链终于曝光,与N号房事件相关的66人落网。

韩国女性受害者多达74人,其中16人是未成年人,最年轻的受害者是一名只有11岁的小学生。

对于以N号房间为代表的大量参与性侵犯的人来说,韩国并不是一个孤立的案例..

4月9日,据南方之窗报道,烟台杰瑞石油服务集团有限公司副总裁、首席法律官兼中兴通讯股份有限公司独立非执行董事鲍自2016年前后涉嫌性侵14岁养女,引发网络热议。

据报道,在过去三年里,李星星一直处于半辍学状态,其间发生了多次自杀企图。

据南窗新闻报道,透露,2016年后,鲍将放映自己拍摄的涉及未成年人性的影片,影片中涉及父亲、母亲和孩子之间的色情场景,并给予他们言语上的“安慰”。

2019年4月9日,这是李星星第二次报案,但警方查证后发现,电视上“儿童色情”的观看记录“消失了”,电脑里的文件也找不到了。由于缺乏决定性证据,目前的证据多为孤立证据,难以取证。5月,李星星收到了《撤销案件决定书》。

2018年,韩国4万多名妇女抗议并敦促政府采取措施,解决涉及秘密拍摄色情照片的犯罪问题。

然而,从3月份的N号房到今天的李星星,不到一个月的时间,未成年人性侵案件不断曝光,让人不禁怀疑这座冰山下到底有多少受害者。

目前,虽然亚马逊、脸书等科技公司能够识别和检测相关非法视频,但仍无法阻止未成年人上传甚至二次传播性侵视频,该技术仍难以从源头有效规避和禁止,无形中对受害者造成二次伤害。

对于弱势群体来说,科技如何更有效地保护他们,是每一个有技术的人都需要思考的问题。

无奈的科技公司:为什么不能从源头禁止上传这些视频? 虽然N号房的主犯已经入狱,但受害者的噩梦远未结束。

数字时代的记忆属性让搜索引擎、社交网络和云存储成为这些视频和照片的存储角落成为可能,也让这些可怕的记录在互联网上传播,寻找“二次受众”。这些流入互联网洪流的视频就像隐藏的定时炸弹,随时可能被犯罪分子引爆。

这些视频也正在成为包余明侵略者的可怕“帮凶”。近年来,科技行业意识到互联网上儿童性侵视频的严重性,开始下大力气甄别相关视频等材料,但效果似乎并不显著。

那么,为什么互联网公司不能提前检查,从源头上禁止上传这些可怕的视频呢?

首先,随着互联网的发展和用户的增加,相关视频的数量呈指数级增长。

据《纽约时报》报道,仅2018年,互联网公司就发现了创纪录的4500万张疑似照片和视频,是前一年的两倍多。

《纽约时报》用非常生动的视觉画面展示了近年来网络上儿童性侵视频的增多。

视觉作者里奇·哈里斯,数据来源:国家失踪和受虐待儿童中心。

其次,虽然互联网公司的搜索技术一直在进步,但路比魔高一尺。面对躲在暗处,单方面秘密进行的不法分子,总会有漏网之鱼。

《泰晤士报》曾经审查了超过10000页的警方和法院文件,发现恋童癖者可以很容易地使用加密软件来隐藏自己的身份。一个恋童癖者甚至经营一个网站,网站上有多达17000张这样的图片。

亚马逊的云存储服务每秒处理数百万次上传和下载。根据联邦当局的说法,苹果不会扫描其云存储并加密其消息应用程序,因此几乎不可能检测到它。Dropbox、谷歌、微软等消费类产品会扫描非法图片,但只有在有人分享时才会扫描,上传时不会扫描。

包括Snapchat和雅虎在内的其他公司长期以来只审查照片,而完全不审查视频。

最后,隐私限制也让这些互联网公司束手束脚。

脸书是世界上最大的社交网络,它将全面扫描其平台,占去年科技公司标记的图片的90%以上,但该公司没有使用所有可用的数据库来检测材料。脸书宣布,图片的主要来源脸书信使最终将被加密,从而大大限制了审查。

“每个公司都在寻求隐私和安全之间的平衡,他们不想在公共场合这样做,”脸书和雅虎的信息安全主管亚历克斯·斯塔莫斯说。“这些决定实际上对孩子的安全有着巨大的影响。”

高科技公司更有可能在其平台上查看照片、视频和其他文件,以进行面部识别、恶意软件检测和版权执法。然而,一些企业表示,发现滥用内容是不同的,因为它可能会导致重大的隐私问题。

人们不希望看到科技公司浏览某人的照片和视频,自动扫描中标记的图像几乎总是由一个人稍后查看。

美国司法部副总检察长苏吉特·拉曼在接受《纽约时报》采访时表示:“一方面,保护个人信息非常重要。“另一方面,互联网上破坏性的东西太多了。”

技术公司的补救措施是在视频出现后删除,通过将新检测到的图像与素材数据库进行匹配,防止滥用图像的回收造成伤害。

目前检测非法图像的主要方法是微软首创的PhotoDNA应用,保护了无数受害者免受反复伤害。

隐私与技术的平衡:为图片打上专属“指纹”,找出非法图片全网删图

早在2009年,微软和加州大学伯克利分校的教授哈尼·法里德就创建了一个名为PhotoDNA的应用程序,它可以使用计算机识别照片,甚至修改照片,并将其与已知非法图像的数据库进行比较。这项技术可以帮助查找和删除互联网上儿童性虐待和凌辱的图片。

如今,PhotoDNA已被世界各地的组织使用,并帮助发现、删除和报告了数百万张儿童性虐待和凌辱的图片。

PhotoDNA的工作原理如下。首先,PhotoDNA创建了一个独特的图像数字签名(称为“哈希”),类似于人的指纹。

然后将数字签名与互联网上其他照片的签名(哈希)进行比较,就可以找到相同图像的副本。

当与包含先前识别的非法图像的散列数据库匹配时,PhotoDNA可以帮助检测、干扰和报告非法图像的分发。

在隐私保护方面,PhotoDNA不是面部识别软件,不能用于识别图像中的人或物。此外,PhotoDNA创建数字签名的过程是不可逆的,因此不能用于重建图像。

微软已经向国家失踪和被剥削儿童中心(NCMEC)和一些公共组织捐赠了PhotoDNA,以打击对儿童的性虐待和凌辱。

“我们的目标是防止这种伤害。有了PhotoDNA,我们将能够与全国各地的在线服务提供商合作匹配这些照片,这样我们就可以停止照片的再分发。”NCMEC首席执行官厄尼·艾伦说。

防止性侵,AI能做什么?

此前,韩国N号房事件被广泛传播,一些犯罪分子以各种理由诈骗女孩的裸照,然后开始利用这些裸照威胁女孩从事性工作,其中年龄最小的女孩只有11岁。

面对这些受害者,AI能做些什么?

2018年下半年,微软组织了一场黑客马拉松比赛,来自脸书、谷歌和其他公司的工程师和法律专家参加了比赛。大赛的初衷是打造能够有效检测这些“互联网大鳄”的AI工具,建立受害者的信任。

微软还与其他公司进一步合作,优化AI工具,使其能够根据功能对两个人之间的对话进行评估和评级。如果对话的内容有风险,这些对话将被发送给人工智能进行审查。

如果系统识别出侵犯未成年人人身安全的风险,如提及私人聚会等。,大赦国际将通知当地执法机构和国家失踪和受虐待儿童中心。

微软首席数字安全官考特尼·格雷瓜尔(Courtney Gregoire)表示,他们已经能够应对并报告这个问题,但无法预防。

脸书全球安全负责人安提戈涅·戴维斯(Antigone Davis)去年也向英国《金融时报》透露,他们在过去几年里一直在与儿童保护组织合作,开发保护平台上儿童免受侵害的方法。

根据安提戈涅·戴维斯的说法,相关措施包括当有人在Messenger和Instagram DM上要求与儿童进行私人聊天时发出警报,或者即使未成年人多次拒绝也试图索要联系方式。

除了脸书之外,推特还积极响应报告对儿童可能的性虐待行为的政策。推特表示,一旦发现某账号发布儿童色情内容,推特官方会在不通知相关方的情况下立即删除,并及时审核其他用户的举报。

尽管如此,目前的技术仍然无法在问题发生之前预防问题,但我们仍然把希望寄托在这些科技巨头身上,希望用技术让互联网变得光明。

参考链接:

https://www . nytimes . com/interactive/2019/11/09/us/internet-儿童-性-虐待. htmlhttps://TechCrunch . com/2019/01/10/unsafe-search/https://MP . weixin . QQ . com/s/4ye U6 wceg 78 lfpfpfticalihttps://MP . weixin . QQ . com/s/vzcahanzhaelzpvqr0 aswhttps://MP . weixin。

 


posted @ 21-10-29 07:16  作者:admin  阅读量:

Powered by 国产精品天天在线 @2018 RSS地图 HTML地图

2013-2021 版权所有