Site icon 暗网里

警方通过暗网恶意软件日志识别CSAM恋童癖者

暗网上的信息窃取恶意软件日志已识别出许多下载和分享儿童性虐待材料 (CSAM) 的个人,这突显出一种新的执法技术。

这些信息使 Recorded Future 的 Insikt Group 能够识别访问 CSAM 分发门户的 3,324 个帐户。据 BleepingComputer 报道,分析师使用窃取的数据跨平台追踪这些身份,获取用户名、IP 地址和系统特征。

执法部门掌握这些信息以识别肇事者并进行逮捕。Redline、Raccoon 和 Vidar 等信息窃取者日志包含关键数据,包括密码、浏览历史记录、加密货币信息等。暗网打包并出售这些记录,为犯罪活动提供便利。

2021年 2 月至 2024 年 2 月期间,Insikt 通过交叉引用被盗凭据与已知的 CSAM 域来识别罪犯。他们在删除重复项时发现了唯一的用户名-密码匹配。

揭露 CSAM 罪犯

研究人员可能会使用信息窃取恶意软件将 CSAM 帐户用户与电子邮件、银行和社交网络帐户关联起来。数字货币交易、浏览历史和自动填充数据提供了额外的见解。

对信息窃取者数据的开创性使用表明其有潜力改善儿童性剥削的追踪和定罪。

这一发展发生在儿童掠食者越来越多地使用人工智能 (AI) 制作儿童色情照片之际,这阻碍了执法部门防止网络性剥削的努力。据CNA 报道,

斯坦福大学互联网观察站发现,人工智能技术让犯罪分子能够根据真实儿童的照片制作虚假图像和视频,从而增加儿童性虐待内容。

圣何塞州立大学司法研究系副教授布莱斯·韦斯特莱克指出,网络犯罪分子可以创建“他们能想象到的任何东西”的图像,这凸显了执法部门的担忧。他补充说,CSAM 现在在社交媒体和私人网站上广泛存在。

截至 2023 年,美国国家失踪与受虐儿童中心的网络举报热线记录了超过 3600 万起疑似儿童性虐待事件,凸显了对受害者及其家人的普遍影响。

美国拟议的《儿童网络安全法案》和加拿大的《网络危害法案》试图让社交媒体公司对有害的人工智能生成的材料负责。

人工智能阻碍美国执法部门打击网络虐待儿童的努力

然而,据《卫报》调查,社交媒体公司使用人工智能进行内容审核,使得儿童性虐待的检测和举报变得更加困难,或许可以让罪犯逃脱监狱的惩罚。

美国法律要求社交媒体企业向美国国家失踪与受虐儿童中心提交儿童性虐待报告。2022 年,美国国家失踪与受虐儿童中心从私人和公共来源收到了超过 3200 万份疑似儿童性剥削报告,包括 8800 万张照片、视频和相关材料。

Meta 包括 Facebook、Instagram 和 WhatsApp,生成了 84% 的此类报告,数量超过 2700 万。这些网站的 AI 算法识别出可疑内容,人类版主会对其进行分析,然后再向 NCMEC 和执法部门报告。值得注意的是,执法机构只有在获得报告公司的搜查令后才能访问 AI 生成的 CSAM 报告,这可能需要几天或几周的时间。

NCMEC表示。

分析服务部门副总裁 Staca Shehan 指出了法律限制:“如果公司在向 NCMEC 报告之前没有表明他们查看了该文件,执法部门就不能在没有法律程序的情况下打开或审查它。”

十多年前,法官裁定 NCMEC 的调查是政府行为,要求根据第四修正案对任意搜查和扣押进行隐私保护。

儿童安全和法律专家警告说,这种延误可能会损害调查,导致证据丢失并危及儿童。一位匿名的美国助理检察官指出,这种延误对社区安全构成了高风险,因为这使犯罪分子能够“继续他们的活动而不被发现,将每个孩子置于危险之中”。

尽管面临挑战,但人工智能仍帮助警方和团体打击网络儿童剥削。

美国国家性剥削研究中心高级副总裁马塞尔·范德瓦特博士称人工智能的功能是“增强智能”,聊天机器人可以与恋童癖者在线互动,帮助执法人员识别和追捕罪犯。

Exit mobile version