How Do You Find an Illegal Image Without Looking at It?
5 days ago
- #child safety
- #perceptual hashing
- #CSAM detection
- 2025年,美国失踪与受虐儿童中心收到2130万份报告,涉及6180万份儿童性虐待材料文件。
- 儿童性虐待材料检测依赖感知哈希技术(如PDQ、PhotoDNA)来匹配已知图像,而无需查看内容。
- 机器学习分类器可检测新的和AI生成的儿童性虐待材料,但误报率较高。
- 视频检测使用TMK+PDQF技术对时间结构和视觉平均值进行指纹识别。
- 行业模式:Hasher-Matcher-Actioner将指纹识别、匹配和操作分离。
- 误报与漏报的权衡是一项关键的道德和技术决策。
- 生成式AI制造新的儿童性虐待材料,并使人审流程不堪重负。
- Cloudflare CSAM扫描、Thorn Safer和Google内容安全API等工具可供使用。