2024年最新教程: Telegram 内部如何执行内容审核?
2024年3月,澳大利亚互联网安全监管机构 eSafety 开始对 Telegram 的审核实践进行调查。Telegram 向监管机构披露了其非法内容拦截系统的一些细节。以下是整理后的重点内容,让你能快速了解 Telegram 的内容审核是如何进行的。
一、私聊内容:用户举报才会介入
Telegram 一向以保护隐私著称,在私聊方面,它不会主动扫描聊天内容,也不会查找非法信息。只有当收到聊天对象的举报,才会启动进一步审核,比如自动检查或转发给人工审核员。否则,私密聊天始终保持封闭状态。
二、加密聊天:高度保护,连举报都难介入
Telegram 的"加密对话"功能更加严密。即使用户举报聊天内容,系统也不会将聊天记录提供给审核人员。相反,它使用一种名为"替代信号"的技术,通过不公开的方式分析聊天异常,而非直接查看消息内容。
三、群组与频道:是否公开决定审核程度
Telegram 将频道和群组划分为"公开"与"私有"两种。公开频道和群组更容易受到内容审核,禁止暴力、极端主义和非法色情等内容。一些看似私有的频道,只要分享了邀请链接到公开社交平台,也会被视为"可公开访问",同样会接受审核 。
此外,Telegram 表示,他们会自动扫描群组或频道中上传的照片与视频,以检测是否包含已知的非法内容,比如恐怖主义宣传或儿童色情。
四、自动检测机制:AI + 人工结合
Telegram 配备了一套自动检测系统,能识别图像、视频和文字中的潜在非法内容。这个系统不会随便扫描用户内容,而是主要用于被举报的消息或特定高风险区域。
一旦系统检测到可能违法的内容,比如极端主义或儿童虐待材料,会根据AI模型的判断力,决定是直接删除,还是交由人工进一步审核。大约有65%的疑似极端内容,会由审核员再次确认。
五、已知与潜在非法内容如何处理?
- 已知非法内容(如被欧洲刑警组织或Telegram内部确认的素材):会自动在所有群组和频道中扫描(不包括私聊)。
- 潜在非法内容:只有在收到举报后,Telegram 才会检查文字、图片和视频,包括公开的头像、用户名、群组资料等。
- 所有已删除的违法内容,都会进入 Telegram 的内部黑名单数据库,未来自动识别用。
六、技术架构与 策略:不靠黑名单,而靠AI识别
Telegram 并不依赖传统的"链接黑名单"机制,而是更重视基于机器学习的内容识别系统。它的自动检测系统主要由三部分组成:
- 自有数据库:记录审核员确认的非法内容特征。
- 欧洲刑警组织数据库:定期整合更新。
- AI模型行为分析:例如管理员封禁用户的频率、时长、原因等,都作为模型判断优先级的依据。
此外,Telegram 会通过特征比对,识别新群组是否与曾被封禁的群组相似,从而提前采取防范措施。
七、违规后果与用户免责机制
Telegram 在删除违规频道和群组后,还会分析用户是通过哪些关键词搜索进入的。这些关键词可能会被从 Telegram 的公共搜索中屏蔽,以防止类似内容传播。
- 轻微违规:如果管理员没有直接发布违法内容,可能只会临时封禁,给管理员一个清理的机会。
- 严重违规:比如群组持续传播极端主义或非法色情,Telegram 会永久删除相关群组、频道及管理员账号。
- 订阅者保护机制:普通成员只要没有参与传播或管理,不会被连带封禁。Telegram 强调此举是为保护记者、执法人员、研究人员等出于工作目的观察相关内容的人群。
- 涉儿童性侵内容:Telegram 表示"零容忍",相关账号、频道、群组将直接永久封禁。