新研究:个性化AI审核工具可有效应对社交媒体上的残疾歧视
近年来,残疾人在社交媒体上遭遇的骚扰问题日益严重,包括微歧视和侮辱性言语。然而,当前大多数社交平台在处理残疾人相关的网络暴力时表现不佳,所提供工具也仅限于隐藏有害内容,缺乏更深层次的支持与保护。 为解决这一问题,康奈尔大学最新的研究揭示,残疾人用户更倾向于使用个性化的AI内容审核系统。这种系统不仅能隐藏有害内容,还能根据具体仇恨言论类型进行总结或分类。这项研究成果由副教授Shiri Azenkot带领,将在2025年4月28日的计算机与人机交互国际会议(CHI '25)上展示。 研究人员与多位使用社交媒体的残疾人用户进行了访谈和小组讨论,测试了不同的AI内容审核设计。参与者们试用了多种标记和呈现残障歧视言论的方式,结果表明他们更喜欢基于言论“类型”的审核系统,而非依靠“强度”来过滤内容。 Sharon Heung,该项目的主要研究生,指出:“最明显或极端的残障歧视语言并不总是最有害或最令人不安的。相反,有时候更微妙或更隐蔽的形式反而会造成更深、更持久的伤害。” 这与传统的内容审查方式形成了鲜明对比,后者通常关注明显恶意内容,而忽视了较为隐蔽的歧视。 此外,参与者普遍认为,社交平台对待残疾人群体的仇恨言论和歧视行为不够重视,这导致了他们对现有AI审核系统的不信任。Heung解释说:“自动化模型可能会因为句子中包含了残障相关词汇就将其标记为有毒,但这并不准确。需要与残疾人群体合作,确保这些模型的准确性,并使其在实际应用中更加可用。” 为此,研究团队建议开发更为精准的“情境感知”工具,以更好地检测和应对残障歧视内容。大型语言模型(LLMs)可能成为解决方案之一,但其成功实施需依赖与残疾人的紧密合作。 研究还提出了一系列具体的建议,如允许用户撤回并修正滤波错误,以及设置“白名单”,使受信任的账户免受过滤影响。这些改进措施旨在提高个性化审核工具的透明度和可信度,增强用户的自主权。 总的来说,研究者提倡AI内容审核工具应摆脱完全删除有害内容的设计,转而采用更温和的方式,比如残障歧视内容预警,以此促进网络环境的安全性。“这种个性化的审核方法不仅适用于残障歧视,还可以推广到其他类型的仇恨言论,”Azenkot说道。 业内专家认为,这项研究为社交平台应对网络暴力提供了新的思路,特别是如何通过技术创新来更好地支持弱势群体的安全与权益。康奈尔大学在人机交互领域一直处于领先地位,拥有众多顶尖的研究人员和项目,此次研究成果再次展示了其在该领域的创新实力和深刻洞察。