X testet AI-Hilfe für Community-Notes gegen Falschnachrichten
X (ehemals Twitter) hat 2021 sein „Community Notes“-Programm gestartet, um Falschinformationen zu bekämpfen, indem es Nutzern ermöglicht, kontextuelle Notizen zu Beiträgen hinzuzufügen, die möglicherweise irreführend oder missverständlich sind. Ein Beispiel wäre die Kennzeichnung eines von KI generierten Videos, damit andere Nutzer nicht glauben, dass das dargestellte Ereignis tatsächlich stattgefunden hat. Diese Notizen werden anschließend von der dezentralen sozialen Medien-Gemeinschaft bewertet, um ihre Nützlichkeit zu bestimmen. Nur die als hilfreich eingestuften Notizen werden dem Post hinzugefügt. Das Programm von X hat andere Plattformen inspiriert, ähnliche Initiativen zu starten. Bisher bestand dieses community-basierte, faktensichernde System ausschließlich aus menschlich erstellten Notizen und menschlichen Bewertern. X führt nun jedoch ein neues Pilotprogramm ein, das KI in Form großer Sprachmodelle (LLMs) erlaubt, zusammen mit Menschen Notizen zu erstellen. Das vorgeschlagene Modell, das kürzlich von X-Forschern veröffentlicht wurde, integriert sowohl menschliche als auch KI-generierte Notizen in den Prozess, lässt jedoch weiterhin nur Menschen die hilfreichen Notizen bestimmen. Die Forscher glauben, dass die Geschwindigkeit und das Umfang der durch LLMs erzeugten Notizen notwendig sind, um im Zeitalter von Falschinformationen effektiv zu sein. Sie schreiben: „Das Erlaubnisautomatische Notizschaffung würde das System auf eine Skala und Geschwindigkeit bringen, die für menschliche Autoren unmöglich ist, und könnte potenziell Kontext für um ein Vielfaches mehr Inhalte im Netz bereitstellen.“ Die KI-generierten Notizen sollen durch die Lernmethode der Verstärkungslernen aus Gemeinschaftsrückmeldungen (RLCF) weiter verbessert werden. Dieser Prozess soll die zukünftige Notizgenerierung durch eine Vielzahl von Rückmeldungen von Gemeinschaftsmitgliedern mit unterschiedlichen Ansichten verfeinern und zu genauerer, unverzerrter und hilfreicherer Informationsvermittlung führen. Trotz der erwarteten Vorteile gibt es einige potenzielle Risiken. Die Forscher warnen vor der Möglichkeit, dass KI-generierte Notizen überzeugend, aber ungenau sind, ein bekanntes Problem bei anderen Modellen. Es besteht auch das Risiko, dass die Notizen zu homogen werden. Ein weiterer Punkt der Besorgnis ist, dass menschliche Notizschreiber seltener teilnehmen könnten, da sie mit der Fülle von KI-generierten Notizen konkurrieren müssen, und dass diese Fülle die Kapazität der menschlichen Bewertenden überfordern könnte, um ausreichend zu bestimmen, welche Notizen hilfreich sind und welche nicht. Das Studie diskutiert auch viele zukünftige Möglichkeiten, die noch stärkere KI-Integration in den Prozess von Community Notes vorsehen, wobei die menschlichen Überprüfungen erhalten bleiben. Zukünftige Richtungen könnten beinhalten, KI-Copilots für menschliche Autoren zu integrieren, um deren Recherche und Notizschaffung zu beschleunigen, sowie KI-Assistanz, um menschliche Bewerter effizienter zu unterstützen. Die Forscher schlagen außerdem Verifizierungs- und Authentifizierungsmethoden vor, um menschliche Bewerter und Autoren zu筛选,以及定制LLMs的方法和将已验证的注释适应和重新应用于类似上下文的方法,以避免重复评估相同的概念。 尽管这些人类与AI合作的方法有很大的潜力,人类提供了细腻和多样性,而LLMs则提供了速度和规模来处理网上大量的可用信息,但还需要进行大量测试,以确保不失去人的触感。研究作者描述了他们的最终目标,即:“目标不是创建一个告诉用户该思考什么的AI助手,而是建立一个生态系统,赋予人类更批判性思考和更好理解世界的能力。” 尽管新技术带来了许多挑战,但行业内部人士认为,这种混合模型为解决社交媒体上的信息问题提供了一个有希望的方向。X平台通过其社区注释计划展示了在对抗虚假信息方面的创新领导力,未来的研究和发展将进一步优化这一模型,使其更加高效和可靠。 Bislang hat das neue Modell insgesamt den Prozess der Falschinformationen-Überprüfung verbessern können. Dennoch müssen erhebliche Tests durchgeführt werden, um sicherzustellen, dass der menschliche Touch nicht verloren geht. Die Branchenkenner betrachten dieses hybride Modell als eine vielversprechende Richtung, um die Informationsprobleme in sozialen Medien zu lösen. X zeigt durch sein Community Notes-Programm innovative Führungskraft in der Bekämpfung von Falschinformationen. Zukünftige Forschung und Entwicklung werden sich weiter darum bemühen, dieses Modell zu optimieren, um es effizienter und zuverlässiger zu machen.