HyperAI
Back to Headlines

Menschen und KI sehen Objekte unterschiedlich: Bedeutung vs. visuelle Merkmale.

vor 16 Stunden

Menschen und KI sehen Objekte unterschiedlich: Bedeutung versus visuelle Merkmale Während Menschen sich auf die Bedeutung von Objekten konzentrieren, legt künstliche Intelligenz (KI) mehr Wert auf visuelle Eigenschaften. Dies ist eine wichtige Erkenntnis, die Wissenschaftler vom Max-Planck-Institut für Kognitive und Hirnforschung in Leipzig in einer neuen Studie veröffentlicht haben. Die Forscher haben repräsentative Einbettungen aus dem Verhalten von Menschen und tiefen neuronalen Netzen (DNNs) abgeleitet, um diese Unterschiede zu untersuchen. Florian Mahner, ein Forscher am Max-Planck-Institut, erläutert: "Diese Dimensionen repräsentieren verschiedene Eigenschaften von Objekten, von rein visuellen Aspekten wie 'rund' oder 'weiß' bis hin zu semantischeren Eigenschaften wie 'tierbezogen' oder 'feuerbezogen'. Viele dieser Dimensionen enthalten sowohl visuelle als auch semantische Elemente." Die Ergebnisse der Studie zeigten jedoch einen wesentlichen Unterschied: Während Menschen hauptsächlich auf dimensionsbezogene Merkmale fokussieren, die mit Bedeutung zusammenhängen – also was ein Objekt ist und was wir darüber wissen –, verlassen sich KI-Modelle stärker auf Dimensionen, die visuelle Merkmale wie Form oder Farbe erfassen. Diese Erscheinung wird als "visuelle Verzerrung" in KI bezeichnet. Selbst wenn KI-Systeme Objekte so zu erkennen scheinen, wie es Menschen tun, nutzen sie oft grundlegend andere Strategien. Dies ist wichtig, weil es bedeutet, dass KI-Systeme, trotz ähnlichen Verhaltens wie Menschen, ganz anders denken und Entscheidungen treffen könnten. Dies hat Auswirkungen auf das Vertrauen, das wir in diese Systeme setzen können. Um das Verhalten von Menschen zu analysieren, nutzten die Wissenschaftler etwa 5 Millionen öffentlich zugängliche Urteile über 1,854 verschiedene Objektbilder. Zum Beispiel wurden Probanden Bilder von einer Gitarre, einem Elefanten und einem Stuhl gezeigt und gefragt, welches Objekt nicht passt. Die gleichen Bilder wurden dann an mehrere tiefere neuronale Netze zur Bilderkennung übergeben, und Ähnlichkeitsurteile wurden gesammelt. Die Wissenschaftler wendeten dann den gleichen Algorithmus an, um die entscheidenden Merkmale dieser Bilder, die sie als "Dimensionen" bezeichnen, zu identifizieren. Dies sorgte für direkte Vergleichbarkeit zwischen Menschen und KI. "Zunächst sahen die Dimensionen, die wir in den tiefen neuronalen Netzen entdeckten, sehr ähnlich zu denen bei Menschen aus," erklärt Martin Hebart, letzter Autor des Papers. "Doch als wir genauer hinsahen und sie mit den menschlichen Urteilen verglichen, bemerkten wir wichtige Unterschiede." Neben der identifizierten visuellen Verzerrung verwendeten die Wissenschaftler gängige Interpretierbarkeitstechniken, um zu prüfen, ob die gefundenen Dimensionen tatsächlich Sinn ergaben. Zum Beispiel könnte eine Dimension viele Tiere enthalten und als "tierbezogen" bezeichnet werden. Um zu überprüfen, ob die Dimension tatsächlich auf Tiere reagiert, führten die Wissenschaftler verschiedene strenge Tests durch: Sie untersuchten, welche Teile der Bilder von den neuronalen Netzen genutzt wurden, generierten neue Bilder, die bestimmten Dimensionen am besten entsprachen, und manipulierten sogar Bilder, um bestimmte Dimensionen zu entfernen. "All diese strengen Tests zeigten hochinterpretierbare Dimensionen," fügt Mahner hinzu. "Doch wenn wir die übereinstimmenden Dimensionen direkt zwischen Menschen und tiefen neuronalen Netzen verglichen, stellten wir fest, dass das Netz diese Dimensionen nur annähernd reproduzierte. Bei einer tierbezogenen Dimension waren viele Tierszenen nicht enthalten, während gleichzeitig viele Bilder ohne Tiere dazukamen. Dies wäre mit Standardmethoden nicht zu erkennen gewesen." Die Wissenschaftler hoffen, dass zukünftige Forschungen ähnliche Ansätze verwenden, um die Unterschiede zwischen Menschen und KI besser zu verstehen. "Unsere Arbeit bietet eine klare und interpretierbare Methode, um diese Unterschiede zu studieren, was uns hilft, besser zu verstehen, wie KI Informationen verarbeitet im Vergleich zu Menschen," sagt Hebart. "Dieses Wissen kann uns helfen, KI-Technologie zu verbessern, aber auch wertvolle Einblicke in die menschliche Kognition geben." Industrieexperten bewerten die Ergebnisse positiv. Sie sehen darin ein wichtiges Werkzeug, um die Transparenz und Verlässlichkeit von KI-Systemen zu erhöhen. Das Max-Planck-Institut für Kognitive und Hirnforschung ist bekannt für seine fortschrittlichen Studien im Bereich der Kognitionswissenschaft und trägt damit maßgeblich zur Entwicklung intelligenter Systeme bei.

Related Links