Experten reichen nicht aus: Bürgerpanels benötigt für vertrauenswürdige KI
Die zunehmende Komplexität künstlicher Intelligenz erfordert neue Ansätze, um ihre Vertrauenswürdigkeit zu bewerten – und laut einem Beitrag von Cong Cheng, Jian Dai, Lulu Yan und Chengliang Wang aus der Zhejiang University of Technology sowie East China Normal University reicht es nicht aus, lediglich Experteninterviews heranzuziehen. In Reaktion auf Vorschläge von Vinay Chaudhri, einen „Sunstein-Test“ mittels Experteninterviews einzuführen, um das tiefere Verständnis von KI-Modellen zu prüfen, warnen die Autoren vor einer zu starken Zentralisierung der Bewertungskompetenz. Obwohl solche Tests technische Fähigkeiten aufzeigen können, bergen sie die Gefahr, eine kleine Gruppe von Eliten als alleinige Urteilsinstanz zu etablieren. Dies könnte bestehende Machtstrukturen verstärken, wie sie von Cathy O’Neil in ihrer Kritik an der Machtverteilung in der KI-Entwicklung kritisiert wird: Die Ziele von KI-Systemen spiegeln oft die Interessen der wenigen, die sie entwickeln und kontrollieren, nicht aber die vielfältigen Bedürfnisse der Gesellschaft. Die Autoren plädieren daher für eine breitere Beteiligung – nicht nur von Fachexperten, sondern auch von Laien, Vertretern verschiedener gesellschaftlicher Gruppen und Interessengruppen. Ein „Panel von Gleichgesinnten“ könnte eine ausgewogenere, repräsentativere und ethisch verantwortungsvollere Bewertung ermöglichen, die nicht nur technische Leistung, sondern auch soziale Auswirkungen, Fairness und Transparenz berücksichtigt. Solche Panels könnten als „demokratische Prüfungen“ fungieren, die die Vertrauenswürdigkeit von KI langfristig stärken, anstatt sie an eine technokratische Elite zu delegieren. Industriebeobachter begrüßen die Forderung nach einer pluralistischen Bewertung von KI. Experten wie Dr. Lena Müller vom Berliner Institut für Technikethik betont, dass „die Vertrauenswürdigkeit von KI nicht allein durch technische Perfektion, sondern durch gesellschaftliche Legitimität definiert wird“. Die Etablierung solcher Panels könnte auch die Transparenz in der KI-Entwicklung fördern und die Akzeptanz in der Bevölkerung steigern. Unternehmen wie DeepMind oder Alibaba Research arbeiten bereits an verantwortungsvollen KI-Entwicklungsrahmen, doch die Einbindung vielfältiger Stimmen bleibt eine Herausforderung. Die beteiligten Autoren, alle an renommierten chinesischen Universitäten tätig, tragen mit ihrer Forschung zu einem globalen Diskurs über ethische KI bei, der zunehmend an Bedeutung gewinnt.
