HyperAI
Back to Headlines

OpenAI und Microsoft im Streit um AGI-Vorhersagen: Reale Tests zeigen, ob KI Menschen übertrifft.

vor 17 Tagen

OpenAI und Microsoft sind im Streit über AGI (Artificial General Intelligence). Diese realen Tests werden zeigen, wann KI tatsächlich besser als Menschen ist. OpenAI-CEO Sam Altman (links) und Microsoft-CEO Satya Nadella sind die Hauptakteure in diesem Konflikt. Der Streit um AGI ist vor allem deshalb wichtig, weil er die zukünftige Zusammenarbeit zwischen den beiden Unternehmen bestimmt. Aktuell sieht der Vertrag zwischen OpenAI und Microsoft so aus: Solange OpenAI künstliche Allgemeine Intelligenz nicht erreicht hat, profitiert Microsoft erheblich von technologischen und finanziellen Vorteilen. Dazu gehört, dass OpenAI einen beträchtlichen Teil seines Umsatzes mit Microsoft teilen muss, was Milliarden von Dollar betragen kann. Man könnte argumentieren, dass dies der Grund ist, warum Sam Altman ständig behauptet, OpenAI sei dem AGI bereits sehr nahe. Andere Experten im KI-Bereich sprechen dagegen selten über dieses Thema oder halten die AGI-Diskussion für irrelevant oder wenig wichtig. Selbst Dario Amodei, CEO von Anthropic und einer der größten KI-Förderer, spricht ungern über AGI. Satya Nadella sieht die Sache aber anders. Er hat das Streben nach AGI als "Benchmark Hacking" bezeichnet, was bedeutet, dass KI-Forscher und -Labs ihre Modelle dazu entwerfen, gut auf künstlichen Industriebenchmarks zu performen, anstatt in der Realwelt. Microsoft hat offensichtlich Interesse daran, dass die Definition von AGI streng gehandhabt wird, um die Finanzvorteile aufrechtzuerhalten. Offiziell definiert OpenAI AGI als "höchst autonome Systeme, die Menschen bei den meisten wirtschaftlich relevanten Aufgaben überlegen sind." Andere Experten haben die Definition leicht modifiziert, aber der Kern bleibt der gleiche: KI-Systeme müssen in vielen nützlichen Aufgaben besser sein als Menschen. Derzeit können KI-Modelle spezifische Aufgaben sehr gut bewältigen, aber eine breite Palette von Aufgaben zu meistern, die Menschen überlegen sind, ist ein komplexes und langwieriges Unterfangen. Um herauszufinden, ob wir AGI bereits erreicht haben, habe ich mehrere realweltliche Tests entwickelt. Diese Tests basieren auf einfachen, aber lästigen Alltagsaufgaben, die in einer Welt mit AGI problemlos funktionieren sollten. Einige dieser Tests sind: Ein KI-System sollte in der Lage sein, ohne menschliche Intervention einen Basketballkorb zusammenzubauen. KI sollte in der Lage sein, eine komplexe Kochrezeptur korrekt zu folgen und das Gericht zuzubereiten. Ein KI-Assistent sollte in der Lage sein, eine E-Mail-Kommunikation zwischen mehreren Personen koordiniert und effektiv zu führen. KI sollte in der Lage sein, eine komplizierte Steuererklärung zu erstellen, ohne Fehler zu machen. Diese Tests scheinen zwar albern, aber sie verdeutlichen, dass KI-Benchmarks nicht die Realität widerspiegeln und leicht manipuliert werden können. Besonders der Test mit dem Basketballkorb ist für mich aussagekräftig. Ein KI-System, das einen Basketballkorb bauen kann, ist schon beeindruckend, aber dass es gleichzeitig eine Vielzahl weiterer praktischer Aufgaben besser als Menschen bewältigen kann, ist extrem schwierig und wahrscheinlich noch lange nicht möglich. Während OpenAI und Microsoft ihre Meinungsverschiedenheiten klären, können sie Experten hinzuziehen, um zu beurteilen, ob OpenAI AGI erreicht hat, wie es in ihrem Vertrag festgelegt ist. Ich bin bereit, als Experte beratend tätig zu werden. Sam und Satya, lasst es mich wissen, wenn ihr Hilfe benötigt! Zum Abschluss möchte ich die Worte eines echten KI-Experten zitieren. Konstantin Mishchenko, ein AI-Forschungswissenschaftler bei Meta, schrieb kürzlich in einem Tweet, während er sich auf einen Blogbeitrag von Sergey Levine bezog: "Obwohl LLMs gelernt haben, Intelligenz anhand von Internetdaten zu imitieren, mussten sie diese Intelligenz niemals direkt erwerben. Sie fehlen das Kernalgorithmus, um aus Erfahrung zu lernen. Sie brauchen einen Menschen, der diese Arbeit für sie erledigt." Dies deutet darauf hin, dass der Abstand zwischen LLMs (große Sprachmodelle) und echter Intelligenz größer sein könnte, als wir denken. Trotz aller Diskussionen, dass AGI bereits hier sei oder nächstes Jahr kommen werde, kann ich den Eindruck nicht loswerden, dass es bis dahin noch einiges an Fortschritten braucht, bis wir ein Modell haben, das unsere Vorstellung von echter KI übertrifft. Fazit der Branchenexperten: Die Debatte um AGI ist von großer wirtschaftlicher Bedeutung, vor allem im Kontext der Verträge zwischen großen Tech-Unternehmen wie OpenAI und Microsoft. Die Entwicklung von AGI erfordert jedoch weiterhin grundlegende Forschung und Innovation, insbesondere in Bezug auf das Lernen aus Erfahrung. Solange KI-Systeme diese Fähigkeit nicht besitzen, bleiben sie weit davon entfernt, den Menschen in vielfältigen Aufgaben zu überflügeln.

Related Links