Anthropic provoziert Altman mit Super Bowl-Werbung – heftige Reaktion folgt
Anthropic nutzte den Super Bowl, um mit einer Reihe von provokativen Werbespots OpenAI ins Visier zu nehmen – und traf dabei genau auf einen Nerv bei Sam Altman. Die Werbung, die unter anderem mit dem Wort „BETRAYAL“ beginnt, zeigt eine absurde Szene: Ein Mann fragt einen Chatbot (offensichtlich ChatGPT) nach Ratschlägen, wie er mit seiner Mutter sprechen soll. Die Antwort beginnt vertrauenswürdig – „Hören Sie zu“, „Gehen Sie spazieren“ – bricht dann aber in eine plakative Werbung für eine fiktive Dating-Plattform für „Golden Encounters“ ab, die auf Cougar-Dating abzielt. Die Botschaft: Während andere KI-Chatbots Werbung in Gespräche einschleusen, tut Claude das nicht. Ein zweiter Spot zeigt einen jungen Mann, der nach Tipps für einen Sixpack fragt – und prompt mit einer Anzeige für höhenverstellbare Einlagen konfrontiert wird. Beide Spots zielen klar auf OpenAIs kürzlich angekündigte Einführung von Werbung im kostenlosen ChatGPT-Tarif ab. Die Werbung wurde als scharf, humorvoll und clever kritisiert – sogar Altman gab auf X zu, dass er gelacht habe. Doch der Lacher ging schnell in eine heftige Gegenreaktion über. In einem langen, emotional aufgeladenen Post bezeichnete er Anthropic als „unehrlich“ und „autoritär“, beschuldigte sie, die Nutzung von KI zu kontrollieren, und warf ihnen vor, ihre Technologie nur reichen Nutzern zugänglich zu machen. Dabei ignorierte er, dass auch Claude eine kostenlose Version bietet – mit Abonnements bei 0, 17, 100 und 200 Dollar, vergleichbar mit OpenAIs Tarifmodell (0, 8, 20, 200 Dollar). Zudem argumentierte Altman, dass OpenAI-Werbung klar getrennt, gekennzeichnet und niemals die Gesprächsinhalte beeinflussen werde – eine Aussage, die dennoch nicht verhindern konnte, dass Anthronics Spots als treffsicher empfunden wurden: OpenAI plant, werbliche Inhalte am Ende von Antworten einzublenden, wenn sie thematisch passend zur Konversation sind. Altman warf Anthropic zudem vor, bestimmte Unternehmen wie OpenAI auszuschließen – etwa durch Einschränkungen bei der Nutzung von Claude Code. Doch auch OpenAI hat eigene Nutzungspolitiken und Inhaltsrichtlinien, auch wenn es beispielsweise erotisches Material erlaubt, während Anthropic das verbietet. Beide Unternehmen setzen auf KI-Sicherheit und ethische Grenzen. Die Verwendung des Begriffs „autoritär“ gegenüber einem Wettbewerber, der mit humorvollen Werbespots auf einen technologischen Trend reagiert, erscheint jedoch überzogen – besonders im Kontext aktueller globaler politischer Spannungen, wo der Begriff ernste Konnotationen trägt. Die Auseinandersetzung zeigt, wie emotional und strategisch die KI-Wettbewerbslandschaft geworden ist. Anthropic hat mit seiner Kampagne nicht nur Aufmerksamkeit erzeugt, sondern auch die Grenzen zwischen Werbung, Ethik und Wettbewerb neu definiert. Industriebeobachter sehen in der Auseinandersetzung ein Zeichen dafür, dass die KI-Industrie in eine neue Phase eintreten könnte – eine, in der nicht nur Leistung und Skalierbarkeit entscheiden, sondern auch die Werte, die hinter der Technologie stehen. Anthropic positioniert sich als Ethik-Player, OpenAI als Zugänglichkeitsexperte. Beide Modelle haben ihre Stärken – doch die heftige Reaktion von Altman verdeutlicht: In der KI-Rivalität geht es längst nicht mehr nur um Technologie, sondern um die Narrative, die man über die Zukunft der KI erzählt.
