Altman kritisiert New York Times bei Live-Interview wegen Datenschutzzwischenfall.
Sam Altman greift die New York Times an Kaum hatte Sam Altman, CEO von OpenAI, und sein Chief Operating Officer Brad Lightcap die Bühne betreten, war klar, dass dies kein normales Interview werden würde. An einem überfüllten Standort in San Francisco, der normalerweise Jazzkonzerte veranstaltet, erwarteten sie Hunderte von Zuschauern, die gekommen waren, um Kevin Roose vom New York Times und Casey Newton von Platformer bei einer Live-Aufzeichnung ihrer Technologie-Podcast-Serie "Hard Fork" zuhören. Altman und Lightcap traten vorzeitig auf die Bühne, was den Moderatoren peinlich schien. Roose erklärte, dass er und Newton ursprünglich geplant hatten, einige der kürzlich erschienenen Schlagzeilen über OpenAI zu nennen, bevor die beiden Exekutiven das Podium betreten sollten. Altman schnitt jedoch innerhalb weniger Minuten das Thema des laufenden Gerichtsstreits zwischen OpenAI und dem New York Times an, in dem der Verlag behauptet, dass OpenAI und sein größter Investor, Microsoft, unproper seine Artikel verwendet hätten, um große Sprachmodelle zu trainieren. Altman war besonders verärgert über eine jüngste Entwicklung im Prozess, bei der die Anwälte des New York Times forderten, dass OpenAI die Nutzerdaten von ChatGPT und API-Kunden auch dann speichern muss, wenn diese in Privatsphäre-Modus chatten oder darum gebeten haben, dass ihre Daten gelöscht werden. „Der New York Times, eine der bedeutendsten Institutionen, nimmt die Position ein, dass wir die Protokolle unserer Benutzer speichern müssen, selbst wenn sie im Privatmodus chatten oder uns darum bitten, sie zu löschen“, sagte Altman. „Ich liebe immer noch die New York Times, aber da sind wir sehr empfindlich.“ Obwohl Altman und Lightcap nur kurz ungestüm auftreten mussten, schien der Rest des Interviews nach Plan zu verlaufen. Dennoch spiegelte der Vorfall den Wendepunkt wider, den das Silicon Valley in seiner Beziehung zur Medienindustrie zu erreichen scheint. In den letzten Jahren haben mehrere Verlage OpenAI, Anthropic, Google und Meta wegen des Trainings ihrer KI-Modelle an urheberrechtlich geschützten Werken verklagt. Die Klagen argumentieren, dass solche Modelle das Wertgefühl und sogar die Existenz urheberrechtlich geschützter Inhalte gefährden könnten. Trotzdem könnte sich der Wind für die Tech-Unternehmen wenden. Kurz vor dem Interview erhielt Anthropic, ein Wettbewerber von OpenAI, einen wichtigen Sieg. Ein Bundesrichter entschied, dass Anthropics Nutzung von Büchern zum Training seiner KI-Modelle in bestimmten Fällen legal sei. Diese Entscheidung könnte weitreichende Folgen für andere Klagen gegen OpenAI, Google und Meta haben. Möglicherweise fühlten sich Altman und Lightcap durch diesen Sieg gestärkt, als sie das Interview mit den Journalisten des New York Times führten. Allerdings steht OpenAI heute vor vielfältigen Bedrohungen, die während des Abends deutlich wurden. Mark Zuckerberg versucht aktiv, Top-Talente von OpenAI mit Vergütungspaketen im Wert von 100 Millionen Dollar ins Meta AI Superintelligence Lab zu rekrutieren, wie Altman vor Wochen in der Podcast-Serie seines Bruders enthüllte. Als Roose fragte, ob Zuckerberg wirklich an superintelligente KI-Systeme glaube oder ob es sich nur um eine Rekrutierungsstrategie handle, antwortete Lightcap: „Ich denke, [Zuckerberg] glaubt, dass er superintelligent ist.“ Später wurde Altman nach der Beziehung zwischen OpenAI und Microsoft gefragt, die laut Berichten in den letzten Monaten angespannt geworden ist, während die Partner einen neuen Vertrag aushandeln. Obwohl Microsoft einmal ein treibendes Kraftwerk für OpenAI war, wetteifern die beiden Unternehmen nun in Unternehmenssoftware und anderen Bereichen. „In jeder tiefen Partnerschaft gibt es Spannungspunkte, und wir haben sicherlich welche“, sagte Altman. „Wir sind beide ehrgeizige Unternehmen, also finden wir schon mal Schwierigkeiten, aber ich erwarte, dass dies für beide Seiten langfristig einen großen Wert hat.“ Die Führung von OpenAI verbringt heute viel Zeit damit, Wettbewerber und Klagen abzuwehren. Dies könnte OpenAIs Fähigkeit behindern, breitere Fragen rund um KI zu lösen, wie beispielsweise die sichere Einführung hochintelligenter Systeme im großen Maßstab. Newton fragte die OpenAI-Führer nach ihrem Umgang mit Berichten über psychisch labile Menschen, die ChatGPT nutzen, um gefährliche Pfade einzuschlagen, einschließlich Verschwörungstheorien oder Selbstmordgedanken zu diskutieren. Altman betonte, dass OpenAI verschiedene Schritte unternimmt, um solche Konversationen zu verhindern, wie das Früherkennen und Abbrechen dieser Dialoge oder das Leiten von Nutzern zu professionellen Hilfsdiensten. „Wir wollen nicht in die Fehler der früheren Generation von Tech-Unternehmen hineingleiten, die nicht schnell genug reagiert haben“, sagte Altman. Auf eine Nachfrage hin fügte er hinzu: „Allerdings haben wir noch nicht herausgefunden, wie man Warnungen an Nutzer weiterleitet, die sich in einer so brüchigen mentalen Verfassung befinden, dass sie am Rande eines psychotischen Ausbruchs stehen.“ Die Anhäufung von Klagen und der zunehmende Wettbewerb in der Tech-Branche zeigen, dass OpenAI und ähnliche Unternehmen sich in einem komplexen Umfeld bewegen. Die jüngste rechtliche Niederlage des New York Times und die Wettbewerbsstrategie von Meta signalisieren, dass die Tech-Unternehmen möglicherweise die Oberhand gewinnen könnten. Gleichzeitig bleibt die ethische Verantwortung für die sichere und verantwortungsvolle Nutzung von KI-Technologien ein zentrales Thema, das von der Branche und der Öffentlichkeit gleichermaßen adressiert werden muss.