LLMs bei Oxide: Umgang mit Lesen, Schreiben und Programmieren
LLMs haben sich in verschiedenen Bereichen der Arbeitsweise von Teams wie Oxide als äußerst nützliche Werkzeuge etabliert, doch ihre Anwendung erfordert sorgfältige Abwägung je nach Einsatzgebiet. Als Leser sind LLMs bemerkenswert effektiv: Sie können Dokumente wie Spezifikationen oder Datenblätter schnell verstehen und präzise Zusammenfassungen oder gezielte Antworten liefern. Dies ist besonders wertvoll bei der schnellen Aufarbeitung komplexer technischer Inhalte. Allerdings birgt die Nutzung externer LLMs wie ChatGPT, Claude oder Gemini ein Risiko für Datenprivatsphäre – insbesondere die Gefahr, dass hochsensible Dokumente zur Weiterbildung der Modelle verwendet werden. Obwohl viele Plattformen eine Opt-out-Funktion anbieten, ist die Standardeinstellung oft so formuliert, dass das Training auf hochgeladenen Daten aktiviert ist (z. B. OpenAI mit „Modellverbesserung für alle“), was Nutzer in die Defensive drängt. Zudem sollte die Nutzung von LLMs zur Dokumentenauswertung niemals die eigene Lektüre ersetzen, besonders wenn dies sozial erwartet wird – wie bei der Bewertung von Kandidatenmaterialien im Rekrutierungsprozess. Als Schreiber hingegen zeigen LLMs gravierende Schwächen. Ihre Texte sind oft stereotyp, überladen mit Klischees und enthalten deutliche Hinweise auf automatisierte Erstellung. Dies schädigt nicht nur den Stil, sondern auch das Vertrauen des Lesers: Wenn ein Text maschinell generiert wirkt, kann der Leser nicht mehr davon ausgehen, dass die zugrunde liegenden Gedanken von einem Menschen verstanden und bewusst formuliert wurden. Dies bricht einen sozialen Vertrag zwischen Autor und Leser, der darauf beruht, dass das Schreiben mehr geistige Anstrengung erfordert als das Lesen. Wenn der Autor selbst nicht die Ideen hinter dem Text versteht, wird die Kommunikation entwertet – besonders gefährlich bei kognitiver Dissonanz, wenn Inhalte scheinbar logisch sind, aber letztlich keinen Sinn ergeben. Bei Oxide, wo Schreibkompetenz ein zentrales Auswahlkriterium ist, wird daher generell davon abgeraten, LLMs zur Erstellung von Texten zu nutzen. Dennoch ist eine unterstützende Rolle erlaubt – etwa zur Ideenfindung oder Strukturierung – sofern der Mensch die Verantwortung für Inhalt und Authentizität behält. Als Programmierer sind LLMs hingegen äußerst leistungsfähig, besonders bei experimentellen, Hilfs- oder temporären Codeabschnitten. Sie können Tests schreiben, Prototypen generieren oder Boilerplate-Code beschleunigen. Doch je näher der Code dem Produktionsumfeld kommt, desto größer wird die Verantwortung des Entwicklers. LLM-generierter Code muss gründlich selbst überprüft werden – eine Überprüfung durch Kollegen ist sinnlos, wenn der Urheber ihn nicht selbst gelesen hat. Zudem sollte bei der Code-Review keine kontinuierliche Neugenerierung erfolgen, da dies den iterativen Prozess zerstört. Die Verantwortung bleibt beim Menschen: Technologie beschleunigt, aber nicht ersetzt. Erfolgvolle Nutzung erfordert Rigor, Empathie und Teamarbeit. Insgesamt zeigt sich: LLMs sind Werkzeuge, keine Ersatz für menschliche Intelligenz. Ihre Stärken liegen im Lesen und bei der Codierung, ihre Schwächen im Schreiben. Die richtige Balance zwischen Effizienz und Authentizität ist entscheidend – besonders in Organisationen, die Wert auf klare, vertrauenswürdige Kommunikation legen.
