HyperAI
Back to Headlines

Forscher: Manche KI-Antworten verursachen 50-mal mehr CO₂-Emissionen

vor 8 Tagen

Große Sprachmodelle (LLMs) haben sich schnell in unser tägliches Leben eingefügt, aber ihre Nutzung hat auch einen erheblichen ökologischen Fußabdruck. Ein neues Studie von Forschern der Hochschule München University of Applied Sciences, veröffentlicht im Journal "Frontiers in Communication", hat die CO2-Emissionen verschiedener, bereits trainierter LLMs gemessen und verglichen, indem sie diese mit einem Satz standardisierter Fragen konfrontierten. Die LLMs verwenden Tokens, die Wörter oder Teile von Wörtern in Zahlenketten umwandeln, die vom Modell verarbeitet werden können. Dieser Prozess sowie andere Berechnungen erzeugen CO2-Emissionen. Viele Nutzer sind jedoch nicht bewusst, dass die Nutzung dieser Technologien einen erheblichen Kohlendioxid-Fußabdruck hinterlässt. Die Forscher evaluierten 14 LLMs mit Parameteranzahlen zwischen 7 und 72 Milliarden auf 1.000 Benchmark-Fragen zu verschiedenen Themen. Parameter bestimmen, wie LLMs lernen und Informationen verarbeiten. Forscher fanden heraus, dass das Emissionsniveau stark von dem Reasoning-Ansatz des Modells abhängt. Reasoning-Modelle, die zusätzliche interne Berechnungen und logisches Denken durchführen, erzeugen erheblich mehr Energie und CO2-Emissionen als Modelle, die kurze und präzise Antworten liefern. Reasoning-Modelle erstellen durchschnittlich 543,5 "Denktokens" pro Frage, während prägnante Modelle nur 37,7 Tokense pro Frage benötigen. Ein höherer Tokengeneratorfußabdruck bedeutet immer höhere CO2-Emissionen, aber nicht unbedingt korrekte Antworten, da ausführliche Details nicht immer für die Richtigkeit erforderlich sind. Das genaueste Modell war das reasoning-fähige Cogito-Modell mit 70 Milliarden Parametern, das eine Genauigkeit von 84,9% erreichte. Dieses Modell erzeugte jedoch dreimal so viele CO2-Emissionen wie vergleichbare Modelle, die kürzere Antworten generieren. Dies deutet auf einen klaren Trade-off zwischen Genauigkeit und Nachhaltigkeit hin. Keines der Modelle, die die Emissionen unter 500 Gramm CO2-Äquivalent hielten, erreichte eine Genauigkeit von über 80%. Das Themengebiet beeinflusste ebenfalls erheblich die Emissionsniveaus. Fragen, die komplexe oder detaillierte Reasoning-Prozesse erforderten, wie z.B. abstrakte Algebra oder Philosophie, führten bis zu sechs Mal höhere Emissionen als einfachere Themen wie Schulgeschichte. Die Forscher betonen, dass Nutzer durch informiertere Entscheidungen ihren CO2-Fußabdruck reduzieren können. "Nutzer können die Emissionen erheblich senken, indem sie das AI-Modell dazu anweisen, prägnante Antworten zu generieren, oder indem sie das Einsatz von hochkapazitiven Modellen auf Aufgaben beschränken, die tatsächlich diese Leistungsfähigkeit erfordern," sagte Dauner. Zum Beispiel würde die Verwendung des DeepSeek R1-Modells (70 Milliarden Parameter) zur Beantwortung von 600.000 Fragen CO2-Emissionen erzeugen, die der eines Hin- und Rückflugs von London nach New York entsprechen. Im Gegensatz dazu kann das Qwen 2.5-Modell (72 Milliarden Parameter) dreimal so viele Fragen (ca. 1,9 Millionen) mit ähnlich guten Genauigkeitsraten beantworten, während es gleichzeitig die gleichen Emissionen erzeugt. Es ist wichtig zu beachten, dass die Ergebnisse des Studiums von der verwendeten Hardware und den regionalen Energiemischverhältnissen abhängen können, was die Allgemeingültigkeit der Ergebnisse einschränkt. Trotzdem hoffen die Forscher, dass ihre Arbeit dazu beiträgt, dass Menschen sorgfältiger und gezielter mit LLM-Technologien umgehen. "Wenn Nutzer die exakten CO2-Kosten ihrer AI-generierten Ausgaben kennen, wie zum Beispiel die Umwandlung von sich selbst in eine Action Figure, könnten sie selektiver und überlegter sein, wann und wie sie diese Technologien nutzen," schloss Dauner. LLMs sind aufgrund ihrer intensiven Energie- und Wasserverbrauches ein zunehmendes Anliegen im Kontext des Klimawandels. Während es schwierig ist, den gesamten ökologischen Fußabdruck von LLMs genau zu quantifizieren, deuten einige Studien darauf hin, dass das Training von Modellen wie ChatGPT bis zu 30-mal mehr Energie verbraucht als ein durchschnittlicher Amerikaner in einem Jahr. Diese Studie zeigt jedoch, dass auch die Anwendung von LLMs, insbesondere bei komplexen Aufgaben, erhebliche Emissionen erzeugen kann. Experten und Industrievertreter betonen die Notwendigkeit, sowohl die Umweltbelastung als auch die Nutzen von LLMs zu berücksichtigen. Die Hochschule München University of Applied Sciences ist bekannt für ihre Forschung im Bereich nachhaltige Technologien, und dieses Studie trägt zur Diskussion über die Entwicklungsrichtungen von AI-Technologien bei. Die Ergebnisse haben weitreichende Implikationen für die Nutzung von LLMs in Unternehmen, Bildungseinrichtungen und privatem Umfeld, da sie die Notwendigkeit hervorheben, ressourcenschonend und effizient mit diesen Technologien umzugehen.

Related Links