研究者、AIの質問応答が50倍の二酸化炭素排出量を引き起こす可能性を指摘
大規模言語モデルの質問応答における環境負荷 主な関係者または組織 この研究は、ドイツのホッホシューレミュンヘン応用科学大学のマクシミリアン・ダウナー氏らによって行われました。研究チームは14の大規模言語モデル(LLM)を評価し、これらのモデルが1,000の標準問題に回答する際の二酸化炭素(CO2)排出量を測定しました。 出来事の時系列と背景 大規模言語モデルは、AIの発展により急速に日常生活に溶け込んでいます。これらのモデルは、質問への回答生成にトークンを使用します。トークンとは、単語または単語の一部を数字の列に変換し、LLMが処理する形式のことです。この変換プロセスとその後の計算処理はCO2排出を引き起こす原因となります。多くのユーザーは、これらの技術が持つ著しい炭素フットプリントに気づいていません。 出来事の原因、経過、結果 研究チームは、70億から720億のパラメータを持つ14の異なるLLMを1,000の多様な主題の質問に対して評価しました。結果、推論機能のあるモデルが短い回答を生成するモデルと比較して最大50倍ものCO2排出量を生み出すことが明らかになりました。この排出量の増加には、パラメータ数だけでなく、質問の種類も大きな影響を与えます。特に抽象代数学や哲学などの複雑な推理が必要な質問は、高校の歴史のようなより直截的な科目に比べて最高6倍もの排出量を生んだとのことです。 重要な事実、突破口、転機 パラメータ数が多く、推論機能を持ったモデルは一般的に精度が高いものの、そのエネルギー消費量も大きく、排出量も増加します。最正確なモデルはCogitoで、700億のパラメータを有し、84.9%の正確度を達成しました。ただし、同じサイズのシンプルな回答を生成するモデルと比較して、Cogitoは3倍以上のCO2排出量を生みました。 関連する背景情報 研究者は、「質問応答型LLMの環境負荷は大きく、その推論手法によって強く規定される」と述べています。CO2排出量を500グラム未満に抑えたモデルは、正確度が80%を超えるものは一つもありませんでした。モデルの選択や使用方法を工夫することで、排出量を大幅に削減できる可能性があるとしています。具体的には、AIに短い回答を生成させるよう指示をする、または高容量モデルの使用を必要最低限に抑えることが推奨されています。 背景の補足 研究团队指出,他们的发现可能受到所使用的硬件和各地区的能源结构的影响,这限制了研究结果的普遍适用性。例如,DeepSeek R1(700億パラメータ)とQwen 2.5(720億パラメータ)を比較すると、前者が60万問回答するために生成するCO2排出量は後者の190万問回答に匹敵します。しかし、正確性が同等の場合でも、排出量は異なるモデル間で大きく異なります。専門家は、ユーザーがAIの使用による具体的なCO2コストを認識すれば、技術の使用についてより慎重で思慮深い決定ができるだろうと期待しています。これは、環境負荷の低いモデルの選択や、エネルギーを大量に消費するモデルの適切な使用に結びつく可能性があります。 ゲージリンカイ LLMの普及に伴い、これらの技術が環境に与える影響について理解を深めることは、持続可能な未来に向けて不可欠な課題となっています。研究の詳細は、ユーザーがより環境に配慮したAI利用を促進するための具体的な指針を提供しており、科学技術の進歩と環境保護のバランスを取りながら社会を発展させるための重要な知見となっています。