【ニュースレター】大規模AIモデルの環境負荷:カーボンフットプリントとエネルギー消費

大規模AIモデルの環境負荷:カーボンフットプリントとエネルギー消費

※この記事はBeehiivで発行されているNestgen Newsletterの英語記事を日本語に訳したものです。
ボランタリーカーボンクレジットの無効化情報等も発信していますので、ぜひご登録ください。

大規模AIモデルのトレーニングによるCO₂排出量

最先端のAIモデルをトレーニングするには膨大な計算能力が必要で、それに伴う電力消費から多くのCO₂が排出されます。たとえば、OpenAIが開発したGPT-3(1750億パラメータ)は、トレーニング中に約1,287MWhの電力を消費し、約500〜550トンのCO₂を排出したと推定されています(参考: AI’s carbon footprint – how does the popularity of artificial intelligence affect the climate? – Plan Be Eco)。この量は、ガソリン車100台以上が1年間に排出するCO₂、あるいは1人あたりニューヨーク~サンフランシスコ間の大陸横断フライトを500回以上行うのと同程度(参考: The Carbon Emissions of Training AI Models – Voronoi)。新しいモデルはさらに大規模化しており、GPT-4の正確なトレーニング時の排出量は公表されていませんが(GPT-3の1750億パラメータを上回ると考えられています (参考: AI’s Growing Carbon Footprint – State of the Planet)、傾向から見てより大きいと推測されます。実際、Metaが2024年に発表したLLaMA-3(約700億パラメータ)は、GPT-3の排出量のほぼ4倍だったという報告もあり、世代が進むごとにトレーニング時の排出量が急増していることがわかります。

もっとも、すべてのAIトレーニングが同程度に「汚染」するわけではなく、エネルギー源や効率性が大きく影響します。注目すべき事例として、1760億パラメータ規模のオープンモデル「BLOOM」が挙げられます。BLOOMは主にフランスの原子力主体の電力でトレーニングされたため、排出量は約50トンのCO₂にとどまり、これはGPT-3の十分の一程度です。さらに、BLOOMのライフサイクル分析によると、この約50トンのCO₂排出のうち、トレーニング時にGPUを動かす電力がほぼ半分、データセンター(冷却やネットワーク運用など)が約29%、ハードウェア製造が約22%を占めています(参考: The Environmental Impacts of AI — Primer)。つまり、電力が化石燃料由来か再生可能エネルギー由来かでトレーニング時の排出量は大きく変わってくるということです。

AI推論(インファレンス)時のエネルギー消費と排出量

AIモデルはトレーニングが終わっても、ユーザーの問い合わせを処理する(推論する)段階で継続的に電力を消費します。データセンターで常時動作させるため、人気のあるサービスほど長期間かつ大量にエネルギーを使い、結果的に排出量も増加します。Googleのエンジニアによると、AIワークロード全体のうち約60%のエネルギーが推論に費やされ、トレーニング自体は40%程度だったとのこと。たとえばChatGPTやGPT-4のようなモデルが数百万から数十億件もの問い合わせに対応する場合、それぞれの問い合わせで高性能チップに負荷がかかり、電力を消費し続けます。

個々の問い合わせは短時間ですが、回数が積み重なると莫大なエネルギー使用量に上ります。ある推計では、ChatGPTへの1回の質問は標準的なGoogle検索より数倍多くのエネルギーを消費し、1回あたり4〜5gのCO₂を排出する可能性があるとされています(Google検索の場合は約0.2g)。別の分析では1回2〜3gとする見解もありますが、それでも一般的なウェブ検索よりは一桁ほど多いという点は変わりません。実際に、AIチャットボットへ16回質問すると電気ケトルを一度沸かすのと同程度のCO₂を排出する計算になります。ChatGPTの週間利用者が1億人に達した(参考: AI and energy: Will AI reduce emissions or increase demand? | World Economic Forum)とも言われるなかで、こうした小さな積み重ねが大きな排出量になっていくわけです。ある試算では、GPT-3の推論がもたらす排出量が年平均で約8.4トンのCO₂に達し、これは世界平均の1人あたり年間排出量の約2倍にあたるという報告もあります(参考: The Environmental Impact of ChatGPT | Earth.Org)。専門家の間では、AIが今後ますます普及するにつれ、トレーニング時よりも「運用時(推論時)」の排出量の方が増大していく可能性が高いと警鐘を鳴らしています。

エネルギー源:再生可能エネルギーか化石燃料か

AIが計算を行うときに使用する電力源が化石燃料由来か再生可能エネルギー由来かは、カーボンフットプリントを大きく左右します。大規模AIモデルは主にクラウドデータセンター上で動作しますが、多くの地域では依然として化石燃料に依存した電力が使われています。世界全体では、AIも含むデータセンター由来の温室効果ガス排出量が全排出量の2.5〜3.7%を占めており、これは航空業界全体を上回るという推計もあります。さらに、2026年までにデータセンターの電力消費が約1000TWh(日本の電力消費量に匹敵)に達すると予測する報告もあり(参考: Reducing AI’s Climate Impact: Everything You Always Wanted to Know but Were Afraid to Ask – BEGIN)、その大半が化石燃料を燃やして得られる電力に依存するのであれば、AIのCO₂排出はさらに巨大になる可能性があります。つまり同じ計算量でも、石炭火力中心の地域でAIを動かすのか、再生可能エネルギー中心の地域で動かすのかで、排出量には大きな差が出るわけです。

ただし、主要なAI企業やクラウドサービス各社は再生可能エネルギーへの転換を加速させています。Microsoftによれば、大手クラウドプロバイダ各社は2030年までにデータセンターを100%カーボンフリーの電力で稼働させる計画を打ち出しているとのこと。さらに短期目標を掲げる企業もあり、Microsoft自身は2025年までにデータセンターを100%再生可能エネルギーで賄うと約束しています。Googleはすでにデータセンターが使用する電力量と同等の再生可能エネルギーを購入しているとし、「ネットカーボンゼロ」を実現していると主張しています(もっとも、実際には地域の送電網に化石燃料が混ざっている場合も多く、リアルタイムで100%再生可能とは限りません)。こうした動きから、AI業界ではPPA(電力購入契約)やオンサイトの太陽光・風力発電などを積極的に導入し、トレーニングや運用の際に排出量を抑えようとしています。

BLOOMとGPT-3の比較でも明らかなように、フランスの低炭素電力(原子力主軸)を使ってトレーニングしたBLOOMは、石炭火力が多い地域で同等のモデルをトレーニングする場合と比べて、排出量を1桁以上削減できました。推論の段階も同様で、再生可能エネルギーを活用しているデータセンターを使用すれば、問い合わせ1回あたりのCO₂排出を低減できます。マイクロソフトが海中で直接冷却し、風力発電を活用する「海底データセンター」を実験的に導入した事例のように、新たな方式も模索されています。再生可能エネルギーが普及し、電源のミックスが化石燃料からシフトすれば、AI運用時の「燃料」は徐々にクリーンになっていきますが、それまでは再生可能エネルギーをどの程度使えるかがAIの環境負荷を左右する重要な要素と言えるでしょう。

AIの環境負荷削減に向けた業界の取り組み

こうした課題を認識し、テック業界や研究コミュニティはAIをより持続可能にするためのイニシアチブを立ち上げています。主な取り組みとしては、以下のようなものがあります。

  1. AIハードウェアの高効率化
    企業各社はGPUやTPU、専用アクセラレータなど、電力消費あたりの計算能力を高めるチップの設計に注力しています。たとえばGoogleの最新Tensor Processing Unit(TPU v4や新型“Trillium”TPU)は、2世代前に比べて同じAIワークロードをこなす際のカーボン効率を3倍改善したと報告されています(参考: How Google Tripled AI Chip Carbon Efficiency | Sustainability Magazine)。ハードウェア自体の発熱や消費電力を下げれば、トレーニングや推論に必要な電力が直接削減され、排出量も減らせます。また、データセンターの配置や冷却方式の最適化(液冷や排熱再利用、サーバールーム温度の引き上げなど)も盛んに行われ、PUE(電力使用効率)の改善に貢献しています。
  2. ソフトウェアやモデルの最適化
    アルゴリズムやモデル構造を改良し、計算量を抑える試みも進んでいます。たとえばモデルの不要なパラメータを削減する「プルーニング」や、演算精度を低くする「量子化」、大きなモデルを簡略化したモデルに“知識蒸留”する方法などが挙げられます。これらは精度を大きく落とさずに必要演算を減らせるため、トレーニングや推論に要するエネルギー消費を大幅に削減できます。Googleが進める「モデルの最適化」もこの一環で、簡単な問い合わせなら軽量モデルで処理し、複雑な問い合わせだけ高性能モデルを使うといった手法も検討されています。多くのAIフレームワークが省エネモードや効率的なライブラリを提供することで、開発者が手軽に環境負荷を減らせるようになっています。
  3. 再生可能エネルギーの導入
    前述のとおり、主要なAI企業やデータセンター運営者は風力や太陽光、水力、原子力などの低炭素エネルギーへの切り替えを加速させています。オンサイトでの発電設備導入や再生可能エネルギー証書(REC)の購入などを行い、2030年までに24時間365日カーボンフリーの電力を目指している企業もあります。CO₂排出が少ない地域(例: 北欧など)にサーバーを置いたり、再生可能エネルギーが余っている時間帯に計算を集中させる「カーボンアウェア・スケジューリング」を導入する動きも出てきました。BLOOMがフランスの原子力主体グリッドを利用した例でも分かるように、電力源を工夫するだけで大幅な削減が可能です。
  4. カーボンオフセットと「カーボンニュートラル」宣言
    排出量をゼロにできない部分については、カーボンオフセットを利用して埋め合わせる企業も多いです。これは植林や再生可能エネルギー支援など別の場所でCO₂削減プロジェクトを行い、自社の排出分を相殺する仕組みです。Meta(Facebook)などはLLaMAなどのモデルのトレーニングで出たCO₂をオフセットする措置を取っており、多くのクラウドプロバイダも「カーボンニュートラル」を謳っています。ただし、オフセットは実際の電力消費を減らすわけではないため、それだけに頼るのは問題だとの指摘もあります。
  5. 透明性とモニタリングの取り組み
    AIのエネルギー使用量やCO₂排出量を正確に測定・公表しようという動きも活発化しています。たとえばStanfordやMosaicMLが開発した「AIカーボントラッカー」は、モデルトレーニング中の電力使用や排出量を記録するツールです。MicrosoftのAzureはユーザーのワークロード排出量を可視化する「Emissions Impact Dashboard」を提供しており、GoogleもAI計算1単位あたりに排出されるCO₂(Compute Carbon Intensity: CCI)を提案しました。こうした透明性の向上により、企業同士が効率性を競い、環境報告書で排出量を公表する動きが広がると期待されています。

これらの取り組みによって、実際にハードウェアは高効率化が進み、再生可能エネルギーの使用率が上昇しています。しかし同時にAIへの需要も急増しており、効率化の成果が需要増に追いつかない(いわゆるリバウンド効果)のではないかという懸念も存在します。

「グリーンAI」への批判と課題

業界が「グリーンAI」に向けて努力を重ねる一方、取り組みの実効性を疑問視する声や、ペースが追いつかないという批判もあります。効率化が進めば進むほど、コストが下がった結果、AIの利用頻度が爆発的に増え、総エネルギー消費をむしろ押し上げてしまうという「ジェボンズのパラドックス(リバウンド効果)」が懸念されています。運輸や照明の歴史でも同様の現象が起きたように、AIも省エネ化が進むとより多くのアプリケーションで使われてしまい、トータル排出量を抑えられない可能性があります。実際、モデルのパラメータ数や利用規模はこれまで急激に伸びており、効率改善のスピードをはるかに上回っていると見る専門家もいます。

また、カーボンオフセットへの過度な依存にも批判が集まっています。環境保護団体などは、「オフセットは自社の排出を直接削減するわけではなく、安価なクレジットを買って“帳尻を合わせる”だけだ」と指摘し、根本的な解決策ではないと警告しています(参考: Is Carbon Offset a Form of Greenwashing? | Earth.Org)。GreenpeaceやWWFといった団体は、オフセットに頼りすぎる企業が「汚染する権利を買っている」状態になりかねず、真の持続可能性とは言えないと批判しています。同様に、「再生可能エネルギー100%」という表現も、実際には年間で相殺しているだけで、常時リアルタイムで100%再生可能エネルギーを使えるわけではないという問題があります。このようなギャップを「グリーンウォッシング」と呼ぶ声もあり、企業のPRと実際の排出削減が乖離している可能性があります。

さらに、こうした排出データを公表しない企業が多いことも問題です。特に民間の研究開発では、GPT-4のような大規模モデルのトレーニング消費電力や排出量が非公開のままというケースが少なくありません。Greenpeaceは2024年初頭に「AIモデルのエネルギー消費に関する信頼できるデータが不足している」と強調し、標準化された報告の枠組みを求めています(参考: Greenpeace USA Endorses Bill to Assess AI Environmental Impact – Greenpeace)。こうした不透明性がある限り、独立した専門家や規制当局が本当に効率化が進んでいるのか、単なるPRなのかを判断しづらくなり、批判や懐疑的な声が高まるのも当然でしょう。

最後に、AI利用全体の在り方を問い直す必要があるという意見も出ています。コロンビア大学のClifford Stein氏などは、「これほどエネルギーを消費する大規模言語モデルを、あらゆる場面で使う必要があるのか再考すべきだ」と主張しています。大規模モデルが万能に見える一方で、実際には小型モデルで十分なユースケースも数多く存在するからです。「性能さえ良ければ何でもAIでやる」という風潮を見直し、環境コストも考慮した上で本当に必要な用途を見極める文化的な転換が必要だという指摘があるわけです。

AIの持続可能性をめぐる政策と規制の動き

AIのCO₂排出が増加している事態を受け、政策立案者もAI開発と持続可能性を両立させるための動きを始めています。アメリカでは、エド・マーキー上院議員(マサチューセッツ州選出)とマーティン・ハインリッヒ上院議員(ニューメキシコ州選出)が提案した「Artificial Intelligence Environmental Impacts Act of 2024」が注目を集めています。この法案はGreenpeaceなどの環境団体が支持しており、政府がAIの環境負荷を調査し、標準化されたエネルギー使用・排出量追跡システムを構築することを目的としています。将来的には企業に大規模AIモデルの排出量報告を義務付ける規制の土台となる可能性があります。Greenpeaceは、こうした透明性こそが企業の責任を追及し、AIが気候危機をさらに深刻化させる事態を防ぐうえで不可欠だと主張しています。2024年初頭時点ではまだ法案審議の段階ですが、通過すれば他の産業での環境基準と同様にAIにも排出報告や効率基準が課される道が開けるでしょう。

業界側からも、規制整備を求める声が出ています。2024年4月、Salesforceは企業に対してAI関連の排出量を開示することを法律で義務付けるよう公に要請しました(参考: Salesforce Advocates for AI Emissions Disclosure – PracticalESG)。同社は汎用的な大規模言語モデルを利用するあらゆる組織が、AIのエネルギー効率やカーボンフットプリントを共通の指標で公表すべきだと提言しています。これは自動車の燃費基準が業界全体の底上げに寄与したように、AIサービスでも「環境効率」を比較しやすくし、ユーザーや投資家にとってグリーンな選択肢を見極められるようにする狙いがあります。環境・社会・ガバナンス(ESG)の観点からも、AIを含むテック企業の排出量は株主や規制当局の監視対象となりつつあり、将来的に排出量の多い企業は炭素税や評判リスクにさらされる恐れもあります。このため自発的な対策や政策への協力姿勢を示す企業が増えているわけです。

国際的には、AIガバナンスの枠組みに持続可能性を盛り込む動きがあるものの、具体的なルールはまだ初期段階です。EUの「AI法」草案は倫理面や安全面に重点を置いており、「環境リスクを軽視している」という批判を受けています(参考: The EU’s AI Act: Dangerously Neglecting Environmental Risks)。環境保護団体や専門家の間では、「AI法」の最終案にエネルギー効率要件や排出量開示を組み込むべきだという声が上がっています(参考: The EU AI Act and environmental protection: the case for a missed …)。また、ITU(国際電気通信連合)などの標準化機関も、エネルギー効率に優れたAIやデータセンターに関するガイドラインを作成し始めており、将来的には各国の規制や業界標準に反映される可能性があります(参考: US Environmental Social Governance Legal Considerations AI …)。世界経済フォーラム(WEF)のAIガバナンス関連の議論でも、AIの恩恵とリソース消費・排出のバランスを取る必要性が強調されつつあります。

結論と専門家の展望

AIの急速な進化はGPT-4のような高度な言語モデルや強力な画像生成モデルを生み出し、驚くべき成果をもたらしました。しかしその一方で、こうした大規模モデルのトレーニングや運用には莫大な電力を要し、その背後で多量のCO₂が排出されているのも事実です。1回のトレーニングで数百〜数千トンのCO₂が排出されるケースもあり、多数のユーザーによる推論利用が重なれば、さらに大きな環境負荷となります。これに対して業界は、半導体設計の最適化やソフトウェアの効率化、再生可能エネルギーの採用、カーボンオフセットなど、さまざまな方法で排出量を抑えようと努力しています。実際に、数年前と比べると同じタスクに必要な電力は改善が見られますが、AI利用の拡大ペースが非常に速いため、絶対量としての排出は依然として増加傾向にあります。

専門家の見解は楽観と慎重論が入り混じっています。Googleのサステナビリティチームは「ハードウェアやソフトウェアを引き続き最適化し、カーボン効率を上げる大きなチャンスがある」とし、排出量を可視化する指標を公表して業界内で競争を促す意向を示しています。一方で環境保護団体や学識者の中には、「あまりに巨大なモデルを無制限に増やし続ければ、効率化では追いつかず、気候目標に悪影響を及ぼす」と警鐘を鳴らす人もいます。結局は技術的な進歩と政策的な規制の両面が必要であり、AI1回の演算あたりのエネルギー消費を下げるエンジニアリングの努力と、AI成長を気候対策と整合させるルールづくりが重要になるでしょう。

結論として、大規模AIモデルは実世界の産業活動と同様に、現時点では多大なCO₂排出を伴う可能性があります。しかし、これは不変ではありません。再生可能エネルギーの利用拡大やハードウェア・ソフトウェアの効率向上、さらに利用方法の見直し次第で、急増するAI利用と環境保護を両立させる道はあります。今後は、企業・研究者・政策立案者が一体となって「賢いイノベーション」を追求し、AIが持つ可能性を最大化しつつ気候危機を深刻化させないようにするバランス感覚がより一層求められるでしょう。

ネットゼロ達成に向けて

NestgenではSBTiやRE100を活用したネットゼロ達成に向けてのコンサルティングや、再エネ証書、ボランタリークレジットの代理買い付けを、海外のコンサルファーム、ブローカー等と提携をして行っております。
またヨーロッパ在住のメンバーがアテンドする欧州出張支援サービスも行っております。
お悩みの方はこちらよりぜひご相談ください。