1. HOME
  2. World Now
  3. OpenAIの投資計画はアポロ計画の70倍?加速し膨張するAI開発投資、バブルの懸念も

OpenAIの投資計画はアポロ計画の70倍?加速し膨張するAI開発投資、バブルの懸念も

World Now 更新日: 公開日:
OpenAIのサム・アルトマンCEOと同社のロゴ
OpenAIのサム・アルトマンCEOと同社のロゴ=ロイター

OpenAIが2024年5月13日に発表した新たなAI(人工知能)技術であるGPT-4o。前編ではAIの「声」が「自分の声と似すぎている」という俳優スカーレット・ヨハンソンの抗議の背景から同社の倫理面の課題を考察した。後編では、急速に大規模化するAI開発投資の問題を取り上げる。(星暁雄=ITジャーナリスト)

AI開発企業が抱えるもうひとつの課題は、AI開発投資が極端なまでに大規模化しつつあることだ。OpenAIやマイクロソフトのようなAI開発企業は、今後数年の間に、AI関連の開発投資を「1000億ドル(約15兆6000億円)」あるいは「7兆ドル(約1092兆円)」と極端な規模へと拡大する野望を抱いている。現状のAIの100倍、あるいはそれ以上の規模のAIを作り出すためだ。

大規模投資計画は現状の100倍以上

2024年2月、AI開発企業OpenAIのCEOであるサム・アルトマンが、AI向け半導体の増産とAIデータセンター増強のために実に5兆〜7兆ドル(780兆〜1092兆円相当)の資金を集めていると経済紙ウォールストリート・ジャーナルが報じた。アラブ首長国連邦(UAE)政府、ソフトバンクの孫正義CEO、台湾の半導体メーカーTSMCと話し合いをしているという。

この7兆ドルという数字は誇大妄想といえる水準だ。2022年度の半導体市場規模の10倍以上。アメリカの2022年のGDP(国内総生産)の1/4におよぶ。日本のGDPの2倍に近い。マクロ経済に影響を及ぼすことが避けられない規模である。

東京大学安田講堂で開かれたシンポジウムに出席し、生成AIについて語るソフトバンクグループの孫正義会長兼社長
東京大学安田講堂で開かれたシンポジウムに出席し、生成AIについて語るソフトバンクグループの孫正義会長兼社長=2023年7月4日、東京都文京区、朝日新聞社

2024年2月、ソフトバンク創業者の孫正義氏はAI用の半導体ベンチャーのために最大1000億ドル(約15兆6000億円)の資金調達を計画中だと経済メディアBloombergが報じた。前述のアルトマン氏の計画とは別の計画だという。ソフトバンクグループが300億ドル、中東の投資家などから残り700億ドルを調達する。

2024年3月、マイクロソフトとOpenAIは、2028年にかけて1000億ドル(15兆6000億円相当)をAI用データセンターに投資する計画と報道された。AI専用チップを数百万個の規模で調達して使用する。現在の最大規模のデータセンターの100倍の規模である。

最新のAI動向のニュースの中では、1000億ドル、あるいは7兆ドルといった巨大な金額がたびたび話題になっているのである。

アルトマンが考える7兆ドルの投資計画は、人類の月着陸を実現したアポロ計画の約70倍、原子爆弾を開発したマンハッタン計画の約300倍に達する(注:米国の大規模プロジェクトに関する論文に記載された2008年時点のドル価値換算の金額を用いて試算)。この投資の一部分でも実際に動き始めれば、巨額の資金投入に伴う「AIバブル」が発生するだろう。

月面に立つアポロ11号の飛行士と星条旗
月面に立つアポロ11号の飛行士と星条旗=1969年7月20日、NASA提供

なぜ規模を競うのか。ここ数年のAIの性能は主にデータとコンピューターの処理能力の規模拡大により向上してきたからだ。OpenAIのミッションは「安全なAGI(汎用人工知能)を作ること」である。AGIとは、人間に匹敵する、あるいは人間を越えるAIを指す言葉だ。OpenAIは、規模拡大路線を続けていけば、その延長にAGIが待っていると信じるのだ。だが、AI開発企業の巨大投資は私たちにとって良いことなのだろうか。

AI開発競争でより優れたAIが登場すると期待する意見もあるだろう。だが「投資金額が過大である」と投資家が考えた場合、2000年のインターネットバブル崩壊や2008年のリーマン・ショックのような危機が発生するシナリオも考えられるのである。

巨大化がAIブームを生み出し、AIブームが巨大化を加速する

なぜAI開発企業が大規模化を競っているのかを「おさらい」しておきたい。

今のAIブームの大きなターニングポイントは、OpenAIが2022年11月30日にサービスを開始した対話型のAIサービス「ChatGPT」が注目を集めたことである。ChatGPTは「このAIには知性のようなものがあるのではないか?」と感じるほどの性能を発揮した。その最大の要因は学習データの大規模化である。

AIの心臓部であるLLM(大規模言語モデル)には「スケーリング則」と呼ばれる性質がある。これは「規模が大きくなるほど性能が高まる」という性質である。このスケーリング則が知れ渡り、大手テクノロジー企業はAIの大規模化の競争を繰り広げている。

現状のAIの規模は、具体的にはどれほどなのか。2020年にOpenAIが発表した「GPT-3」の内部では、45テラバイトのテキストデータを学習に用いた1750億パラメーター(変数)の数学的モデルを用いていた。最新のGPT-4.0oの数字は非公表である。GPT-3に比べ10倍〜100倍の規模に達していると考えられている。

高性能ぶりを示すため、複数のタスク(課題)の成績が公表されている。公開当初のChatGPTで使われたAI技術「GPT-3.5」は、米国の医師国家試験(USMLE)、MBA(経営学修士)の最終試験、ロースクール(法科大学院)の試験などで合格点を取る成績を収めた。その後に登場したGPT-4ではさらに成績が上がっている。

AIを作るプロセスでは、まず大量のデータを集め、大規模なコンピューター群を調達する。変数の数が数千億に達する巨大な数学的モデルをコンピューターが扱える形で構築し、コンピューター群をフル回転させて大量のデータをモデルに「学習」させる。その後、人間にとって好ましい応答をするように「調整(アライメント)」し(例えば差別発言や、「爆弾の作り方」のような発言をしないように対策する)、特定のタスクの成績が上がるようにチューニングを施す(タスクには、前述した医師国家試験や経営学修士の試験、法科大学院の試験なども含まれると考えられる)。

ここで性能を決める大きな要素が、学習データの規模とコンピューターの規模だ。

AI開発競争は半導体産業にも影響

AI開発の規模拡大は、半導体産業にも影響を与えている。

半導体メーカーNVIDIAは、AIの学習に用いる半導体(大規模集積回路)を事実上独占しているため、AIブームの過熱で大儲けをした。同社の2024年1月期の決算は売上高が前年同期比2.3倍の609億ドル(9兆5000億円)、営業利益が同7倍の330億ドル(5兆1480億円)と絶好調である(発表資料)。

株価も上昇し、時価総額は一時3兆ドル(468兆円)を超え、Appleを上回った。AI開発に取り組む各社はNVIDIAの半導体の奪い合いをしている状態だ。Google、Amazon、マイクロソフトは自社開発のAI向け半導体開発に取り組んでいるが、NVIDIAの勢いはまだまだ続きそうだ。

しかし、NVIDIA以外の企業は儲かっていないようだ。ベンチャーキャピタルのセコイアによれば、2023年にAI業界はNVIDIA製半導体に実に500億ドルを投じた。しかしAI業界全体の売上げはわずか30億ドルだったという。またOpenAIの売上高は非公開だが、英国の経済紙フィナンシャル・タイムズ(FT)は「20億ドル以上」と報じている。いずれも巨大投資に釣り合わない金額だ。

アジア最大級のコンピューター見本市「COMPUTEX」開幕に先立ち、講演するNVIDIA(エヌビディア)のジェンスン・フアンCEO
アジア最大級のコンピューター見本市「COMPUTEX」開幕に先立ち、講演するNVIDIA(エヌビディア)のジェンスン・フアンCEO=2024年6月2日、台湾・台北、ロイター

AIが大規模化で高性能になったことで、AIブームが発生した。AIブームによりAIの大規模化の競争はさらに過熱した。過熱し、加速する競争の果てに、いったい何が待ち受けているのだろうか。

AI開発の最新トレンドは「マルチモーダル」

AIで性能を上げるには大規模化が重要だった。だが大規模化に伴う課題もある。一つは学習用データが枯渇してしまうこと。もう一つは投資規模があまりにも巨大になりすぎることだ。

まずデータ量の問題を見ていこう。当初のChatGPTはインターネットから収集したテキストデータを学習に用いていた。だが、それだけではデータ量が足りなくなり、Googleが運営する動画サービスYouTubeに投稿された動画から100万時間以上を書き起こしたテキストデータを学習に用いていたと報道された。

OpenAIやGoogleなどAI開発企業の最新トレンドは「マルチモーダル」である。例えばGPT-4oのように人間と音声で対話したり、カメラで表情を読み取ったりする機能や、動画を生成する機能などを競っている。

こうした動きの背景には学習用データの枯渇問題がある。例えば、4月6日付のニューヨーク・タイムズ紙の記事は、AI開発企業がデータ収集競争に明け暮れていることを伝え、「インターネット上で手に入るデータは貴重で有限な資源である」と述べている。

AI開発企業はいまやインターネット上のテキスト情報を使い果たし、テキスト以外の情報——動画や音声、人間との会話などに目を向けるようになっているのである。

データ量とは別に、学習データの著作権問題も今後深刻になる可能性がある。

米ニューヨーク・タイムズ紙は2022年12月27日、OpenAIとマイクロソフトを著作権侵害で提訴した。著作権で保護された何百万もの記事を、ChatGPTのようなAIシステムを学習させるために無断で使用し、現在ユーザーの情報源としてタイムズ紙と競合していると主張した。一方、OpenAIは、記事データの利用は「フェアユース」にあたると主張し、また訴訟のために特殊な操作を行い、記事を再現したと応酬した

最近、OpenAIは、英紙FTや大手掲示板のReddit、それに経済紙ウォールストリート・ジャーナル(WSJ)の親会社であるNews Corp、それに『The Atlantic』誌と提携した。伝統的な大手経済紙、雑誌、それに大手掲示板の内容をAIサービスで利用できるようにする計画だ。AI開発企業にとっても、著作権問題がクリアで信頼できる最新情報は重要なのである。

企業が負える責任を超えていないか

今やAIの開発は、開発投資の側面でも、倫理への懸念の点でも、企業の製品開発という範疇を越えている。AIの開発を主導している企業は、市場で消費者から支持された企業というよりも、むしろ注目度をテコにして巨額の資金を集めることに成功した企業だ。AI開発企業の開発方針は、市場のニーズや人々の意見を聞くことによってではなく、OpenAIのアルトマンをはじめ影響力がある少数に企業の経営者たち——ほんの一握りの人々の信念や好みで決まっている。ひたすら大規模化を図り、AGI(汎用人工知能)を一番先に作ることを目指して、巨額投資の掛け金をつり上げている。

その先に何が待ち構えているのか。AI開発企業は、規模拡大の先には「シンギュラリティー(技術的特異点)」や「AGI(汎用人工知能、人間に匹敵する、あるいは人間を越える人工知能)」が待ち構えていると信じているようだ。

だが、筆者には一つの疑問がある。

AIはデータを集めコンピューターで処理することで作られる。当たり前の話だが、その研究開発のプロセスは工学的に設計されて管理されている。つまり、AI開発企業は工学のアプローチでAI開発を進めている。

ところが、シンギュラリティーもAGIも、工学的に定義された概念ではない。シンギュラリティー(技術的特異点)とは「現状の技術では予想できないほどすごいもの」といった意味である。そしてAGIとは「人間に匹敵する、あるいは人間を超えるAI」だが、そもそも私たちは人間について——工学的にも、生物学的にも、人文学的にも——理解したといえるのだろうか。むしろ、完全には理解しきれないことが人間の本質なのではないだろうか。工学的なプロジェクトにそのような目標を設定すること自体に無理があるのではないか。

AI研究者ティムニット・ゲブルと哲学者エミール・トレスは、米国のテクノロジー業界のエリートたちの「信念体系」である”TESCREAL”を批判した論文"The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence"の中で、OpenAIがミッションとする「安全なAGIの開発」という課題設定は矛盾していると指摘する。工学的に定義できない目標に対しては、安全性を定義することができないからだ。ゲブルとトレスは汎用的な万能AIの代わりに「安全プロトコルを開発することができる定義されたタスクに取り組む」ことを提案する。

これは筆者の意見だが、「人間のような汎用的なAI」という目標を工学だけで達成しようとするアプローチは間違っていると考える。別のアイデアは、工学的に到達できる具体的な目標を設定することだ。

例えば、AIアシスタントが登場するSF映画「her/世界でひとつの彼女」のシチュエーションでいうなら、「離婚のような大きなストレスを受け、日常生活は営めるものの人生に向き合う気力が損なわれている人と会話して励ますAIを作る」という目標を設定するのはどうだろう。

このような目標の周辺には、例えば精神医療、医療倫理、カウンセリングの技法などの知識体系がすでに存在する。また、目標に対して手持ちの知識体系が不足していると分かれば、新たな研究テーマとして取り組めばよいのだ。これは研究開発の分野では当たり前のやり方である。このアプローチであれば、映画に描かれた万能のAIよりも安全なAIを作ることができるのではないだろうか。例えばカウンセラーであるなら、映画で描かれたような相談主への過度な感情移入は禁物なはずだ。

今までのコンピューターの歴史では、需要が飽和する心配をせずに汎用的で高性能なコンピューターを作ろうとしてきた。今まではそれで良かったのである。だが、大規模化の追求は持続可能なやり方ではない。データ資源の枯渇、半導体やデータセンターの供給過多の懸念があり、そして世界経済の規模や地球環境という最終的な制約も待ち構えている。

一方で、AI開発企業や投資家はこのような意見に対して聞く耳を持たないようだ。

前述の信念体系"TESCREAL"に従うなら、例えば次のような回答が返ってくるだろう。「高度なAIが誕生すれば多くのことができる。例えば医療の進化に寄与し、多くの人命が救える。AI開発を減速させることは殺人に等しい」。だが、このような意見には根拠がない。それに医療に貢献するAIを作るなら、医療分野の倫理基準や安全基準を尊重するべきだろう。一握りの企業経営者や投資家にAIの開発を任せることが本当に私たちにとって良いことなのかどうか——それを判断できる材料は提供されていない。

筆者は、"TESCREAL"のような極端な考え方がテクノロジー業界で大きな影響力を持っていることに懸念を覚えている。そしてAI開発企業が、世の中の懸念に聞く耳を持たないことにも大きな懸念を覚える。スカーレット・ヨハンソンの抗議は、私たちが将来抱くAIへの懸念を先取りしたものかもしれないのだ。

AI開発企業が「AIの大規模化ですばらしい未来への突破口が開ける」という信念を持つことは自由だ。しかし自由には責任が伴う。現状のAI開発競争は「倫理的、工学的、経済的に企業が背負える責任の範囲で成果を出していく」というやり方から大きく逸脱している。この競争の先に何が待ち構えているか、確かなことは誰も知らない。

(米ドルの日本円相当額は1USD=156円で換算、敬称略)