「完全自動運転で事故が減る」は本当か 巨大化する投資 安全めぐる各社の成功と挫折

自動運転技術を普及させる取り組みが進んでいる。「サンフランシスコ市で完全自動運転タクシーに乗ってみた」、「日本でも自動運転技術のテスト始まる」といった内容の記事を目にする機会が増えている。筆者は、東京近郊の自宅付近で自動運転技術の実証検証中と記されたマイクロバスが公道を走行している様子を目にした。
次のような主張を耳にすることもある。「完全自動運転が普及すれば事故が減る」「運転手不足の問題は自動運転技術で解消できる」「マイカーを空き時間に自動運転タクシーとして貸し出せる」――それが実現すれば、すばらしいことだ。だが、これらの主張はどれほど確からしいのだろうか?
実は、残念なことに自動運転技術に関わる事故はすでに多数発生しており、自動運転技術の安全性の評価は不十分だと指摘されている。そして自動運転技術の開発に投入される資金は業界各社の想定を上回る膨大な金額となっている。自動運転技術の今後には、安全性の課題と投資規模の巨大化という二つの暗雲が立ちこめる。
自動運転技術の議論は、楽観的な話ばかりではないのである。
自動運転技術の最先端と見られる企業は米国のWaymo(ウェイモ)。Googleと同じAlphabet傘下の企業である。同社は現在、米カリフォルニア州サンフランシスコとロサンゼルス、南部テキサス州フェニックスとオースティンの4都市で「レベル4」(地域を限定した完全無人運転)の自動運転タクシー事業を運営中である。
2024年12月19日、同社は公道での走行距離が2024年7月31日までに2530万マイル(約4070万km)に達したが、重大な事故は発生しておらず「人間のドライバーよりも事故が少ない」と主張した。
同社は日本進出も予定する。タクシー会社の日本交通とタクシーアプリ「GO(ゴー)」と提携し、2025年初頭には東京でドライバー同乗の公道テストを開始予定と発表している。
また電気自動車(EV)で世界シェア1位のテスラは「オートパイロット」と呼ぶ運転支援機能(レベル2自動運転機能)を搭載しており、自動運転技術に関して存在感がある企業の一社である。テスラに関する話題は多いため、後編記事で述べることにする。
これら各社のニュースを見て、「有力なテクノロジー企業が順調に開発を進めており自動運転の普及は近そうだ」といった印象を持つ人もいるだろう。自動運転技術は完成に近づきつつあり、交通事故は今後減ると考えていいのだろうか?
筆者は交通事故に遭ったことがある。
数年前、青信号の横断歩道を横断中に右折してきた車にはねられた。日没後の出来事で、自動車は見通しが悪い小路から飛び出してきた。避けようがなかった。はね飛ばされて意識を失い、気がついたときは救護の途中だった。背骨の突起部が折れていた。打撲の影響なのか血尿が続いた。回復までには何カ月も要した。その後も精神的なダメージによる「おっくう感」(思考運動抑制)や睡眠障害が続いている。今も、一日の半分をベッドに横たわってすごす日が多い。
事故に遭って文字通り痛感したことは、私たちは統計上の数字ではなく、それぞれが生身の体を持つ生きた人間であるということだ。事故の背後には、生きていた人間の営みが損なわれる悲劇がある――この事実をまず念頭に置いてほしい。事故が起きれば自分や親しい人が傷つき、命を落とすかもしれない――この事実を、冷静さを欠く感情論であるかのように冷笑せず、真剣さを失わずに考えてみてほしいのである。
さて、自動運転技術が普及すれば、筆者のような目に遭う人を減らしてくれるのだろうか?
自動運転技術の安全性には重大な疑問が指摘されている。Waymoは2530万マイルの走行データに基づき「自動運転技術は人間よりも安全」と主張したが、コンピューター分野の権威ある学会であるACM(Association for Computing Machinery、米国計算機学会)の報告書によれば、この走行距離は安全性を議論するにはまったく不十分である(詳細は後述する)。
次に投資規模の問題がある。
自動運転技術の開発に巨額の資金を投入しながら、開発に失敗して撤退する事例が増えつつある。
GM子会社のCruise(クルーズ)には合計100億ドル(約1兆5500億円)以上が投資されていたが、人身事故への対処の不始末を指摘され続け、2024年12月に事業継続を断念した。同社に巨額投資した日本のホンダもCruiseとの提携解消に追い込まれた。
2024年2月28日には、AppleがEV開発計画を白紙撤回したと報道された。
Appleは公式発表をしていないが、同社が通称「Apple Car」の開発を10年近くも続けていたことは周知の事実だった。開発中断の時点で2000人の従業員が開発に従事する大型プロジェクトだった。開発中止の大きな理由の一つが自動運転技術の困難さだと考えられている。Appleは「運転席がない完全自動運転車」をイメージしていたと伝えられるが、それは世界最大級のテクノロジー企業であるAppleにとっても想像以上に遠い目標だったのである。
自動運転技術の開発には法外に多額の資金が必要だ。しかも技術が完成するまでの過程で人々を死なせ傷つける。この事実を、私たちはどれだけ真剣に受け止めているだろうか。
ここで基本的な用語を確認しておきたい。自動運転技術は5段階に分類されている。
レベル1は、「車間距離を保つ」などシンプルな運転補助機能。
レベル2は車線変更などを含む高度な運転支援機能。テスラが提供する「オートパイロット」はレベル2である。
レベル3は、人間は前方に注意し緊急事態には介入する義務があるが、運転は原則としてコンピューターが行うため、ドライバーはハンドルから手を離してよい。ここまではドライバーが監視する前提であり、事故責任は人間のドライバーが負う形で処理されてきた。
レベル4は地域を限定した自動運転。ドライバーは同乗しなくてもよい。レベル4は、前述のWaymoが達成している。
レベル5は、どこでも走れる完全自動運転である。レベル5は2024年末時点で、どの企業も達成していない。
2018年3月18日、Uberのレベル3自動運転のテスト車が死亡事故を起こした。自動運転車による最初の死亡事故とされている。
報道によれば事故の経緯は次のようになる。Uberのソフトウェアは、自転車を押しながら徒歩で道路を横断していたエレイン・ハーズバーグを「先行車両」と認識してなんの警告も出さなかった。衝突0.2秒前に警告音が鳴り響いたが、自動ブレーキは動作しなかった。「不規則な車両挙動の可能性を減らす」ため自動ブレーキが無効化されていたためだ。
衝突の100分の2秒前、監視者(バックアップドライバー)であるラファエラ・バスケスはハンドルを操作してマニュアルモードに切り替えたが、衝突を避けることはできなかった。
運転席に座っていたバスケスは前方注視を怠っていた。状況から、スマートフォンに目を落としてメッセージングアプリの業務連絡などを見ていた可能性がある。事故の直後にはバスケスが動画配信サービスの番組を視聴していたと非難する報道も流れたが、実際にはストリーミングを再生していた別のスマートフォンは助手席に置かれ、バスケスは番組の音だけを聴いていた。
裁判では、事故の原因は主に搭乗していた監視者であるバスケスの「人為的なミス」とされた。Uberの自動運転テスト車はもともと2人が搭乗する体制だったが、事故発生当時はコストダウンのためドライバーは1人に減らされていた。
事故の後、Uberの自動運転技術開発はストップしてしまった。同社は自動運転部門から300人近い人員を解雇し、さらに自動運転部門を他社に売却してしまった。同社が自動運転車で人身事故が起こる可能性を真剣に考慮していたのかどうかは疑問である。
2023年7月28日、裁判所でバスケスは危険運転致死罪を認め、3年間の監視付き保護観察処分を言い渡された。事故の被害者のエレイン・ハーズバーグも、事故責任を負ったラファエラ・バスケスも、どちらも社会的弱者だった。報道によれば、ハーズバーグはホームレスで、薬物を乱用した過去があった。バスケスも性的暴行の被害者であり、自殺未遂を繰り返しながら育った人物だった。いっぽう自動運転機能を開発したUberは刑事告訴を免れた。経営陣は誰一人として責任を問われなかった。この不均衡をどのように考えるべきだろうか。
自動車大手GM傘下のCruiseは、サンフランシスコで自動運転タクシーを運営していた。ドライバーは搭乗しない(遠隔監視は行っていたようである)。
2023年10月2日、Cruiseの自動運転タクシーが人身事故を起こした。ドライバーも乗客も乗せずに無人で走行していたCruise車の進路に、他の車両にはねられた歩行者の女性が投げ出された。Cruise車は、縁石まで時速7マイル(約11km/時)で約20フィート(約6メートル)、被害者を前方に引きずった。
Cruise車は当局が到着するまでハザードランプを点灯したまま女性の上に停車した。被害者の女性は重傷を負った。この間違いの原因の一つは、自動運転機能が「正面衝突ではなく側面衝突である」と判定したためだった。CruiseのWebサイトには「当社は自動運転技術が人の命を救い道路をより安全にすると信じています」と書かれていた。
この事故では、まず人間のドライバーによる人身事故が起こり、その後にCruiseの自動運転タクシーが被害者にさらに重傷を負わせた。このように、まれにしか起こらない事象への対処は、AIの不得意分野である。人間のドライバーなら、少なくとも飛び込んできた被害者をこれ以上傷つけないように配慮できた可能性が高いだろう。
事故直後のCruiseの姿勢は「誠実さを欠く」として規制当局から非難された。陸運局や他の機関は、「自動運転タクシーが被害者をひいた後に何をしたのかなど、詳細情報の共有を避けている」と指摘した。
3週間後、カリフォルニア公益事業委員会(California Public Utilities Commission)はCruiseの無人運転車の試験許可を一時停止した。その直後に同社は全国の道路からすべての無人運転車を撤退させた。
2024年1月24日、法律事務所クイン・エマニュエル・アークハート・サリバンによる第三者報告書が発表された。しかしCruiseへの批判はやまず、この報告書をもって幕引きという訳にはいかなかった。
2024年6月、カリフォルニア公益事業委員会(CPUC)は、Cruiseの事故対応について11万2500ドル(約1744万円)の罰金支払いを命じた。罰金の内訳は、Cruise社が規制当局への重要事項の報告を遅らせたと認められた15日間、1日7500ドルを支払うというもの。Cruiseは当初、7万5000ドルの罰金で済ませるよう当局に働きかけていた。
2024年9月30日、米運輸省道路交通安全局(NHTSA)は、Cruiseに対し、事故の報告を完全に行わなかったとして150万ドル(約2億3250万円)の罰金を支払うよう命じた。
2024年11月14日、司法省(DOJ)は起訴猶予処分を発表したが、同時にCruiseは50万ドル(約7750万円)の刑事罰金を支払うことに同意した。決定はカリフォルニア州北部地区の連邦検事局内で下された。この罰金は事故に対する「誠実さの欠如」を受け、Cruiseとそのスタッフの責任を追及するためとされた。罰金とともに、Cruiseは安全コンプライアンス・プログラムを実施し、米国連邦検事局に毎年報告書を提出し、すべての政府機関の調査に協力する義務を負った。
Cruiseはスタッフと幹部の大幅な入れ替えを行い、25%の従業員を解雇し、2人の共同創設者が他の数人の高位社員とともに辞任した。これらの動きを見せる一方で、Cruiseは2024年内に自動運転タクシー事業を再開する意向を持っていた。
ところが2024年12月10日、GMは子会社であるCruiseの吸収を発表。自動運転タクシー事業から撤退し、GMの個人向けレベル3自動運転技術への取り組みと統合することを発表。Cruiseに合計で27億5000万ドル(約4263億円)を出資していた日本の自動車メーカーのホンダは提携を解消した。
ホンダがCruiseと共に2026年に日本で自動運転タクシー事業を開始する計画は、ご破算となった。Cruiseに出資していた米マイクロソフトも8億ドル(約1240億円)と巨額の減損費用を計上した。
Cruiseは2013年、独立系のスタートアップ企業として設立され、2016年に推定10億ドルでGMに買収された。GMがCruiseに投入した資金は合計100億ドル(約1兆5500億円)以上といわれる。GMは年間20億ドル(約3100億円)をCruiseのために支出していたが、同社の吸収により支出を年間10億ドル(約1550億円)に削減できると見込んでいる。自動運転技術に投入される資金の規模は、世界5位の自動車メーカーであるGMにとっても大きな負担となっていたのである。
米Googleの親会社Alphabet傘下のWaymoは、前出のCruiseと共に、サンフランシスコ市で無人運転タクシーを運営してきた。
Waymoは事故率の低さを誇る報告書を公開している。実際、記事執筆時点では重大な人身事故は起こしていない。ただし軽微な事故はいくつか報告されている。例えばWaymoの自動運転タクシーは2024年2月、サンフランシスコ市内で走行中の自転車と接触事故を起こし、サイクリストに軽傷を負わせた。
2024年2月10日の夜、Waymoの自動運転タクシーがサンフランシスコの中華街で群衆に破壊され放火された。通りを走っていたWaymoの白いSUVを群衆が取り囲み、ある人物はボンネットに飛び乗りフロントガラスを割った。30秒後、群衆の一部が拍手喝采する中、別の人物もボンネットに飛び乗った。何者かが車内に花火を投げ込み、車両に火がついた。乗客はおらず、けが人はいなかった。
事件の背景は分からないが、米国では自動運転タクシーによる事故やトラブルが相次いでいることから、不満を募らせた群衆による嫌がらせの可能性がある。前年に起きたCruise車の人身事故の「とばっちり」を受けた可能性もあるが、自動運転車への反感が表明された事件といえるだろう。
米国の標準的な業界基準では、人間が運転する自動車は、1億走行マイル(約1億6090万キロ)あたり約1人の交通事故死亡者を出すとされている(飲酒運転や不注意運転を含む)。これは数万人の交通事故死亡者の命であがなわれたデータである。自動運転車による死傷者は、人間のドライバーより有意に少ないといえるのか。「自動運転で事故が減る」という主張を考える上では、これは重要な論点といえる。
前述のように、Waymoのレベル4自動運転車は今のところ走行距離2530万マイルで1件も死亡事故を起こしていない。同社は、人間のドライバーよりもWaymoの自動運転車は事故率が低いと主張している。
同社は、人間が運転する自動車では、走行2200万マイルあたり、「31件のエアバッグを作動させるほど重大な衝突事故」が発生すると推定するが、一方でWaymoの自動運転タクシーは、走行2200万マイルのフェニックスとサンフランシスコで、重大事故は84%少ない「5件」、負傷事故では73%少ない「20件」。比較すると人間よりも成績が良いように見える。
ただし、Waymoが公開したデータを根拠に「自動運転車の方が人間よりも安全であるという結論が出た」と考えるのはまだ早い。
まず、このデータはWaymo以外の自動運転車の安全性を裏付けない。なぜなら、開発は各社がバラバラに進めているからだ。
次にWaymo車はあらかじめ決められた区間を走る「レベル4」自動運転である。つまり道路のデータが整っていることが事故率の低さに結びついていると考えられる。また走行距離は合計2530万マイルにすぎない。走行区間の範囲が広がれば、データがよく準備されていない区間も走ることになるだろう。また走行距離が長くなれば、いままでに起きなかった種類の事故も起こるだろう。つまり今のデータから「人間より安全」と断言することはできない。
安全やリスク(危険性)に関する学術的な知見は日々アップデートされている。そして交通事故のような「非常に低い確率でまれに起きる現象」を思考することは難しい。単純な統計や外挿で考えると間違った結論を導きやすい。
コンピューター関連分野の権威ある学会であるACM(Association for Computing Machinery)は「完全自動運転の普及により事故を減らせる」との主張を裏付けるデータはないと警告した(ACM TechBrief: Automated Vehicles Winter 2024)。
ACMが公開した文書によれば、従来の自動車と完全自動運転車の安全性を正確に比較、評価するには110億マイルのテスト走行が必要と推定される。一方で、2023年に米国で実施された完全自動運転車のテスト走行距離は2000万マイルにすぎない。
ACMは「技術にも実験データにも欠陥がある」「事故を減らせるのか、いつになったら減らせるのかを語るのは時期尚早」「現状のデータでは不十分であり、自動運転車がリアルワールドで人間のドライバーより安全だというメーカーの主張は裏付けられていない」と厳しい見方を示した。
ACMが指摘する110億マイルのテスト走行は、Waymoの無人タクシーがすでに走行した距離の435倍に相当する。GMが市販車に搭載する自動運転機能「スーパークルーズ」は、同社発表によれば月間1000万マイルを走行しているとされるが、それでも走行距離110億マイルに到達するには、現在と同じ走行ペースなら92年が必要となる計算だ。
つまり現状は圧倒的なデータ不足の状態であり「人間よりも安全」と言える段階にはない。そして「自動運転は人間のドライバーよりも安全かどうか」を知るまでの過程では、少なくない数の人間が死傷することになるだろう。
後編では、テスラの事例について見ていきたい。
(1ドル=155円換算、敬称略)