1. HOME
  2. World Now
  3. どうなる? AIと人間の行方 ニューヨーク・タイムズ記者が語り合う

どうなる? AIと人間の行方 ニューヨーク・タイムズ記者が語り合う

ニューヨークタイムズ 世界の話題
米カリフォルニア州ハーフムーンベイで開かれたニュー・ワーク・サミットの討論会=2019年2月26日、Mike Cohen/©2019 The New York Times

米国テクノロジー関連のトップリーダー数十人が参加したNew Work Summit(ニュー・ワーク・サミット、訳注=ニューヨーク・タイムズ主催)が2019年2月末、カリフォルニア州ハーフムーンベイで開かれた。人工知能(AI)と人間の関係はどうなるのか。そしてAIは倫理的な問題にどう向き合うのか、といったことをテーマに、参加者たちは1日半にわたって活発な議論を交わした。会議にはニューヨーク・タイムズからテクノロジーとビジネス部門の記者も参加した。同紙Corner Office(コーナー・オフィス、訳注=企業のトップと会談し、リーダーシップやマネジメントについて特集したコラム)のコラムニスト、デイヴィッド・ゲレスとテクノロジー担当記者のネリー・ボウルズ、ケイド・メッツが会議の要点を振り返った。

メッツ 私にとって一番衝撃的だったのは、「倫理的な人工知能」の解釈を巡って意見が大きく食い違っていたことだ。倫理をとらえる視点は、人によって非常に異なっている。

ボウルズ そうでしょう。私が司会した討論会には、倫理学者のトリスタン・ハリス(訳注=技術が人びとの心と社会をハイジャックしていると警告する団体Center for Humane Technologyの共同設立者兼事務局長、グーグルの元デザイン哲学担当)とAI研究者のメレディス・ウィテカー(訳注=ニューヨーク大学の科学者で、同大のAI研究機関AI Now Instituteの共同設立者兼共同ディレクター)が参加した。グーグルやフェイスブックなどの巨大テクノロジー企業は自社製品を提供する際の倫理基準を策定しようとしているが、2人はその複雑きわまりないいくつかの問題点にまで切り込んだ。
AI技術者たちに向かって「哲学者になれ」と言うのはある意味、公平ではない。技術者のほとんどは白人で、大半が男性、しかもカリフォルニア州パロアルトのオフィス街で働いている。企業側がAIのインプリケーション(implications 、訳注=倫理的、法的、社会的な意味合い)について考えるよう彼らに期待したところで、アルゴリズムがどれほど多くの生命に、どのような影響を及ぼすのか、技術者たちはとても認識できないだろう。そこで2人のパネリストは透明性を求める議論を展開した。AIが開発途上にある以上、企業は研究者や一般の人々が理解できるよう情報を公開し、議論を始められるようにすべきだと。
同じ日の朝の討論会に関して言えば、あの「ろうそく哲学」は最高だった。

ゲレス ああ、本当だ、電気が切れてね。停電してライブ配信もできなくなり、会場の明かりはろうそくになった。AIの会議にとっては見事な光景だった。ところで倫理の問題に戻ると、まあ相対的なもののようだった。ハリスやウィテカーたちは、利用者のプライバシーを尊重するよう企業側に強く求めた。その一方で、元国防長官のアシュトン・カーターは、巡航ミサイル「トマホーク」を発射することと自動殺人ドローン部隊を派遣することはそう違わないと、説得力のある議論を展開した。

ニュー・ワーク・サミットで意見発表するGro Intelligence(グロインテリジェンス、食と農に関するデータや情報を提供するIT企業)CEOのサラ・メンカー=2019年2月26日、Mike Cohen/©2019 The New York Times

メッツ 巨大テクノロジー企業の内部でも同じように対立した議論がある。マイクロソフトは拡張現実(AR)システム「HoloLens(ホロレンズ)」のヘッドセットを米軍に供給するとの契約を結んだが、同社の従業員がこれに抗議してきたことがつい最近明らかになった。しかし、あなた(ゲレス)が会場でインタビューした同社社長のブラッド・スミスは、この契約並びに同社の他の軍事利用計画を死守すると強く主張した。彼にとって、それは「我が国(米国)の自由を守る」ことにかかわるというわけだ。

ゲレス 一大企業が従業員の抗議を断固はねつけたのは、今回だけとはいえ新鮮だった。ここ2、3年は特にそうだが、活動的な従業員たち――それは大抵口のうるさい少数派だが――が各大企業の方針を牛耳ってきた。従業員は会社のために働くのでありその反対ではないということを、マイクロソフトはようやく思い出したようだ。

メッツ グーグルは従業員の抗議に応じて、いくつか軍事協力を取りやめた(訳注=報道によると、同社は18年6月、同社のAIを使ってドローンの攻撃精度を高める米国防総省の事業で同省と結んだ契約を19年3月で打ち切ると発表した)。多くの人はそれがもっと大きな変化の始まりになるとみていた。でも、それは会社全体にオープンな交流があり、従業員個々人の声が出やすいというグーグル独自の企業文化がどれほど強く働いていたか、そう思うよね。

ボウルズ その通り。グーグルはその点、極端にユニークだ。経営者側がいつまで反抗的な従業員に耐えられるのか、私は見てみたい。たとえばフェイスブックは、ほとんど秘密主義と会社への忠誠の集団だ。だからメンローパーク(訳注=フェイスブックの本社があるカリフォルニア州の都市)では、そんなに目立った抗議は見られない。

ゲレス ケイド(メッツ)、この種のハイテクのいくつかは今、実際どのくらいインパクトがあると思っている?AIと機械学習が特定の方法で実際に使われている例は、私もいくつか聞いた。でも時折、まだみんなサイエンスフィクションの映画を思い浮かべているような感じがしてならなかった。

メッツ 現在進行形の問題だ。過去数年間、画像認識や音声認識、翻訳ではかなり進歩した。それは会話のデジタルアシスタントや自動運転車や医療分野の一部に貢献できる。むろん顔認証や自動兵器は言うまでもない。それにしても、多くのテクノロジー企業幹部、それにメディアも「AI」を異様なくらい誇張し過ぎている。でも、運転手の要らない自動車が主流になるのは何年も先だし、より優れた自動翻訳といっても、人間ができることなら何でもできるという、より総合的な知能とはかけ離れている。

ゲレス ネリー(ボウルズ)、あなたはメレディス・ウィテカーとトリスタン・ハリスと話した。2人とも今日のテクノロジーのありように警鐘を鳴らしている。そこで聞きたい。フェイスブックやグーグルといった巨大企業で意思決定をしている人たちは、本気で彼らの警告を聞こうとしていると思うか? それとも単に彼らが提起している問題に気遣うそぶりをみせているだけか?

ボウルズ 「気遣う」というのは正確にはどういう意味か尋ねたい。巨大企業を動かしている人たちは、人間がコンピューターの飼い猫になるようなAIアポカリプス(訳注=アポカリプスは「黙示録」「世の終末」で、AIによって人類が滅びるといった悲観論を指している)を望んでいるか? もちろんノーだ。しかし、彼らの企業は営利目的で、新しい兵器開発競争の勝者になりたがっているのか? 答えはイエスだ。彼らは人びとの非難や軽蔑にはだいたいは応じているようで、内部告発や大きな調査結果が出ると大規模な倫理的改革を実行してきた。ユーチューブはYouTube Kids(ユーチューブキッズ、訳注=子どもたちに安心してユーチューブ動画を見せられるアプリ)がいかに問題のある製品なのか分かっている。それでも何年も提供し続けている。苦情が噴出するとようやく本腰をいれてフィルターをかけるか、製品の提供を中止する。

ゲレス 会議の中でもう一つのテーマになったのが、AIとオートメーション(自動化)によって、人間は数千(数百万?)もの仕事を奪われてしまわないか、その程度の問題だった。意見がほぼ一致したと言えそうなのは、膨大な規模のリストラを迫られるという点だった。しかし、どう対応したらよいかという問題では、意見の一致は少なかった。ネリー(ボウルズ)、全能を有したシリコンバレーの専制的支配者たちは、この問題をどう思っているのだろう? 私たちはみんな最低所得保障(UBI)で生計を立て、それでもって安直なAmazon Prime(アマゾン・プライム、訳注=さまざまな特典がついた有料会員サービス)任せの習慣を維持していくのか?

ボウルズ なんだか私は悪いニュースばかりを話しているような気がするけれど、専制的な支配者たちは、間もなく大方の人間が大して役に立たなくなるだろうと思っているのは確かだ。最近私は、シリコンバレーのCEO(最高経営責任者)たちが大好きな哲学者ユヴァル・ノア・ハラリ(訳注=1976年生まれのイスラエル人歴史学者。著書「サピエンス全史(邦題)」は世界的なベストセラーになった)を特集したが、彼は大方の人間が役に立たなくなるという問題も論じている。彼が望んでいる将来像は、人びとが蜂起することだが、ほとんどの人はなるようにしかならないとあきらめている。だからこそUBIが好きなのだ。UBIは革命を食い止めるのにもってこいの手立てではなかろうか。(抄訳)

(Nellie Bowles, David Gelles and Cade Metz)©2019 The New York Times ニューヨーク・タイムズ

ニューヨーク・タイムズ紙が編集する週末版英字新聞の購読はこちらから