1. HOME
  2. 特集
  3. SNSと分断 橋を架けるために
  4. 生成AIと「壁打ち」議論、陰謀論を脱する人も アメリカで2200人を調査 

生成AIと「壁打ち」議論、陰謀論を脱する人も アメリカで2200人を調査 

World Now 更新日: 公開日:
©Satoshi Kambayashi

フィルターバブルの中で同じような情報ばかりに接していると、異なる意見をもつ人が話しても、聞き入れづらくなりやすいという。では、AIが、陰謀論を信じる人と「壁打ち」のように議論して説得したらどうか? 米国では昨年、こんな研究報告がまとまった。

研究したのは、アメリカン大のトーマス・コステロ助教(31)ら。「陰謀論と呼ばれるものを信じている人」と調査対象者を募り、計約2200人を調査した。

調査対象者たちは「この世界を陰で操る集団がいる」「米同時多発テロは仕組まれた事件だ」「2020年の米大統領選には不正がある」といった主張を信じていた。そう考える人たちに、説得用に設計したAI「Debunk Bot」で議論を試みた。

DeBunkボットの入り口の説明文

たとえば、「人類の月面着陸はなかった」と信じる人たちとのやりとりは、以下のようなものだ。

AI「その根拠は何ですか」

調査対象者「宇宙飛行士が月面で掲げた旗が揺れているのはおかしい。宇宙は風が吹いていないはずです」

AI「風がなくても旗が見えるように、旗の上部に棒を通し、広がる仕組みにしていたのです」

調査対象者「映像が明瞭すぎないですか」

AIが、説得を続ける。「NASAは特別なカメラを準備していたのです」

信じる度合いは平均約20%減

こうしたAIの説得が数回続くと、信じる度合いは平均すると約20%減り、4分の1が陰謀論を信じなくなった。

コステロさんは「考えを改めたのは、その人が考えもしなかった論点だったからだろう。人は証拠や情報に反応して考えを変える」。

アメリカン大学のトーマス・コステロ助教=メリーランド州、藤崎麻里撮影

AIとのやりとりだから考えを改めたのか、と尋ねると「人間のように言い間違いを直したり、時間をかけて返事をしたりしても同じ結果だった。AIだから説得されるのではない」と答えた。

でも、人間が説得するときは感情的になってしまいそうだ。「説得する人間の問題でうまくいかないこともあるのか」と記者が言うと、コステロさんは「そうかもしれない」と笑った。

一方、AIの設計次第で、逆に陰謀論にはまらせることができるリスクもある。「注視しているのは、どんなときに人は考えを変えるのかということ。こうした研究をすることは、懸念するような使われ方に備える意味もある」