個人が簡単に動画を発信できるようになった半面、うその情報(フェイクニュース)やヘイトスピーチ、ポルノなどの不適切な動画投稿も後を絶たない。ユーチューブなどは取り締まりに動いているが、根絶にはほど遠い状況だ。
ユーチューブの親会社グーグルは8月、香港で続く抗議デモに関して「組織的に動画を投稿していた210のチャンネルを停止した」と発表した。グーグルは詳細を明かさなかったが、ツイッター社は同月の声明で、停止した同社アカウントが「香港の政治的不和を広める狙い」で「中国政府に支援された組織的な活動をしていた」と結論づけた。
5月に米民主党のペロシ下院議長がろれつが回っていないかのように加工された偽の動画が出回り、対立するトランプ大統領が言及したことも記憶に新しい。
ユーチューブは、人力と人工知能(AI)両方を駆使して対応に当たる。
グーグルによると、今年7〜9月の3カ月間に削除された動画は実に約880万本。AIが動画の内容を判断して自動的に削除する一方、世界に約1万人いる判定員「フラッガー」らが動画の文脈や、その国の文化や習慣なども考慮して適否をみきわめる。
ユーチューブはまた、健全な表現空間を守るための指針「四つのR」も掲げる。たとえば子どものワクチン接種など、賛否の意見が激しく対立するトピックで、不正確な情報を含む動画の投稿が問題になっている。
そうした動画は、減らしたり(Reduce)削除したり(Remove)して拡散を防ぎ、信頼性の高い専門機関や既存メディアの動画を引き上げる(Raise)。さらに質の高いコンテンツを発信するクリエーターには収益化で報いる(Reward)。社会の変化に合わせ、過去1年半にガイドラインを30回以上も更新したとしている。
■「おすすめ」の便利さとリスク
だが限界もある。台湾大学のエイドリアン・ラウホフライシュ助理教授(34、デジタルジャーナリズム学)らの研究グループは、ユーチューブのアルゴリズムに沿って「おすすめ動画」を見進めていくと、極右思想や陰謀論に傾倒した動画に行き着く傾向があったと指摘する。イスラム過激派の受刑者に聞き取りをしたドイツの研究では、複数の人が少年期、ユーチューブでイスラム教を検索し、出てきた過激思想の動画や音楽ビデオを見たと答えた。
ラウホフライシュは、「『おすすめ動画』アルゴリズムに過激化のすべての責めを帰すことはできないが、アルゴリズム抜きに語れないのも事実」という。過激思想家が、本当の意図を隠して感情に訴える映像やメッセージを流し、批判的に見る力がまだ弱い若者を引き込んでいるという。
このほか、無差別銃撃など大きな事件が起きた直後、ウェブ検索に引っかかる報道素材が存在しないことに乗じて、意図的にフェイクニュースや陰謀論を投稿するなどの悪用法も指摘されている。ユーチューブはこうした動画の削除に努めているが、次々に新たな手口が現れて「いたちごっこ」になっている。
■主要メディアのファクトチェックは
大事件や大事故が起きた場合、一般の人が撮影した動画が主要メディアで使われる場面も増えている。その際に重要なのがファクトチェックだ。フランスのAFP通信では、一般の人が撮影した動画の日時や場所、内容が正しいか、チェックしている。
シリアの内戦の初期、撮影された数少ない動画はユーチューブやSNSにアップされたものだけだった。撮影者に動画の使用許可を得て公開する前、シリアにいる取材協力者に送り、正しいかどうか確認してもらったという。AFP動画部長のジュリエット・オリエールラルスは「例えば撮影当日は本当は晴れていたのに、もし動画の中で雨が降っていたら事実ではありません。スピードよりも正確さが重要です」。(渡辺志帆、大室一也)