Elizabeth Culliford
[25日 ロイター] - 音声ベースのソーシャルネットワーク「クラブハウス」が爆発的な成長を見せている。イーロン・マスク氏やマーク・ザッカーバーグ氏などテクノロジー界の大物の参加により盛り上がりを見せる一方で、このアプリが、ヘイトスピーチやハラスメント、デマなど問題のあるコンテンツにどう対処していくのか、厳しい目が注がれるようになっている。
「ディスコード」などビデオゲーム中心のサービスから、ツイッターが新たに導入した「スペース」に至るまで、次々に生まれるライブ音声チャットを活用するプラットフォームにとって、リアルタイムの議論の管理(モデレーション)が課題となっている。フェイスブックも同様のサービスを開始するとの報道もある。
ディスコードで最高法務責任者を務めるクリント・スミス氏は、あるインタビューの中で「音声の場合、テキストベースのコミュニケーションとは根本的に違う管理上の課題が出てくる。一過性が強いため、調査や対応が難しくなる」と語っている。
問題のある音声コンテンツを検知するツールは、テキストの特定に用いられるツールに比べて後れをとっている。録音された音声チャットの文字起こし・検証となれば、人間にとっても機械にとっても、さらに面倒だ。映像という視覚的な信号やテキストで添えられたコメントなど、追加の手掛りがなければ、ハードルはさらに高くなる。
「今あるコンテンツ管理ツールの大半は、実はテキストを軸に構築されている」と語るのは、名誉毀損防止同盟(ADL)のセンター・フォー・テクノロジー・アンド・ソサエティ副所長を務めるダニエル・ケリー氏。
こうしたサービスの運営企業の全てが、ルール違反の報告を調査するために音声を録音し、保存しているわけではない。ツイッターは「スペース」の音声を30日、インシデントがあった場合には、それ以上保存するが、クラブハウスは、参加ユーザーによる直接の報告がないままライブセッションが終了した場合には、録音を消去しているという。ディスコードは全く録音を行っていない。
ディスコードは、テキストや音声によるチャットに含まれるハラスメントや白人至上主義的な素材などの有害コンテンツの抑制を求める声に応えて、コンテンツの録音・保存ではなく、ユーザーが相手をミュートまたはブロックできる機能を追加し、ユーザーに問題のある音声コンテンツにフラグ(目印)を付けてもらうようにしている。
このようなコミュニティー・モデルはユーザーの権限を拡大する可能性があるが、乱用も容易であり、偏見に左右されやすくなる恐れもある。
クラブハウスも同じようにユーザーによる管理機能を導入したが、ユーザーを特定の「ルーム」に参加できなくする「ブロック」などの機能が、ユーザーに対するハラスメントや排除の目的で利用されるのではないかという疑問を招くことになった。
ライブ音声の管理という課題の背景には、大手ソーシャルメディア・プラットフォーム上でのコンテンツ管理をめぐる、より包括的でグローバルな戦いがある。
大手ソーシャルメディアが持つ権力と不透明性には批判が生じており、運営ルールについて「制約が強過ぎる」、あるいは逆に「緩過ぎて危険」という不満が、右派・左派の双方から寄せられている。
また、オンライン・プラットフォームでは以前からずっと、サイト上の有害な、あるいは刺激の強いライブコンテンツの抑制に苦慮している。2020年には、自殺の様子を記録した動画がフェイスブックに投稿され、多くのサイトに拡散した。2019年には、ドイツのシナゴーグ(ユダヤ教会堂)での銃撃事件がアマゾン傘下のゲーム動画配信サイト「ツイッチ」でライブ中継された。
センター・フォー・デモクラシー・アンド・テクノロジー(CDT)の「フリー・エクスプレッション・プロジェクト」担当ディレクターを務め、ツイッチの安全性諮問委員会にも名を連ねるエマ・ランソ氏は「こうした音声SNSサービスが、動画ストリーミングサイトから教訓を得て、同じ種類の問題全てに直面することを理解しておくことが非常に大切だ」と語る。「自社のサービスを使って、警察との衝突や暴力的な攻撃の音声をライブ配信しようとするユーザーが現われたら、どうするのか」とも述べた。
参加者数は「無限大」に
クラブハウスの共同創業者ポール・デイビソン氏は21日、公開の社内対話集会で、現在は招待制のみとなっている同社のアプリが、政治集会から企業の全員参加会議に至るまで、多種多様な場を提供することにより、人々の生活における役割が拡大していくというビジョンを提示した。
クラブハウスの「ルーム」は、今のところ参加人数の上限が8000人に制限されているが、「最大で無制約に」拡大することができ、オーディエンスが支払う「チップ」により収入を得ることもできるようになる。
事情に詳しい関係者によれば、サンフランシスコに本社を置くクラブハウスは、直近では今年1月に10億ドルの資金調達を行ったという。資金調達を主導したのは、シリコンバレーの有力ベンチャーキャピタル、アンドリーセン・ホロウィッツだ。
クラブハウスがサービスを拡大していく中で、危険なコンテンツの検知に取り組んでいくのかという質問に対し、デイビソン氏は、ごく小規模なスタートアップだった同社も、多言語における問題に対応しインシデントを迅速に調査するため信頼性・安全性担当チームを拡充しつつある、と応じている。
「クラブハウス」アプリの週間アクティブユーザー数は1000万人に達したが、フルタイムの従業員数は最近になってようやく2桁になったところだ。広報担当者は、コンテンツ管理には社内の検証担当者と外部サービスの双方を活用しており、このテーマに詳しい顧問と契約していると話しているが、検証やインシデント検知の方法についてはコメントを控えた。
クラブハウスはサービス開始の年から、レイシズムやヘイトスピーチ、不適切発言や虚偽情報を禁じるルールにもかかわらず、同プラットフォーム上でのミソジニー(女性差別・蔑視)や反ユダヤ主義、COVID-19に関する虚偽情報が報告され、批判を受けてきた。
クラブハウスは、不適切発言を検知・予防するためのツールだけでなく、主宰するルームのルールを設定できるユーザーが会話を管理できるような機能にも投資しているという。
音声コンテンツを適切に管理できれば、新たなビジネスの波が立ち上がり、大手ソーシャルネットワークが開始する新たなサービスや機能の利用も増大する可能性がある。
ある関係者がロイターに語ったところでは、起業家でもある資産家のマーク・キューバン氏がまもなく開始するライブ音声プラットフォーム「ファイアサイド」は、「社会的に責任あるプラットフォーム」を標ぼうし、他のネットワークが直面しているような問題を避けるための管理機能を設けることになるという。
不適切投稿を抑制する機能が不十分として以前から批判を受けているツイッターでは、現在1000人のユーザーによる「スペース」サービスのテストを進めており、まず女性と社会的に不利な層の人々が対象になっている。
このサービスでは、「スペース」の作成者は会話を管理することができ、ユーザーは問題があれば報告できる。ツイッターの製品信頼性担当チームで働くアンドリュー・マクディアミッド氏によれば、たとえば、ユーザーによるフラグ追加なしに問題のある投稿を検知するために同社が現在用いているツールに音声書き起こし機能を盛り込むといった「予防的検知」への投資にも注目しているという。
マクディアミッド氏によれば、ツイッターでは、デマ情報へのラベリングなど新サービスにも適用される既存ルールを、音声という領域にどのように移植するかをまだ決めかねているという。
ツイッターがコンテンツ管理の計画を確定させるまでは、最近ツイッターのルールに違反したユーザーは新機能へのアクセスを認められていない。
(翻訳:エァクレーレン)