Youtubeのアルゴリズムに「やや右派推し」のバイアス、ユーザーが気付かぬその仕組みとは?
ユーチューブが次の動画をおすすめするアルゴリズムには「やや右派推し」の傾向があり、ユーザーを「マイルドなエコーチェンバー(反響室)」に後押ししている――。
米ニューヨーク大学の研究チームは10月13日、米シンクタンク「ブルッキングス研究所」のサイトに掲載した記事で、そんな研究結果を明らかにしている。
世界で20億人超の月間ユーザーを抱え、1日あたり10億時間の動画が視聴されるユーチューブ。
フェイクニュースなどの有害コンテンツ拡散の舞台の一つとされるプラットフォームだが、特にそのおすすめアルゴリズムが、ユーザーを有害コンテンツに誘い込むのでは、との懸念が消えない。
ニューヨーク大の研究チームは調査の結果、そこにユーザーが気付かない「やや右派推し」のバイアス(偏り)があることが初めてわかった、という。
おすすめアルゴリズムに潜む、そのバイアスの仕組みとは?
●「ウサギの穴」とエコーチェンバー
"ユーチューブのおすすめアルゴリズムは、大多数のユーザーを過激主義者の「ウサギの穴」に落とし込むことはなかったが、次第にコンテンツのイデオロギーの幅を狭めていった。それは(非常に)マイルドなイデオロギーのエコーチェンバー(反響室)の証拠と呼べるものだ。また、ユーチューブのおすすめアルゴリズムは、平均すると、ユーザーを政治的スペクトラムのやや右寄りに誘導していることもわかった。これは新たな発見だと思う。"
ニューヨーク大学ソーシャルメディア・政治センター(CSMaP)共同所長のジョシュア・A・タッカー教授らの研究チームは10月13日付の「ブルッキングス研究所」の記事の中で、そう述べている。
タッカー氏らの記事は、研究チームが今年5月にまとめた報告書を下敷きにしている。
エコーチェンバーとは、自分と同じような意見ばかりがこだまのようにくり返されるネット上の状況を指す。それによって視野が狭まり、意見が先鋭化、過激化していくとされ、フェイクニュースや陰謀論の拡散とのかかわりが指摘されてきた。
その舞台の一つとされるのがユーチューブだ。
ユーチューブには、AIのアルゴリズムが、ユーザーが視聴したものと同種の動画を次々とおすすめしていく機能がある。
このおすすめによる動画の視聴は、1日当たり10億時間にのぼる視聴時間のうち、70%以上を占めるという。
おすすめのアルゴリズムはまた、ユーザーが陰謀論などにはまり込む危険性も懸念されている。
タッカー氏らの研究チームが調査したのは、そのおすすめアルゴリズムとエコーチェンバーとのかかわりだ。
研究チームは2020年秋に、ユーチューブのユーザー527人を募集。ブラウザーにプラグインをインストールしてもらい、それぞれが実際に使っているアカウントでユーチューブにログイン後に、アルゴリズムにおすすめされた動画の視聴を20回にわたって繰り返し、その結果を記録した。
参加ユーザーの政治的立場は、保守、リベラル、中道に分かれる。おすすめ動画の政治的傾向の評価は、米電子掲示板「レディット」の900近い政治関連コーナーに2021年までの10年間に投稿された、6万件を超すユーチューブ動画を学習したAIを使って行った。
このユーザーの政治的立場とおすすめ動画の政治的傾向を組み合わせて、アルゴリズムの効果を分析した。
●約3%のユーザーが陥る
研究の結果、ユーザーが保守かリベラルか中道かに関係なく、おすすめ動画視聴の回数を重ねるごとに、アルゴリズムはすべてのユーザーに対して、やや保守的な動画をおすすめする傾向が確認できたという。
また、おすすめコンテンツの政治的な幅が、ユーザーの政治的な立場に沿って狭まっていくエコーチェンバーの傾向もわずかながら確認したという。ただ、「私たちが確認した保守的なイデオロギーのバイアスの大きさは、エコーチェンバーの大きさをはるかに上回った」と述べている。
ユーチューブのおすすめアルゴリズムでは、エコーチェンバーの効果よりも、「保守推し」のバイアスの方がずっと強かった、ということだ。
だが、この「保守推し」バイアスが、アルゴリズム自体に起...
詳細はサイトで
https://news.yahoo.co.jp/byline/kazuhirotaira/20221021-00320391