分断を生むのは情報ではなく感情だった

この記事の読みどころ
  • フィルターバブルは心理・社会・技術の三つの層が重なる現象だ。
  • 心理の層では安心できる情報を選び、反対意見を脅かすものとして感じやすい。
  • 社会の層は似た人とつながるほど考えが固まり、技術の層はアルゴリズムが情報を増幅する。

なぜネットを見るほど、考えが固まっていくのか

ニュースやSNSを見ていると、「自分と同じ考えの記事ばかりが目に入る」と感じることがあります。
反対意見を見かけることが減り、「みんなも同じ方向を向いているのではないか」と思えてくることもあるでしょう。

このような状態は、一般に「フィルターバブル」と呼ばれています。
これまでこの問題は、主に「アルゴリズムの仕組み」によるものとして説明されてきました。

しかし今回紹介する研究は、フィルターバブルはそれだけでは説明できない、と指摘しています。
この研究は、中国の浙江大学 公共事务学院と、杭州師範大学 マルクス主義学院に所属する研究チームによって行われました。


フィルターバブルは三つの層が重なって生まれる

研究チームは、フィルターバブルを「三つの層が重なってできる現象」として整理しています。

心理の層:人は安心できる情報を選びやすい

人は、自分の考えを否定されると不安になります。
そのため、無意識のうちに「納得できる情報」「安心できる意見」を選びやすくなります。

特に政治や価値観の話題では、考え方が自分自身の一部のように感じられます。
その結果、反対意見は「違う考え」ではなく、「脅かす存在」として受け取られやすくなります。

研究では、こうした情報選択は、正しさを追い求めるというよりも、心の安定を保つための行動だと説明されています。


社会の層:似た人とつながることで考えが固まる

SNSでは、考え方や価値観の近い人同士が集まりやすくなります。
同じ意見を何度も目にし、同じ感情を共有することで、「自分たち」という感覚が強まります。

研究では、アルゴリズムよりも、人間関係の同質性のほうが、情報の偏りに強く影響する場合があることも示されています。
誰とつながっているかが、その人の見ている世界を大きく左右するのです。


技術の層:アルゴリズムは好みを強めていく

アルゴリズムは、人の考えを作り出す存在ではありません。
しかし、過去の行動を学習し、「よく反応した内容」に似た情報を次々に表示します。

検索語が感情的であればあるほど、表示される情報もその方向に偏りやすくなります。
こうして、「選ぶ → 表示される → さらに選ぶ」という循環が生まれます。

研究チームは、アルゴリズムを「原因」ではなく、増幅装置として捉える必要があると述べています。


見落とされがちな「感情」という要素

この研究が特に重視しているのが、感情の役割です。

これまで、感情は「考え方の結果」として扱われることが多くありました。
しかし研究チームは、感情こそが情報選択を動かす中心的な力だと指摘します。

怒りや恐れといった感情は、注意の向け先を狭め、素早い判断を促します。
その結果、反対意見はますます遠く感じられ、極端な考え方が「正しい」「当然」と感じられるようになります。

感情は、
・何を探すか
・誰を信じるか
・アルゴリズムが何を学習するか
そのすべてに関わっている、と論文では整理されています。


フィルターバブルは感情を循環させる環境

研究チームは、フィルターバブルを単なる情報の偏りではなく、
感情・アイデンティティ・情報が循環する環境として捉えています。

フィルターバブルは、安心感や居場所を与える一方で、
感情が固定されすぎると、他者の理解や対話を難しくします。

そのため、反対意見を強制的に見せるだけでは、問題は解決しません。
感情や帰属意識に目を向けなければ、かえって反発が強まる可能性もあると、研究では述べられています。


この研究が残している問い

この研究は、「こうすれば解決できる」という単純な答えを示してはいません。
むしろ、静かな問いを残しています。

私たちは、
なぜその情報を信じたくなるのか。
どんな感情を心地よいと感じているのか。
どこに安心を求めて、情報を選んでいるのか。

フィルターバブルの問題は、テクノロジーだけの話ではなく、
私たち自身の感情のあり方と深く結びついている。

この研究は、そのことを丁寧に言葉にしています。
わからなくても、理由はある。
その理由に目を向けるところから、考え直す余地が生まれるのかもしれません。


テキストのコピーはできません。