『The Chaos Machine』の読書会担当部分(7~8章)を読んでいます。以後メモとしていろいろ書きます。まとめは後日作ります。

ミャンマーやインドでの虐殺の例。Facebookで拡散されたデマが原因で大量虐殺事件が起きた。

いずれもFacebook側の対応は鈍く、ほぼ何もやっていない。

分析:
SNSによってマイノリティが可視化された。これまで目立たなかった少数派が目立つようになり、このことで多数派が恐怖を抱く(実際には可視化されただけで増えているわけではない)。少数派に対する恐怖が反感にかわり、多数派の間で少数派に関するデマを信じやすくなる。その結果、通常であれば信じないような極端な情報を鵜呑みにしてしまい、自分たちを被害者だと誤解した多数派が少数派を排斥するための行動を起こす。

Show thread

この行動は多数派が優位性を保つための集団的防衛本能であり、ほとんどの場合無意識であるため、情報に簡単に操作されてしまう。

ウィリアム・ブラッディとモリー・クロケットの論文で示されているとおり、SNSでは、個人のアイデンティティよりも集団のアイデンティティが強く意識される。その結果自己の感覚を失ってしまう(集団のアイデンティティは個人のアイデンティティに比べ内省しづらいから?)。

Show thread

(DeelLの訳で読んでるのでロジックが負いにくい)

deindividuation:

DeelL訳は「脱分離」。この訳だとなんのことかわからない。

「individualが弱くなること」だと思うので、つまり「自己が弱体化し集団に同調すること」だと思う。

Weblio訳は「没個性化」。こっちの方がまだわかりやすいけど、文脈からすると弱い。

本文中の言い換えで "its power to override indiidual judgment"(個人の判断を上書きする力)とある。これはわかりやすい。

deindividuation の shorthand definition は "mob mentality"であるが...:

mob mentalityのDeepL訳は「群集心理」、Weblio訳は「数の暴力」。これは「群集心理」の方が適切。

status threat: DeepL訳は「地域の脅威」だけど、しっくりこない。なんか定番の訳があるかもしれない。Weblioにはない。

Show thread
Follow

これが危険なのは、「deindividuation と status threat がミックスされることによって恐ろしいスケールで怒りを増幅する」からです。

やはり status threat がキモだなー。

DeepL訳は「地域の脅威」ではなく「地位の脅威」(変換ミス)。

Status Threatについて書かれているものを発見

direct.mit.edu/daed/article/15

「既得権益が脅かされること」みたいな感じだろうか?現在の地位から追い出されるかもしれない恐怖。多数派は多数派でありつづけたいが、少数派が台頭してくることでそれが脅かされる。

このStatus threat(既得権益が失われるかもしれない恐怖感)がdeindividuation(個の判断を麻痺させる集団心理)と掛け合わされることで、虐殺事件まで引き起こしている、と。

恐ろしい。

この研究は Facebook が実例だけど、Twitterだって同じような力を持っているだろうし、Mastodonだっていずれその温床になる危険性はあるよね。

どう運営されるのかも重要だし、どういうアーキテクチャなのかも関係してくる。UIも。

Show thread

ごく普通の家庭に育ち特に脅威があるわけでもない子供でも、SNSを通じて知った世界感が彼らにとっての世界認識になってしまい、そこで語られる脅威が自分にとっても脅威となってしまう。

Show thread

この問題は、ミャンマーやスリランカで起きた特殊な例というわけではなく、欧米の民主主義国家でも起きているという研究結果が出てきた。

ドイツのアルテナという町での事例。消防士見習いの青年が難民ハウスを焼き払おうとする事件が発生。

アルテナでは町全体が難民を温かく受け入れる空間であるにも関わらず、Facebook上では難民を脅威とする噂をみなが目にしたことがある。青年はネット上の人種差別妄想の世界に閉じこもり、やがてそれが彼を変えてしまったのだ、と住民も検察も考えるようになった。

アルテナの事件の前に行われていた研究。ドイツで2年間に起きた反難民の攻撃3335件について調査してみたところ、Facebookの利用率との相関関係が見られた。この調査については方法論に問題があるという指摘もある(後に違う方法論で追試を行った)。

この研究論文がアルテナにも当てはまるのかどうかが研究課題だが、実際に論文の予測通りの結果となっていた。

Show thread

難民支援のためのボランティアイベントを企画するためにFacebookを利用しようとしたが、すぐにリアルでは遭遇したことのないような罵詈雑言で埋め尽くされた。

Show thread

青年の捜査を監督していた検事の話。

青年は最初、人種差別的なミームをネタとして利用して友人たちと遊んでいただけだった。お互いに「総統閣下」などと呼び合っていた。しかし、わずか半年でそれが本気になってしまった。

この「ネット上のジョークが次第に切実なものとして内面化されていく」現象を「アイロニー・ポイズニング」と呼ぶ。

・皮肉な切り出し
・アルゴリズムによる過剰な刺激
・相手を怒らせるような冗談

をあえて言うような文化に長期間浸っていると、最初は刺激だったそれらの言動に慣れてしまい、鈍感になって一般的な場でもそのような言動をしてしまうようになる。

(これ、ネットだけじゃないような。政治家の失言とかだいたいこれだよね)

Show thread

superposter:日本語訳が見つからない。「たくさんポスト(投稿)する人」という意味だと思われるが、以下の特徴を持つ。

・ネットジャンキーやアーリーアダプターではなく、むしろ後発である。
・言うことがネガティブである。
・根拠のない確信を持っており視野が狭い。
・承認欲求が強く、自尊心は低い。
・聴衆のフィードバックを重視。
・数字が大事。
・カジュアルユーザとの親和性が高い。

Show thread

んー、この本面白いんだけど、話があちこちに飛んで、しかもそれが今の主題とどう関係するのかがあいまいなまま終わったりするので、まとめづらいなー。

Show thread

superposterはインフルエンサーと同義なのかな?

Show thread

彼らは、説得力があるからとか、思慮深いからとか、重要な情報を提供するから superposter なのではなく、エンゲージメントを促進させるから superposter 。

→ superposterは専門性の高い人ではないので、自分の発言内容が真実であるかどうかをそれほど重視しておらず、多くの人に読まれリアクションされることを重要視している。

このsuperposterの虚言が広まるのは、Facebookのアルゴリズムによるもの。

→つまり「エンゲージメントの促進」というFacebookの目的にsuperposterの行動がマッチしているために、superposterの虚言は広まりやすい。

Show thread

トラウンシュタイン近郊の町の例。「イスラム教徒の難民グループが11歳の少女をレイプした」というデマが広がった。真実は「難民の一人が17歳の女性に痴漢をはたらいた」だったが、次第に話が大きくなっていったというものだった。

警察や政府が噂がデマであると主張しても人々は「真実が隠蔽された」と反応する。人々は「冷静な事実認識」よりも「淫らな噂」を好む。この問題への対処方法は、superposterに間違いを認めさせることだと判断し、それを実行することで一定の成功を収めた。しかしそれはそもそも警察がやるべき事なのだろうか?Facebookが行動を起こせばフェイクニュースはもっと簡単に防げるのではないだろうか?

Show thread

「政治には関心が無い」「ニュースを読まない」という女性へのインタビュー。

「難民についてどう思うか?」と質問すると、暴力的でレイプ魔で過激である、政府によって彼らの犯罪が隠蔽されている、などと語った。

なぜ政治に関心がなくニュースも読んでいないのにそういうことを知っているのか?→Facebookで読んだ。みんなそう言っている。

彼女のフィルターバブルが彼女の現実となっていた。

Show thread

本当に「Facebookが原因で難民に対する暴力が増えた」という因果関係が立証できるのか?

インターネットの大規模障害との相関関係を調べたところ、Facebookの利用率が高い地域でのみ障害時には難民への攻撃が減少していた。

Show thread

ザッカーバーグは「ミャンマーでの虐殺の後、暴力を扇動していたユーザを特定した」とインタビューに答えた。「今は、それをシステムが検知し、メッセージの拡散を止めるようになっています」と彼は言った。

しかし、実際にはそのユーザを特定したのは人権団体で彼らの通報によってFacebookが対応しただけだった。人権団体は「Facebookが適切な対策を行っていない」ことを非難したが、ザッカーバーグは「人権団体による報告であるとクレジットしていなかった」ことを謝罪した。

いくつかの虐殺事件の火種となったフィードを放置し、その後の対策を行わなかった当時のFacebook担当者は、その後昇進した。

「彼らのビジネスモデルがこの悲劇を作った」とあるコンサルは言う。しかし問題はFacebookだけではない。「YouTubeこそが最悪だ」。

Show thread

以上「The Chaos Machine」第八章の雑なまとめです。

Show thread

七章は既読だけど読んだだけなのでもう一度読みながらまとめる必要があるな。

Show thread
Sign in to participate in the conversation
TOMOKI++WAKIMOTO 個人鯖

TOMOKI++の個人鯖です。お急ぎのご連絡はメイン鯖(ボカロ丼)のアカウント @tomoki@vocalodon.net にお願いします。