Show more

とりあえず担当の章は1周読んだのでしばらく寝かせてからまとめに入ろう。

あと、少数派を「選択の自由」として解釈して「少数派であることを選んだあなたの自己責任」みたいに言うのもおかしいよね。

「少数派の自己責任」は少数派自身が言う場合には正論だけど、それを多数派が言うのはただの暴力なんだよね。

同じ言葉でも誰が言うかで意味が変わるという好例。

一方で「少数派の保護」というのはそれはそれで難しい課題で、「少数派を増やして多数派にする」とか「拮抗するようにする」というのが必ずしもゴールというわけではないし「少数派を多数派と同じレベルに目立たせて表に出す」のも最適とは限らないンじゃないかと思う。もちろんそうしたい少数派はそうすればいいんだけど、そうじゃなくて「少数派が少数派のままひっそりと存在し続けられる」というのが本当は重要なんじゃないのかな、と思う。

何に考慮するのかっていうと、ソーシャルサービスの運営として、ね。

この本の内容に関係あるような無いような話だけど、

多数派は自動的に有利な立ち位置にあるのでそんなに保護しなくても多数派でありつづけられる可能性が高いんだけど、普段無頓着でいられる分、恐怖を抱くと冷静でいられなくなるのではないかと思う。

少数派はいつも不便や危険と隣り合わせで生きているから普段から何にせよ意識しつづけていて、ちょっとはそっとの変化で浮き足だったり冷静さを失ったりはしづらいんじゃないか。

その辺の非対称性というのも考慮しないとなー。

七章は既読だけど読んだだけなのでもう一度読みながらまとめる必要があるな。

Show thread

以上「The Chaos Machine」第八章の雑なまとめです。

Show thread

ザッカーバーグは「ミャンマーでの虐殺の後、暴力を扇動していたユーザを特定した」とインタビューに答えた。「今は、それをシステムが検知し、メッセージの拡散を止めるようになっています」と彼は言った。

しかし、実際にはそのユーザを特定したのは人権団体で彼らの通報によってFacebookが対応しただけだった。人権団体は「Facebookが適切な対策を行っていない」ことを非難したが、ザッカーバーグは「人権団体による報告であるとクレジットしていなかった」ことを謝罪した。

いくつかの虐殺事件の火種となったフィードを放置し、その後の対策を行わなかった当時のFacebook担当者は、その後昇進した。

「彼らのビジネスモデルがこの悲劇を作った」とあるコンサルは言う。しかし問題はFacebookだけではない。「YouTubeこそが最悪だ」。

Show thread

本当に「Facebookが原因で難民に対する暴力が増えた」という因果関係が立証できるのか?

インターネットの大規模障害との相関関係を調べたところ、Facebookの利用率が高い地域でのみ障害時には難民への攻撃が減少していた。

Show thread

「政治には関心が無い」「ニュースを読まない」という女性へのインタビュー。

「難民についてどう思うか?」と質問すると、暴力的でレイプ魔で過激である、政府によって彼らの犯罪が隠蔽されている、などと語った。

なぜ政治に関心がなくニュースも読んでいないのにそういうことを知っているのか?→Facebookで読んだ。みんなそう言っている。

彼女のフィルターバブルが彼女の現実となっていた。

Show thread

トラウンシュタイン近郊の町の例。「イスラム教徒の難民グループが11歳の少女をレイプした」というデマが広がった。真実は「難民の一人が17歳の女性に痴漢をはたらいた」だったが、次第に話が大きくなっていったというものだった。

警察や政府が噂がデマであると主張しても人々は「真実が隠蔽された」と反応する。人々は「冷静な事実認識」よりも「淫らな噂」を好む。この問題への対処方法は、superposterに間違いを認めさせることだと判断し、それを実行することで一定の成功を収めた。しかしそれはそもそも警察がやるべき事なのだろうか?Facebookが行動を起こせばフェイクニュースはもっと簡単に防げるのではないだろうか?

Show thread

彼らは、説得力があるからとか、思慮深いからとか、重要な情報を提供するから superposter なのではなく、エンゲージメントを促進させるから superposter 。

→ superposterは専門性の高い人ではないので、自分の発言内容が真実であるかどうかをそれほど重視しておらず、多くの人に読まれリアクションされることを重要視している。

このsuperposterの虚言が広まるのは、Facebookのアルゴリズムによるもの。

→つまり「エンゲージメントの促進」というFacebookの目的にsuperposterの行動がマッチしているために、superposterの虚言は広まりやすい。

Show thread

superposterはインフルエンサーと同義なのかな?

Show thread

んー、この本面白いんだけど、話があちこちに飛んで、しかもそれが今の主題とどう関係するのかがあいまいなまま終わったりするので、まとめづらいなー。

Show thread

superposter:日本語訳が見つからない。「たくさんポスト(投稿)する人」という意味だと思われるが、以下の特徴を持つ。

・ネットジャンキーやアーリーアダプターではなく、むしろ後発である。
・言うことがネガティブである。
・根拠のない確信を持っており視野が狭い。
・承認欲求が強く、自尊心は低い。
・聴衆のフィードバックを重視。
・数字が大事。
・カジュアルユーザとの親和性が高い。

Show thread

青年の捜査を監督していた検事の話。

青年は最初、人種差別的なミームをネタとして利用して友人たちと遊んでいただけだった。お互いに「総統閣下」などと呼び合っていた。しかし、わずか半年でそれが本気になってしまった。

この「ネット上のジョークが次第に切実なものとして内面化されていく」現象を「アイロニー・ポイズニング」と呼ぶ。

・皮肉な切り出し
・アルゴリズムによる過剰な刺激
・相手を怒らせるような冗談

をあえて言うような文化に長期間浸っていると、最初は刺激だったそれらの言動に慣れてしまい、鈍感になって一般的な場でもそのような言動をしてしまうようになる。

(これ、ネットだけじゃないような。政治家の失言とかだいたいこれだよね)

Show thread

難民支援のためのボランティアイベントを企画するためにFacebookを利用しようとしたが、すぐにリアルでは遭遇したことのないような罵詈雑言で埋め尽くされた。

Show thread

この問題は、ミャンマーやスリランカで起きた特殊な例というわけではなく、欧米の民主主義国家でも起きているという研究結果が出てきた。

ドイツのアルテナという町での事例。消防士見習いの青年が難民ハウスを焼き払おうとする事件が発生。

アルテナでは町全体が難民を温かく受け入れる空間であるにも関わらず、Facebook上では難民を脅威とする噂をみなが目にしたことがある。青年はネット上の人種差別妄想の世界に閉じこもり、やがてそれが彼を変えてしまったのだ、と住民も検察も考えるようになった。

アルテナの事件の前に行われていた研究。ドイツで2年間に起きた反難民の攻撃3335件について調査してみたところ、Facebookの利用率との相関関係が見られた。この調査については方法論に問題があるという指摘もある(後に違う方法論で追試を行った)。

この研究論文がアルテナにも当てはまるのかどうかが研究課題だが、実際に論文の予測通りの結果となっていた。

Show thread

ごく普通の家庭に育ち特に脅威があるわけでもない子供でも、SNSを通じて知った世界感が彼らにとっての世界認識になってしまい、そこで語られる脅威が自分にとっても脅威となってしまう。

Show thread

この研究は Facebook が実例だけど、Twitterだって同じような力を持っているだろうし、Mastodonだっていずれその温床になる危険性はあるよね。

どう運営されるのかも重要だし、どういうアーキテクチャなのかも関係してくる。UIも。

Show thread
Show more
TOMOKI++WAKIMOTO 個人鯖

TOMOKI++の個人鯖です。お急ぎのご連絡はメイン鯖(ボカロ丼)のアカウント @tomoki@vocalodon.net にお願いします。