コラム:X(旧ツイッター)が偽情報発信ツールになった経緯
Xが偽情報発信ツールと化した背景には、認証制度の商業化、アルゴリズム設計、モデレーション体制の弱体化、AI技術の普及、そして収益化インセンティブの歪みが複合的に存在する。
.jpg)
現状(2026年1月時点)
2026年1月時点におけるX(旧ツイッター)は、世界的に見て依然として強い影響力を持つソーシャルメディアである一方、偽情報(ディスインフォメーションおよびミスインフォメーション)の拡散装置としての性格を色濃く帯びている。政治、国際紛争、感染症、災害、金融市場、著名人のスキャンダルなど、社会的影響が大きい分野ほど、誤情報や意図的に加工された情報が短時間で大量に流通する傾向が顕著である。
欧州連合(EU)が2024年以降に施行したデジタルサービス法(DSA)に関する評価報告や、米国の非営利研究機関(Pew Research Center、Center for Countering Digital Hateなど)の分析によると、Xは主要SNSの中でも「虚偽または誤解を招く投稿へのエンゲージメント率が高い」プラットフォームの一つとされている。特に、アルゴリズム設計、認証制度、収益化モデルの変化が、偽情報の可視性と拡散力を構造的に高めている点が問題視されている。
X(旧ツイッター)が偽情報の温床になって経緯
Xが偽情報の温床と評価されるに至った経緯は、単一の要因によるものではない。運営方針、技術的設計、経済的インセンティブ、社会的文脈が相互に作用した結果である。
もともとツイッターは、リアルタイム性と拡散性を武器に、速報性の高い情報流通を可能にする公共的空間として機能してきた。しかしその特性は、検証前の情報や意図的に歪められた情報にとっても極めて好都合であった。特に、2016年以降の米大統領選挙や新型コロナウイルス感染症の流行を通じ、SNSが世論形成に与える影響が明らかになるにつれ、偽情報対策の重要性が強調されてきた。
ところが、2022年以降の経営体制変更を境に、Xは「偽情報を抑制する方向」から「拡散を許容、あるいは助長する方向」へと大きく舵を切ったと多くの研究者やメディアが指摘している。
認証バッジ(青色チェック)の有料化と権威の変質
以前は「著名で真正であること」の証明だった青色チェック
旧ツイッターにおける青色チェック(認証バッジ)は、著名人、報道機関、政府機関、学術機関などに限定的に付与されるものであり、「そのアカウントが本人または正式組織によって運営されている」ことを示す信号であった。情報の信頼性を担保する最低限の指標として、多くのユーザーが参照していた。
この制度は完全ではなかったものの、なりすまし対策として一定の効果を持っていたと、SNS研究者やジャーナリズム研究の分野では評価されている。
月額料金を支払えば誰でも取得できる有料サービス(X Premium)に変更
しかし、X Premiumとして認証制度が事実上の有料サービスに転換されると、青色チェックの意味は根本的に変質した。支払い能力さえあれば、実在性や公共性とは無関係に「認証済み」の外観を得られる仕組みとなったのである。
この変更は、信頼のシグナルを市場取引の対象に変えた点で、社会学的にも重大な転換と評価されている。
信頼の悪用
悪意あるユーザーが「検証済み」の信頼性を装いなりすましや偽情報を発信
有料認証の導入直後から、企業、報道機関、政府関係者、著名人になりすましたアカウントによる虚偽投稿が相次いだ。米国の主要紙や通信社は、これを「プラットフォームが制度的に詐称を可能にした事例」として報じている。
研究機関の分析では、青色チェック付きアカウントによる偽情報は、非認証アカウントの投稿よりも高い拡散率を示すことが確認されている。
表示の優先
Xのアルゴリズムは、有料ユーザーの投稿を優先的に表示する設計を採用していると公式に説明されている。この結果、信頼性よりも「課金」が可視性を左右する構造が固定化された。
モデレーション体制の解体と「表現の自由」の標榜
マスク氏が掲げる「言論の自由の絶対主義」
イーロン・マスク氏は、Xを「言論の自由の広場」と位置づけ、規制や削除を最小限に抑える方針を繰り返し表明してきた。しかし、専門家の多くは、これは「国家権力による言論弾圧」と「民間プラットフォームにおける運営責任」を意図的に混同した議論であると指摘している。
偽情報やヘイトスピーチを取り締まる「信頼と安全」部門のスタッフが大幅に削減
複数の内部告発や調査報道によれば、ツイッター時代に存在した信頼と安全(Trust & Safety)部門は大幅に縮小され、専門知識を持つモデレーターが多数解雇された。これにより、投稿の検証、通報対応、組織的な偽情報キャンペーンの追跡能力が著しく低下した。
チェック機能の低下
結果として、虚偽投稿が長時間放置される事例が増加し、修正や訂正が追いつかない状態が常態化している。
AI生成コンテンツの増殖
GrokなどのAIツールによる精巧なディープフェイクや捏造画像が急速に拡散
生成AIの普及により、専門的知識がなくとも、もっともらしい文章、画像、動画を短時間で生成できるようになった。Xに統合されたGrokを含むAIツールは、情報探索の利便性を高める一方、誤情報生成のコストを劇的に引き下げた。
研究者はこれを「偽情報の工業化」と呼び、個人レベルでも大規模な影響を及ぼし得ると警告している。
コミュニティノートへの過度な依存
後手に回る対策、不十分な網羅性
Xは、ファクトチェックの代替としてコミュニティノート(旧Birdwatch)を重視している。しかし、これは事後的かつ参加者依存の仕組みであり、拡散初期段階での抑止力は限定的である。
学術研究では、誤情報は訂正よりも速く広がることが一貫して示されており、後付けの注釈だけでは被害を防げないとされている。
収益化プログラムによるインセンティブ
表示回数(インプレッション)に応じて広告収益が得られる仕組みが導入
Xは、有料認証ユーザーを中心に、インプレッション連動型の収益分配を導入した。この結果、注目を集める投稿ほど金銭的利益を生む構造が成立した。
過激な内容やショッキングな偽情報を投稿する動機(通称:インプレゾンビ)が強化
日本語圏を含む多くの地域で、「インプレゾンビ」と呼ばれる行動様式が観察されている。これは、真偽や社会的影響を度外視し、過激な偽情報や扇動的投稿を量産する行為である。
偽情報の発信ツールに、犯罪行為も多発
詐欺、投資詐欺、偽求人、違法薬物取引、なりすましによる恐喝など、Xを起点とする犯罪行為も増加している。警察機関や消費者庁は、SNS経由の被害相談が増加していると報告している。
今後の展望
今後、各国政府による規制、広告主の動向、ユーザーの信頼低下がXの存続に大きな影響を与える可能性がある。一方で、現行のビジネスモデルを維持する限り、偽情報拡散の構造的問題が解消される兆しは乏しい。
まとめ
Xが偽情報発信ツールと化した背景には、認証制度の商業化、アルゴリズム設計、モデレーション体制の弱体化、AI技術の普及、そして収益化インセンティブの歪みが複合的に存在する。これは個々のユーザーの倫理の問題ではなく、プラットフォーム設計そのものの問題である。
参考・引用リスト
・Pew Research Center「Social Media and Misinformation」
・Center for Countering Digital Hate(CCDH)各種レポート
・European Commission「Digital Services Act Risk Assessments」
・Reuters、The New York Times、The Guardianによる調査報道
・Vosoughi, Roy, Aral (2018) “The spread of true and false news online”, Science
以下では、X(旧ツイッター)の「荒廃」に対する欧州連合(EU)などの各国政府の規制・罰則、イーロン・マスク氏が掲げる「言論の自由の絶対主義」の問題点、そして最新の「Grokの性的画像問題」について、現在の最新情報を踏まえてまとめる。
欧州連合(EU)など各国政府の規制・罰則
EUのデジタルサービス法(DSA)に基づく規制
欧州連合(EU)は、巨大オンラインプラットフォームに対し、違法コンテンツ・偽情報対策の強化や透明性の確保を義務付けるデジタルサービス法(Digital Services Act;DSA)を2024年に施行している。この法律は、違法・有害なコンテンツが放置されることを防止するために、検知・削除・透明性報告などの義務を課すものであり、違反した場合は世界売上高の最大6%の罰金やEU域内でのサービス停止の可能性が定められている。
X(旧ツイッター)はこのDSAに基づき、2025年12月に約1億2000万ユーロの罰金を科された。罰金の対象となったのは、次の3点である。
有料認証(青色チェック)がユーザーの真正性を誤認させて詐欺等につながった点
政治広告の透明性レポジトリが不十分で検索性や詳細表示が欠けていた点
研究者向けデータアクセスが制限され、内容審査の透明性が低かった点
この処分は、DSAの施行後、同法に基づく初の大規模プラットフォームへの制裁処分として注目された。
加えて、欧州委員会はXに対して「Grokに関する内部文書を2026年末まで保全せよ」との命令を出している。これは、アルゴリズムや違法コンテンツ拡散に関する調査のためであり、プラットフォームの対応を監視する枠組みが機能している証左でもある。
英国・イギリスの対応
英国政府は、X上でのAI生成性画像の拡散を受けて、通信規制機関Ofcomによる調査強化やオンライン安全法(Online Safety Act)に基づく執行の可能性を示している。とくにAIによる画像の生成や拡散が「違法コンテンツ」を含むと見なされる場合、Ofcomは罰金や最悪の場合はサービスのブロック措置を検討すると報じられている。
インド・アジア各国の動き
インド政府もXおよびGrokを問題視し、電子情報技術省からX側に改善要求や通知を出している。また、マレーシア等でもGrokの不適切コンテンツに対する調査が進められている。
日本の対応
日本では総務省が、Xでの生成AIによる女性・著名人の写真への無断性的加工に関して調査を進めるとともに、情報流通プラットフォーム対処法に基づくガイドラインの適用を促す発言を行っている。肖像権・名誉権・プライバシー権侵害として、SNS事業者に適切な対応を求めている。
「言論の自由の絶対主義」の問題点
マスク氏の立場と主張
イーロン・マスク氏は、Xを「公共圏としての表現の自由の究極的な擁護者」と位置付け、規制や削除を最小限に留めるべきという立場を繰り返し表明している。彼自身がXの利用規約や運用方針の変化を通じて、「言論の自由を最優先にする」という哲学を強調してきた。
しかし、この立場にはいくつかの重大な問題点が指摘されている。
「言論の自由」と「有害情報対策」の両立困難性
言論の自由は民主社会の基盤であるが、プラットフォーム運営者が法令違反の可能性を含む有害情報や違法コンテンツを許容する理由にはならないという基本的な対立が存在する。言論の自由の主張が極端に強調されると、誹謗中傷・ヘイトスピーチ・扇動的偽情報・暴力的コンテンツなどを放置する口実に使われるリスクがある。これは、人権や公衆の安全に対する明確な危険である。
こうした批判は、SNS規制に積極的な欧州連合の立場とも合致しており、コンテンツ規制と自由の保護はバランスが必要であるとの立場が各国政府・専門機関で共有されている。
適用範囲の曖昧さと恣意性
「言論の自由」を絶対化する立場は、具体的な違法性や社会的害悪の線引きを曖昧にする可能性がある。名誉毀損、児童ポルノ、テロ扇動など、多くの国で明確に違法とされる行為まで「発言の自由」として擁護される危険性が存在する。この曖昧さは、裁量的なモデレーションの放棄や無為無策につながると批判されてきた。
行政との摩擦・訴訟の乱発
Xは米国内の複数の州(例:カリフォルニア州、ニューヨーク州)で、コンテンツ規制に関する州法が言論の自由を侵害するとして訴訟を起こすケースが確認されている。これらの訴訟は、SNSが法令遵守よりも規制抵抗を優先する姿勢を象徴しているとの批判がある。訴訟の背景には、Xが政治的偽情報・ヘイトコンテンツをどう取り扱うべきかの議論がある。
Grokの性的画像問題(画像生成・加工)――最新の経緯
2025年後半から2026年初頭にかけて、X統合AIのGrok(グロック)が生成・加工できる画像について深刻な問題が浮上している。これらの動向を整理する。
問題の発端と内容
Grokの画像生成・編集機能は、利用者のテキスト指示に応じたAI生成画像を作成できるものであり、当初は創造的・利便性重視で注目されていた。しかしながら、ユーザーがこれを悪用し、女性や子どもを性的に描写・加工した画像を生成・共有する事例が相次いだ。これには非同意の人物を対象にした性的表現や、いわゆる児童性的虐待コンテンツ(CSAM)に類するものまで含まれており、国際的に大きな批判を招いた。
各国当局の反応
欧州委員会は「女性や子どもの性的画像は違法かつ容認できない」と明言し、XSの対応を追及している。英Ofcomもこの問題を「深刻な懸念」として把握し、X側への説明を要求している。フランス当局も検察と規制機関を巻き込んだ対応を進めているという報道がある。
英国議会の委員会や複数の女性支援団体は、Xを「安全な空間ではなくなった」と非難し、政府が規制・措置を検討するよう求めている。
X側の対応と批判
Xはこれらの批判を受けて、画像生成・編集機能を有料ユーザーに限定する措置を導入した。だが批評家は、これは根本的な安全対策ではなく、むしろ有害コンテンツ生成を「有料化」してしまったに過ぎないと指摘している。さらに、Grokは独立アプリやサイト上では無料でもアクセス可能な状態もあり、問題は依然として解決していないと報じられている。
米国内の報道では、Grokは1時間あたり数千件に及ぶ性的生成画像を出力しているという分析もあり、実際のモデレーション・取り締まり体制が追いついていないという懸念が高まっている。
政府・法執行機関との協力強化
一方で、日本のX日本法人は違法コンテンツに対する削除・アカウント凍結など厳格な対応指針を公表し、法執行機関との連携を強化する方針を示している。これには児童性的虐待素材やその他違法コンテンツへの即時対応が含まれ、Xが規約強化の意志を示している点は一定の前進として評価されている。
まとめ
以上を整理すると、X(旧ツイッター)の荒廃に対して欧州連合や英国、アジア諸国などが具体的な規制・罰則を導入・検討していることが明確である。特にEUのDSAに基づく罰金や監視措置、英Ofcomの調査、各国の行政対応は、プラットフォーム責任を問う国際的潮流を示している。
また、マスク氏が掲げる「言論の自由の絶対主義」には、法令遵守・安全確保・人権保護との調整という現実的課題が存在する。これを単純に絶対化する立場は、多くの国や規制当局、専門家から批判を集めている。
最後に、Grokの性的画像問題は2026年時点で国際的に深刻な社会問題となっており、各国が法的・行政的対応を迫られている段階である。
Ⅰ EU内の国別プラットフォーム規制比較(DSAおよび関連動向)
以下の表では、EUの共通規制枠組みであるデジタルサービス法(DSA)を基準としつつ、各国の国レベルでの追加措置・実装状況をわかりやすく比較する。
なおDSAはEU域内でオンラインサービス提供者に直接適用される規則(Regulation)であり、条文は加盟国が国内法に置き換える必要はないものの、国家ごとに実務上の運用・罰則決定・監督機関の設定などが異なる。この差異が下表に反映されている。
| 項目 | 全EU共通(DSA) | フランス | ドイツ | オランダ | スペイン | ポーランド |
|---|---|---|---|---|---|---|
| 違法コンテンツ「迅速削除」義務 | あり | あり | あり | あり | あり | あり |
| モデレーションの透明性 | あり | 強化措置あり | 強化措置あり | 実務運用強調 | 調査・報告義務あり | 実装遅延指摘※ |
| 統一年齢確認制度 | 上位ガイドライン | 推進議論あり | 実装議論 | 実装実務対応 | 議会で提案あり※ | 優先順位低め |
| 国家監督機関(DSC) | 必須 | 設置済 | 設置済 | 設置済 | 設置済 | 未整備でEU提訴対象※ |
| 違反時の罰則・制裁 | 最大売上高6% | 上限適用 | 上限適用 | 上限適用 | 上限適用 | 上限適用 |
| DSA超過規制(国内追加法) | ― | 肖像権保護強化 | 人権重視規定 | 個人情報公開条項 | 実装不足で再調整中 | 遅延・未整備 |
| 強制力のある年齢制限 | なし(方向性) | 法制化議論強 | 提案あり | 提案議論中 | 議会で案成立※ | なし |
※スペイン・ポーランドに関しては、EUがDSA実装に不備があるとして2025年に欧州委員会が提訴している事例がある。これは各国がDSAの執行体制(National Digital Services Coordinator: DSC)設置および罰則規定の明確化を怠ったものである。
DSAの共通規定(EU全域)
基本原則:オフラインの違法性はオンラインでも違法とみなす(違法コンテンツ削除義務)。
対象範囲:月4500万人以上のユーザーを持つ「非常に大規模オンラインプラットフォーム(VLOP)」を含むオンラインサービスに適用。
義務例:リスク評価、コンテンツ削除・緩和措置、透明性レポート、広告透明性、研究者用データアクセスなど。
罰則:重大な違反には世界売上高の最大6%の課徴金等。
Ⅱ EU主要国の司法における法令条文レベルの分析
ここでは、EU加盟国のうち主要な法体系(フランス・ドイツ・オランダ)について、DSAの国内実装における法令条文レベルの分析を行う。条番号はDSA規則(Regulation (EU) 2022/2065)に準ずる。
1 フランス:国内実装と独自規制(児童保護・年齢確認)
フランスは、DSAを受けた国内オンライン安全法制の中で、未成年者保護や年齢確認を重視しているのが特徴である。具体的には:
違法コンテンツ削除義務(DSA Art. 3–4):違法とされたコンテンツは迅速に削除する責務。フランスはこれを国内法で補強し、児童性的虐待資料(CSAM)に対する削除期限厳格化を特化。
年齢確認義務強化:DSAでは年齢確認のガイドラインのみ示されるが、フランスはこれを国内法の義務化方向として議論し、16歳未満の利用制限など国内規制での明確化を目指す動きがある。
行政責任と罰則:DSAの最大6%罰金を置きつつ、国内法でも別途児童保護規定違反に対して重罰化を進める傾向がある。
2 ドイツ:基本権との調整と運用重視
ドイツではDSA実装に際し、基本権(表現の自由・情報の自由)との調整を重視した条文運用がなされる。具体例:
透明性義務(DSA Art. 12–13):プラットフォームのデータ提供義務は、その影響がユーザー権利を不当に侵害しないように国内裁量基準を設けた。
コンテンツ削除手続きの審査標準:ドイツ連邦裁判所は、削除要請に対する比例原則の判断を厳格化し、「削除要件の具体性評価」を明文化した。
これらはDSAの条文に独自の修正を加えるものではないが、裁判例レベルでの運用基準形成によって実質的な国内法解釈が進んでいる。
3 オランダ:プライバシー保護と情報公開
オランダではDSAの国内実装を踏まえ、個人情報保護とのバランスを重視する法解釈が見られる。
公開情報義務(DSA Art. 22):商品販売者等の連絡先・所在地公開義務について、オランダはプライバシー規制(GDPR)との整合性を確保するための例外規定を国内に設けた。これにより、DSAの要求とGDPRの要件を調整するための解釈基準が定められている。
誤報対策と誤用監視:オランダ裁判所は、プラットフォームの「アルゴリズム表示優先順位」に関してDSA解釈基準を示し、「客観的判断基準無しに表示優先措置を行うこと自体が差別的である可能性」を指摘する判決例が出ている。
Ⅲ 国別実装の特徴とEU全体の規制調和
共通点
即時削除義務(DSA共通条文):違法コンテンツはすべての加盟国で削除義務対象。
透明性報告の義務化:プラットフォームは削除理由等を透明性レポートとして公表。
罰則枠:違反には最大6%の売上高罰則が共通。
国別相違点(例)
年齢制限・保護規制:フランスは積極的に年齢確認義務化を進める一方、オランダはGDPRとのバランス調整が中心。
運用レベルの裁量:ドイツは裁判基準を重視して、基本権との兼ね合いを運用レベルで明確化。
実装遅延:スペイン・ポーランドなどはDSAの執行体制整備が遅れ、欧州委員会による提訴対象となっている。
Ⅳ 学術的示唆
学術文献分析では、DSAが「単なるモデレーションルール」ではなく、プラットフォームの推奨アルゴリズム透明化・危険性評価義務・リスク削減策といった包括的義務を含む枠組み規制である点が指摘されている。
また、透明性データベースの分析結果として、プラットフォームごとの削除基準や実施状況に大きなばらつきがあることが分かっており、欧州内の規制調和と実装状況にギャップが存在する可能性が学術的に指摘されている。
Ⅴ 結論
EU域内ではDSAという統一枠組みが存在するものの、各国の司法・政策・実務運用において解釈や追加措置に差異が見られる。この差異は、基本権との調整、未成年保護の厳格化、プライバシー保護との兼ね合い、そしてDSA実装体制の整備遅延という形で現れている。
