2023 年 2 月。ChatGPT が登場してまだ数カ月だった頃、私はこんな記事を書きました。
これらを踏まえて考えられる最悪の未来は、「世の中がデタラメな情報で溢れかえってしまう」状況になることです。 (中略) 不誠実なメディアほど SEO 対策に秀でている場合が多く、Google 検索で表示される上位の検索結果が、AI による不正確な情報に汚染され、デタラメな情報で溢れかえってしまう結果につながってしまいます。
情報収集が無理ゲーになる世界 – 「ChatGPT」や「Notion AI」で世界が変わった。 (taheiNNotes, 2023 年 2 月)
3 年経った今、この予測は残念ながらかなりの精度で的中してしまいました。
2026 年の今、この手の「AI が量産した低品質な記事」には名前が付いています。それが、「AI スロップ」。
本記事は、3 年前の自分への答え合わせ。何が当たって、何が外れたのか。振り返りながら、AI スロップ汚染による現状を確認します。

「AI スロップ」──問題に名前がついた

AI スロップという言葉を初めて聞く方のために、この意味を簡単に整理しておきます。AI スロップとは、「生成 AI によって大量に作られた、低品質で中身の薄いコンテンツ」のことです。「Slop」は英語で「残飯」や「ぬかるみ」を意味する単語で、転じて「粗悪品」を指すスラングとしても使われます。
具体的には、こういったものが該当します。
- SNS のフェイク画像・動画
- AI で生成された偽の画像や動画が、本物であるかのように SNS で拡散される現象です。災害時のデマ画像や、著名人のディープ フェイク動画などが代表的な例です。
- 低品質な SEO 記事
- 検索上位の獲得だけを目的に、AI で大量生産された中身の薄い記事です。一般論の羅列や他サイトの焼き直しばかりで、読者が求める具体的な情報がほとんど含まれていません。
- 無断生成された著名人の画像
- 本人の許可なく、著名人の顔や姿を AI で生成・加工した画像のことです。広告への無断利用や、本人が実際にはとっていない行動をとったかのような画像が出回るケースがあります。
- 実在しない情報の捏造
- AI が事実に基づかない情報をもっともらしく生成してしまう、いわゆるハルシネーションです。存在しない論文の引用や、架空の統計データなどがこれにあたります。
この呼び名が広まったのは 2024 年 5 月頃。英国の開発者 Simon Willison 氏が自身のブログ で、「スパム (spam) が迷惑メールの代名詞になったように、スロップ (slop) は不要な AI 生成コンテンツの代名詞になる」と提唱したのがきっかけの一つでした。
そしてこの言葉は、あっという間に市民権を獲得することになります。アメリカの『メリアム・ウェブスター』辞典が、2025 年の「Word of the Year」に「slop」を選出 。AI によって量産される低品質なデジタルコンテンツ、という意味で正式に定義されました。同時期にオーストラリアの『マッコーリー辞典』も同じ選出 をしており、英語圏では完全に定着。
3 年前の私が「デタラメな情報」としか呼べなかったもの。それが今では辞書に載るほどの社会問題になっている。これ自体が、一つの答え合わせかもしれません。
では、本題に入りましょう。
当たってしまった 3 + 1 つの予測

3 年前の予測のうち、「当たってしまった」と言える部分は 3 + 1 つありました。
予測 1:「AI で生成された記事が溢れる」→ 想定以上に的中
「これからは多くのメディアが、AI を活用して記事を作ることになるでしょう」と私は書きました。
これは控えめに見ても、大当たり。むしろ私の想像を超えていたとも言えるでしょう。
今や企業のオウンド メデイア、個人ブログ、Amazon Kindle 本、SNS 投稿、YouTube 動画──ありとあらゆる媒体での AI コンテンツ量産がされるのが当たり前。「AI で記事を 1 日 100 本量産する個人」なんてものもそう珍しい存在ではありません。
実際に、少なくとも英語圏の新規記事では、AI 生成記事の公開量が人間執筆記事を上回ったとする調査も出てきました。アメリカのコンサルティング会社である Graphite が「Common Crawl (世界中の Web ページを定期的に収集し、そのデータを研究・分析用に公開している米国の非営利プロジェクト)」から抽出した 2020〜2025 年公開の英語記事 65,000 件を分析したところ、2024 年 11 月に AI 生成記事の公開量が人間執筆記事を上回ったと報告 されています。
予測 2:「不誠実なメディアほど SEO に強く、検索結果を汚染する」→ ドンピシャ
これも残念ながら的中。
Google で何かを検索して、上位に表示される記事を読みながら「これ、AI が書いてない?」と感じた経験。もはや珍しくないはずです。同じような構成、同じような言い回し、なんなら結論まで似ている。そういう記事ばかりが目に入ってきます。
Google もこの状況には気づいていて、2024 年 3 月に大規模なスパムアップデート を実施。「検索ランキングを操作する目的で大量に生成された、ユーザーに価値を提供しないコンテンツ」を取り締まる方針を明示しました。一定の効果はあった気がしますが、AI 生成側もすぐに対応を打ち出し、いたちごっこは今も続いています。
予測 3:「情報の正確性を検証する手段を失う」→ 半分当たり、半分は想定外の展開
ここが一番微妙な部分。
まず当たった部分。Google 検索だけで真偽を確かめるのは、3 年前より明らかに難しくなりました。複数のサイトで同じ情報を見つけても、それらが全て同じ AI の出力をコピーしただけ、という事態が頻繁に起きています。
想定外だった部分。3 年前の私は「一次ソースを確認するには Google 検索が最良」と書いたのですが、2026 年の今、検証手段そのものが変わってきています。Perplexity や ChatGPT の検索機能は、AI が回答する際に出典を明示するようになり、またその正確性は格段に向上しました。これは当時想定していなかった展開です。
ただし AI が示す出典自体が AI 生成記事だった、というオチも普通に発生するので、根本的な問題は別の形で残っています。検証したくても検証先が汚染されている──という、まるで円安トレンドから抜け出す術がない日本経済のような絶望的な構造です。
予測 +1: AI が AI を汚染する未来
ここで、他の 3 つとは少し性質が違う「予測」に触れさせてください。
実は 3 年前にあの記事になぜか抜け落ちていた予測「AI が垂れ流したでたらめな情報を、また別の AI が学習する。それが繰り返されることで、嘘がやがて『本当』になってしまう未来」について。
この「書き忘れた予測」は、2024 年以降に「モデル崩壊」(Model Collapse) と呼ばれる現象として、AI 業界の重要課題に浮上しました。AI が生成したコンテンツを別の AI が学習データとして取り込み続けると、AI 自体の性能が劣化していく、という問題です。
ネットが AI 生成コンテンツで溢れれば、次に学習データを集める AI は汚染されたデータを大量に取り込むことになる。すると AI の出力もさらに劣化する。AI が AI の足を引っ張る、という皮肉な構図です。
3 年前に漠然と恐れていたことが、今や学術的にも産業的にも明確な脅威として議論されています。
外れた予測と、想定外の展開

予測が当たった点はこれまで述べてきた通りですが、一方で外れた点もありました。
想定外 1:「一次ソース回帰」は起きなかった
3 年前の私はこう締めくくっていました。
企業や情報発信者には、いかにして一次ソース情報を適切に発信し、人類に届けていくのか。この方法を考えることが、実は今、最も求められていることなのかもしれません。
ここで言う「一次ソース」とは、メーカーやサービスの提供企業そのもの、研究機関、あるいは当事者など、いわゆる情報の発生源のこと。新聞や雑誌はあくまで二次ソースです。
3 年前の私には半ば願望めいた期待がありました。「AI に汚染されるなら、人々は一次ソースに回帰するだろう」と。
しかし実際に起きたのは真逆でした。
「もっと早く答えが欲しい」「いちいち一次ソースに当たるのは面倒だ」──人々は AI 検索 (Perplexity、ChatGPT、Google AI Overviews) に流れていきました。一次ソースに辿り着く前に、AI が要約した「答えっぽいもの」で満足する文化が定着したわけです。
これによって二次ソースであるメディア各社は、その立場を AI に奪われつつあります。2025 年 8 月には読売新聞、日経新聞、朝日新聞などの報道機関が相次いで AI 検索サービス Perplexity を著作権侵害で提訴する事態に発展しました。
では一次ソースの側は? 残念ながら、多くの企業や機関は旧態依然な情報発信体制から変わっていない印象です。AI 時代に対応した発信手法を確立できているところは数少なく、一次ソースの存在感は AI 検索の影に隠れて、むしろ薄くなっているとすら感じます。
想定外 2: 問題に「名前」がついたことの意味
もう一つ、想定外だったけれど歓迎すべき展開がありました。
3 年前の時点では、「AI が量産する低品質な記事」を一言で表す言葉がありませんでした。そのため私の元記事も「デタラメな情報」「不正確な情報」と曖昧な表現に終始。
それが 2024 年に「AI スロップ」という名前がつき、2025 年には辞書に掲載された。
ここで重要なのは、問題に名前がつくと、議論が前に進むということです。「あの記事、AI スロップっぽいよね」と一言で伝えられますし、「我々は AI スロップを公開しない」と方針として掲げることだって可能になります。
先述した Simon Willison 氏が個人的な AI 倫理として「I think don’t publish slop is a useful baseline. (「スロップを公開しない」ことが、守るべき基準であると思う)」と掲げた のは、その象徴的な例と言えるでしょう。
それでも、私は書き続ける

3 年前、「最悪の未来」という言葉を使ったくらいには、私は将来を悲観的に見ていました。
でも実際にそれに近い状況が訪れた上で感じるのは、案外、悪いことばかりでもないということ。
AI スロップが溢れる世界では、逆説的に「人間が時間をかけて書いた、本音の文章」の価値が上がります。誰でも AI で 1,000 字の記事を 30 秒で作れる時代だからこそ、自分の体験、自分の失敗、自分の違和感を、自分の言葉で綴ることによって、AI には出せない「手触り」を残せます。
本記事も書きながら何度も AI に助けてもらいました。ソースの発掘、文章の整理、論理の点検、etc…。でも、結局何を伝えたいかという枠組みや、実際の私の考えを棚卸することは私自身にしかできないわけで、結局そういう部分にこそ最も時間がかかります。得てしてこうした作業は疲れるもので、そして、楽しいのです。
私はこの先も、AI を道具として使いながら、自分の視点で書き続けていきたい所存です。AI スロップの海に流されない、小さなブログとして。
──では、この AI スロップ時代に、読者として、そして書き手として、具体的にどう身を守ればいいのでしょうか? 次の記事で、私が実践している習慣と、書き手が陥りやすい認知の落とし穴について書き記していければと思います。
あわせて読みたい


