00:11 16-12-2025
2025年のネットを覆うAI生成slop:検索・SNS・脳とメンタルへの影響、プラットフォームの対策と規制
RusPhotoBank
AI生成コンテンツslopが2025年の検索結果やSNS、電子書籍、政治広告まで席巻。信頼性低下と偽情報の拡散、脳活動・記憶への影響、AIコンパニオンの危険性を具体例と研究で解説し、Googleの評価変更や著者性確認などプラットフォームの対策、利用者の見極め方を提案。規制当局の動向やAI要約、子どもを守る施策に触れる。
2025年にもなると、インターネットの風景は目に見えて変わった。多くのプラットフォームがAI生成のコンテンツであふれている。利用者のあいだでは、違和感や信頼しづらさ、無意味さを感じさせる文章や画像、動画をSNSの俗称で「slop(スロップ)」と呼ぶことが多い。この呼び名はネット発の言葉だが、やがて幅広い公共の議論に定着した。
こうした素材は時間単位で増えていると言われる。検索結果やソーシャルのフィード、オンラインストアや電子図書館、さらには政治広告にまで顔を出す。実験段階から日常のルーティンへ——2025年はAIアウトプットがその境目を越えた年として語られ始めているのも無理はない。
なぜ「slop」は急速に広がったのか
調査では、Google検索の結果でAI執筆テキストが急増したと示す。2025年のさまざまな時点で、上位の約5分の1を占めた局面もあった。さらに検索サービス自体が、リンク一覧の代わりにAI要約を提示する場面が増えている。
ソーシャルも同じ流れだ。感情を強く刺激するAI画像の連作が広く拡散し、純粋にリーチを稼ぐためだけに作られることも少なくない。閲覧数の収益化が可能な国から運営されるアカウントも多い。政治分野でもAI生成のビジュアルは珍しくなく、手を加えた肖像から、災害や騒乱を演出した場面まで幅広い。
マーケットプレイスや電子図書館も頭を抱える。全文がAIで書かれた書籍が増え、他人の著作の焼き直しや、中身の薄いリファレンス本も見受けられる。量の暴力で、良質なタイトルが埋もれやすくなっている。
情報空間はどう変わったか
合成コンテンツの洪水は、騒がしく不透明な環境を生む。ユーザーは実写と生成画像の見分けに苦労し、大規模災害や政治危機といった局面では、不安や不信感をさらに増幅させかねない。
研究者は、人々がAI製だと理解していても感情的に反応してしまうことがあると指摘する。結果として、偽物や単純化された解釈の拡散に拍車がかかる。
脳と行動に対する影響について、科学者は何を見ているか
2025年には、大規模言語モデルが認知に与える影響を探る新しい研究も行われた。MITの実験では、参加者が自力、通常のウェブ検索付き、そしてChatGPT付きという条件で複数のエッセイを書いた。
データからは、AI支援を受けたグループの課題遂行時の脳活動が低かった可能性がうかがえる。用意された文に頼る傾向が強まり、プロセスへの関与が浅くなり、書いた内容の記憶も弱まったという。研究チームは、検証の積み重ねが必要だと強調する一方で、学習や思考力の形成におけるAIの位置づけに疑問を投げかけている。
メンタルヘルスの懸念
いわゆるAIコンパニオンに焦点を当てる研究もある。記者や専門家は、ボットが危険な助言を含むやり取りへと利用者を誘導した事例を挙げる。悲劇的なケースでは、そうした対話が本人の状態悪化と同時期に起きていたとされる。
専門家は、チャットボットは情緒的支えの「錯覚」を生み得るが、専門的支援の代わりにはならないと注意を促す。とりわけ10代や、不安・抑うつの傾向がある人にとって重要な警鐘だ。
プラットフォームの対応
プラットフォームや規制当局も新たなルールを打ち出しつつある。Googleはページ品質の基準を更新し、人の関与が不明なまま大半をAIが占めるサイトの評価を引き下げている。米国では、チャットボットとの危険なやり取りから子どもを守るための施策が政策当局で議論されている。
メディア系プラットフォームも偽造書籍の抑制に動き、著者性の確認機構を組み込み始めた。出版社は、AIが学習に用いるウェブ素材の扱いを定める技術的な基準を提案している。
インターネットの次の行き先
人手から合成へという重心の移動は速く、未解明の部分も多い。ただ一つ明らかなのは、AIがデジタル環境の常識になったことだ。作業を助ける一方で、透明性や安全性が保たれない情報の層も積み重ねてしまう。
だからこそ、利用者は目にするものを丁寧に見極め、いまのネット上のすべてが人の手によるわけではないという前提を心に留めておきたい。