はじめに──日々のSNSが“地雷”になる時代へ
こんにちは。パーマン10号です。もとい・・株式会社セレンデック代表の楠本です。
最近、SNSで見かけた動画に「えっ」と思わず声が出てしまいました。
有名人が奇抜な発言をしている──けれど、どうも口の動きや声がどこか不自然。調べてみると、それはディープフェイク(深層偽造)と呼ばれるAI生成の“偽動画”でした。
怖いのは、この動画がシェアされた回数です。何万人、何十万人が信じている。
「いや、私はこんなの作らないし、関係ないし」…そう思いたい気持ちもわかります。
でも、気づいていないだけで、誰でも“加害者”にも“被害者”にもなり得る時代が来ているんです。
今回は、
AI倫理と規制、著作権の最前線2025|経営リスクを防ぐガバナンス5原則と対応策」
では触れきれなかった、
世界で実際に起きている“倫理崩壊”の事例をベースに、その構造と対策を深掘りしていきます。
世界で進行する“倫理の崩壊”──ディープフェイクとAI悪用の実例
ディープフェイクは“ポルノ”だけじゃない──著名人・政治家・選挙が狙われる
AIによって生成されたフェイク動画や音声の標的は、もはや“ポルノ”の枠に留まりません。
たとえば、アメリカでは2024年末から2025年にかけて、複数の選挙州で偽の政治的発言を生成したディープフェイク広告が問題となりました。
有権者の支持を揺るがす“偽のスピーチ”が流され、投票行動に影響を及ぼしたとされる事例も出ています。
さらに、世界30カ国以上で、選挙・宗教・戦争といった社会的センシティブなテーマを扱うディープフェイクが拡散されており、民主主義そのものを脅かすリスクが現実化しています。
ジャーナリストや社会活動家を貶めるフェイクも後を絶ちません。その多くはSNSを介して“あっという間に拡散”され、時に「事実と誤認」されてしまうのです。
音声クローン詐欺──“信じたい気持ち”が裏目に出る時代
「お母さん、助けて…」
2025年、アメリカ・フロリダ州の女性が“娘の声そっくり”の電話を受け、15,000ドルを振り込んだ──
結果、それはAIが数分の音声から再現したクローン音声詐欺だったという実話があります。
さらに香港では、Zoom風のビデオ通話でCEOの偽映像+声を使い、社員に2,500万ドルの送金を指示する事件も発生。
音と映像が揃えば、もはや人間は“信じてしまう”。
「うちは大丈夫」では済まない、“瞬時の判断”をついた詐欺手口が急増しています。
著作権が“見えなくなる”──創作の尊厳を奪う無断学習の実態
イラスト、漫画、写真、音楽…すべてがAIにとっての“学習素材”です。
問題は、その多くが著作権者の許可なく勝手に使われている点。
たとえば、
- 有名漫画家のタッチを模したイラストを勝手に生成
- 写真家の作品をトレースした構図をAIが再現
それを“自分の作品”として発表する人もいます。
「これは私の手で描いたわけじゃないけど、AIが描いたからOKでしょ?」
…本当に、そうでしょうか?
一方で、こういう視点もあります。
「そもそも、すべての創作は過去の何かに影響を受けている」と。
たとえば、有名な漫画家だって、きっと誰かに憧れてペンを握ったはず。
音楽家も画家も、完全な“ゼロからの創造”ではなく、歴史や文化から影響を受けて育っています。
実際、私も子どもの頃に読んだ漫画の構成や台詞回しが、今の企画書の言葉選びに影響しているなと感じることがあります(笑)。
だからこそ、AIによる模倣や学習についても、「これはパクリ」「これはオマージュ」と一刀両断するのは難しいんですよね。
でも、違いはあります。
人間は“影響を受けたこと”を自覚し、リスペクトを込めてアウトプットします。
AIは…そこがない。学習元も出典も語らない。
そこに「透明性」がないから、問題が大きくなる。
つまり、問題の本質は“学習そのもの”というよりも、その出典や文脈が曖昧なまま、商業利用や拡散が進んでしまうことなのかもしれません。
この“グレーゾーン”に、世界中のクリエイターたちが不安と不信感を抱えている──そう思います。
なぜ倫理は壊れてしまうのか?──構造と制度の“穴”
技術は“露悪”の加速装置になる
AIは善悪の判断をしません。
何を学ばされ、何を最適化するか──それを決めるのは、結局は“人間”です。
そのときに私たちが求めているものが「もっと儲けたい」「もっと注目されたい」「もっとバズりたい」だったとしたら…
AIは、それに最適化された“結果”を返してくる。
技術そのものが悪なのではなく、“人間の欲望”を加速させる鏡なのかもしれません。
制度が追いつかない:倫理の空白時間が生まれている
たとえばアメリカでは「Take It Down Act」など、AIポルノやフェイクへの対応が進みつつありますが、国によってはガイドラインすら未整備というケースもあります。
日本でも自治体単位では動きがありますが、法的強制力のある仕組みはまだ整っていません。
この“倫理の空白期間”に、最も拡散力のあるコンテンツが育ってしまう。それが今の構造です。
誰の責任か?があいまいになる“構造”
- 作った人?
- 拡散した人?
- AIを設計した人?
- プロンプトを投げた人?
みんな、「自分じゃない」と言えてしまう。
この“責任の空白地帯”こそ、技術が暴走する最大の要因かもしれません。
私たちは、どうすればいいのか?
“やっていいこと”と“やらないこと”の感覚を取り戻す
法律ではなく、“人としてどうか”という視点を忘れない。
- 「これは誰かを傷つけていないか?」
- 「これは嘲笑や侮辱になっていないか?」
そんな問いを、技術を使う前に立ち止まって考えること。それこそが、倫理の最後の“防波堤”になる気がします。
知らずに加害者にならないために、できること
- SNSで出どころ不明な動画を見たら、一呼吸おく習慣
- 声や画像を勝手に使う前に「これ、誰かが困らないか?」と考えるクセ
- 子どもや高齢者にも「AIの嘘の怖さ」をシェアする
まとめ──“人間のためのAI”であり続けるために
技術は止まりません。
だからこそ、“どう使うか”を一人ひとりが選べるようにしておく必要がある。
そして何より、使う前に「これ、人間らしいか?」を自分に問いかけること。
倫理って、制度やルールじゃなくて、“姿勢と哲学”なのかもしれません。あなたはどう思いますか?
AIをもっと学びたい方へ
- 個人向け:AI時代の“考える力”を育てる
『AI Webディレクター養成講座』- ChatGPTやGeminiなどを活用した、ゼロから始めるAI仕事術
- Webの基本技術、ヒアリング・構成・提案・ライティング・AI活用の“ディレクション5技能”を実務に落とし込む
- Web初心者・未経験者でも、「考える力」と「伝える力」を体系的に学べる講座です。0からAIwebディレクターとして活躍できるまでをサポートします
- 法人向け:AI導入から内製化までを設計
『AI・DX戦略構築講座(法人研修プラン)』- 現場で「なぜ進まないのか」を構造的に分析
- 部署別ヒアリングから始める“内製化の第一歩”
- 最新AIツールの活用例と、現場に定着させる教育設計をワーク形式で支援