BLOG

BLOG


生成AIの“倫理崩壊”はこうして起きる──ディープフェイク・声の偽装・著作権侵害の世界的実例と私たちの選択

はじめに──日々のSNSが“地雷”になる時代へ

こんにちは。パーマン10号です。もとい・・株式会社セレンデック代表の楠本です。

最近、SNSで見かけた動画に「えっ」と思わず声が出てしまいました。

有名人が奇抜な発言をしている──けれど、どうも口の動きや声がどこか不自然。調べてみると、それはディープフェイク(深層偽造)と呼ばれるAI生成の“偽動画”でした。

怖いのは、この動画がシェアされた回数です。何万人、何十万人が信じている。

「いや、私はこんなの作らないし、関係ないし」…そう思いたい気持ちもわかります。
でも、気づいていないだけで、誰でも“加害者”にも“被害者”にもなり得る時代が来ているんです。

今回は、
AI倫理と規制、著作権の最前線2025|経営リスクを防ぐガバナンス5原則と対応策」
では触れきれなかった、
世界で実際に起きている“倫理崩壊”の事例をベースに、その構造と対策を深掘りしていきます。

世界で進行する“倫理の崩壊”──ディープフェイクとAI悪用の実例

ディープフェイクは“ポルノ”だけじゃない──著名人・政治家・選挙が狙われる

AIによって生成されたフェイク動画や音声の標的は、もはや“ポルノ”の枠に留まりません。

たとえば、アメリカでは2024年末から2025年にかけて、複数の選挙州で偽の政治的発言を生成したディープフェイク広告が問題となりました。

有権者の支持を揺るがす“偽のスピーチ”が流され、投票行動に影響を及ぼしたとされる事例も出ています。

さらに、世界30カ国以上で、選挙・宗教・戦争といった社会的センシティブなテーマを扱うディープフェイクが拡散されており、民主主義そのものを脅かすリスクが現実化しています。

ジャーナリストや社会活動家を貶めるフェイクも後を絶ちません。その多くはSNSを介して“あっという間に拡散”され、時に「事実と誤認」されてしまうのです。

音声クローン詐欺──“信じたい気持ち”が裏目に出る時代

「お母さん、助けて…」

2025年、アメリカ・フロリダ州の女性が“娘の声そっくり”の電話を受け、15,000ドルを振り込んだ──
結果、それはAIが数分の音声から再現したクローン音声詐欺だったという実話があります。

さらに香港では、Zoom風のビデオ通話でCEOの偽映像+声を使い、社員に2,500万ドルの送金を指示する事件も発生。

音と映像が揃えば、もはや人間は“信じてしまう”。

「うちは大丈夫」では済まない、“瞬時の判断”をついた詐欺手口が急増しています。

著作権が“見えなくなる”──創作の尊厳を奪う無断学習の実態

イラスト、漫画、写真、音楽…すべてがAIにとっての“学習素材”です。

問題は、その多くが著作権者の許可なく勝手に使われている点。

たとえば、

  • 有名漫画家のタッチを模したイラストを勝手に生成
  • 写真家の作品をトレースした構図をAIが再現

それを“自分の作品”として発表する人もいます。

「これは私の手で描いたわけじゃないけど、AIが描いたからOKでしょ?」

…本当に、そうでしょうか?

一方で、こういう視点もあります。

「そもそも、すべての創作は過去の何かに影響を受けている」と。

たとえば、有名な漫画家だって、きっと誰かに憧れてペンを握ったはず。
音楽家も画家も、完全な“ゼロからの創造”ではなく、歴史や文化から影響を受けて育っています。

実際、私も子どもの頃に読んだ漫画の構成や台詞回しが、今の企画書の言葉選びに影響しているなと感じることがあります(笑)。

だからこそ、AIによる模倣や学習についても、「これはパクリ」「これはオマージュ」と一刀両断するのは難しいんですよね。

でも、違いはあります。

人間は“影響を受けたこと”を自覚し、リスペクトを込めてアウトプットします。
AIは…そこがない。学習元も出典も語らない。

そこに「透明性」がないから、問題が大きくなる。

つまり、問題の本質は“学習そのもの”というよりも、その出典や文脈が曖昧なまま、商業利用や拡散が進んでしまうことなのかもしれません。

この“グレーゾーン”に、世界中のクリエイターたちが不安と不信感を抱えている──そう思います。

なぜ倫理は壊れてしまうのか?──構造と制度の“穴”

技術は“露悪”の加速装置になる

AIは善悪の判断をしません。

何を学ばされ、何を最適化するか──それを決めるのは、結局は“人間”です。

そのときに私たちが求めているものが「もっと儲けたい」「もっと注目されたい」「もっとバズりたい」だったとしたら…

AIは、それに最適化された“結果”を返してくる。

技術そのものが悪なのではなく、“人間の欲望”を加速させる鏡なのかもしれません。

制度が追いつかない:倫理の空白時間が生まれている

たとえばアメリカでは「Take It Down Act」など、AIポルノやフェイクへの対応が進みつつありますが、国によってはガイドラインすら未整備というケースもあります。

日本でも自治体単位では動きがありますが、法的強制力のある仕組みはまだ整っていません。

この“倫理の空白期間”に、最も拡散力のあるコンテンツが育ってしまう。それが今の構造です。

誰の責任か?があいまいになる“構造”

  • 作った人?
  • 拡散した人?
  • AIを設計した人?
  • プロンプトを投げた人?

みんな、「自分じゃない」と言えてしまう。

この“責任の空白地帯”こそ、技術が暴走する最大の要因かもしれません。

私たちは、どうすればいいのか?

“やっていいこと”と“やらないこと”の感覚を取り戻す

法律ではなく、“人としてどうか”という視点を忘れない。

  • 「これは誰かを傷つけていないか?」
  • 「これは嘲笑や侮辱になっていないか?」

そんな問いを、技術を使う前に立ち止まって考えること。それこそが、倫理の最後の“防波堤”になる気がします。

知らずに加害者にならないために、できること

  • SNSで出どころ不明な動画を見たら、一呼吸おく習慣
  • 声や画像を勝手に使う前に「これ、誰かが困らないか?」と考えるクセ
  • 子どもや高齢者にも「AIの嘘の怖さ」をシェアする

まとめ──“人間のためのAI”であり続けるために

技術は止まりません。

だからこそ、“どう使うか”を一人ひとりが選べるようにしておく必要がある。

そして何より、使う前に「これ、人間らしいか?」を自分に問いかけること。

倫理って、制度やルールじゃなくて、“姿勢と哲学”なのかもしれません。あなたはどう思いますか?

AIをもっと学びたい方へ

  • 個人向け:AI時代の“考える力”を育てる
    『AI Webディレクター養成講座』
    • ChatGPTやGeminiなどを活用した、ゼロから始めるAI仕事術
    • Webの基本技術、ヒアリング・構成・提案・ライティング・AI活用の“ディレクション5技能”を実務に落とし込む
    • Web初心者・未経験者でも、「考える力」と「伝える力」を体系的に学べる講座です。0からAIwebディレクターとして活躍できるまでをサポートします

    👉 AI Webディレクター養成講座はこちら

  • 法人向け:AI導入から内製化までを設計
    『AI・DX戦略構築講座(法人研修プラン)』
    • 現場で「なぜ進まないのか」を構造的に分析
    • 部署別ヒアリングから始める“内製化の第一歩”
    • 最新AIツールの活用例と、現場に定着させる教育設計をワーク形式で支援

    👉 企業研修・ご相談はこちら



一覧に戻る

TO PAGE TOP
TO PAGE TOP

img

close