富士通はSNS上などで拡散する偽情報に対抗するため、新たなシステム開発に乗り出すことを発表しました。このシステムは、生成AIによって作られた偽画像などを検出するだけでなく、投稿者の情報や内容の整合性なども分析し、精度の高い真偽判定を目指します。
偽情報の中には、投稿者の情報や位置情報が偽装されているケースも少なくありません。このシステムは投稿者の属性や位置情報、投稿日時などを総合的に分析し、内容との整合性を検証することが可能です。例えば、日本国内の災害に関する情報が海外から投稿されている場合などは、偽情報の可能性が高いと判断されるのです。そこで今回は、AIによる偽画像の仕組みや技術、企業に及ぼすリスク、企業ができる対策を詳しく解説します。
AIによる偽画像が問題となっている
近年、生成AIの発展により誰でも簡単にAI画像を作り出せるようになりました。これにより、インターネット上には、まるで本当のように見える偽画像が氾濫しています。
AIによる偽画像はディープフェイクとも呼ばれており、AIのディープラーニング技術とフェイクを組み合わせた造語です。ディープフェイクは、AIのディープラーニング技術を使って、ある人物の顔や声を別の人のものとすり替えて、あたかもその人が行ったかのように見せかける技術です。高度な技術によって作られたディープフェイクは、本物と見分けるのが非常に難しく、多くの問題を引き起こしています。
ディープフェイクについては、以下の記事でも詳しくご紹介しています。ぜひ参考にしてください。
また、AIによる偽画像が悪用された事例については、以下の記事でも詳しくご紹介しています。ぜひ参考にしてください。
最近は、Googleでも検索結果から露骨な偽画像をなくすための対策を始めました。 Googleは、検索結果からAIによる露骨な偽画像をすべて探し出し、削除するだけでなく、同じような画像が再び表示されないように対策を強化しています。
また、誰かが特定の人物名でAIによる偽画像を検索した場合、ニュース記事などの信頼できる情報が優先的に表示されるようにしているようです。
AIによる偽画像の仕組みと技術
AIによる偽画像は、主にGAN(敵対的生成ネットワーク)というAIの技術を使って作られます。GANは、大量の顔写真からその人の特徴を細かく学習し、まるで本人がそこにいるかのような、全く新しい画像を作り出すことが可能です。
例えば、ある人の笑顔の写真だけをたくさん与えると、GANはその人の様々な表情を想像して作り出すことができるのです。その他にもAIによる偽画像に使われる技術には、以下があります。
敵対的逆強化学習
敵対的逆強化学習とは、GANが持つ画像生成能力に、AIが自ら学習する強化学習の仕組みを組み合わせたものです。強化学習は、AIが試行錯誤を繰り返しながら、より良い結果を出せるように学習する仕組みです。
強化学習をGANに導入することで、AIは生成した画像がより本物らしく見えるように、自ら学習を繰り返すことができるようになります。GANは高品質な画像を生成し、強化学習は生成された画像の質をさらに高めることで、よりリアルな画像を生成できるようになるのです。
ブロックチェーン
AIによる偽画像は、高度な技術ゆえに悪意のある目的で利用されるリスクが高いです。しかし、この問題に対抗するために、ブロックチェーンという技術が注目されています。
ブロックチェーンは、データの改ざん履歴をブロックと呼ばれる単位でつなぎ合わせ、ネットワーク上の複数のコンピューターで共有することで実現されており、ビットコインなどによく用いられています。一度記録されたデータを改ざんすることが困難な仕組みのため、変更履歴をブロックチェーンで記録しておけば、その画像が本物か偽物か、簡単に確認できるようになるのです。
AIによる偽画像が企業に及ぼすリスク
AIによる偽画像は個人だけでなく、企業にも深刻な被害をもたらす可能性があります。以下で、AIによる偽画像が企業に及ぼすリスクを解説します。
詐欺行為
AIによる偽画像は、巧妙な詐欺手法である「ソーシャルエンジニアリング」と組み合わされることで、企業にとって大きな脅威となります。ソーシャルエンジニアリングとは、人の心の隙を突いて情報を盗み出したり、不正な行動をさせたりする手法です。
AIによる偽画像は、このソーシャルエンジニアリングをさらに巧妙なものにします。例えば、企業の経営者や従業員になりすました偽画像を作成し、それを利用して信頼関係を築いた上で、金銭を振り込ませたり、機密情報を聞き出したりするといったことが考えられます。
このように、AIによる偽画像は画像を偽装するだけでなく、人々の信頼を裏切ることで、企業に多大な損害を与える可能性があるのです。
不正アクセス
AIによる偽画像は、顔認証システムのセキュリティを脅かす新たな手段として注目されています。不正者はAIによる偽画像を使い、企業の従業員や顧客の顔を精巧に模倣した画像を作成できます。作成した偽画像を顔認証システムに提示することで、本人になりすまし、不正にシステムにアクセスしようとするのです。
不正アクセスによる攻撃は、企業にとって以下のような深刻なリスクをもたらします。
- 機密情報の漏洩
- 不正な取引による多額の損失
- システムの不安定化やサービスの停止
- セキュリティ対策が不十分な企業イメージの損失
偽の広告
AIによる偽画像は、企業のマーケティング活動に新たな課題をもたらしており、偽の広告やプロモーションに悪用されるリスクは非常に高いです。例えば、競合他社の製品を貶める虚偽の広告を作成し、あたかも自社製品が優れているかのように宣伝することが可能になります。また、著名人やインフルエンサーになりすまし、自社の製品を宣伝するといったケースも考えられます。
このような偽広告は、消費者に誤った情報を提供し、購買意欲を操作することで、市場に混乱をもたらすだけでなく、企業のブランドイメージを大きく損なう可能性があります。一旦拡散された偽の広告は、後日、真実が明らかになったとしても消費者の心の中に根強く残る恐れがあるでしょう。
虚偽の情報の拡散
企業のフェイクニュースや根拠のない噂は、AIによる偽画像により、あたかも真実であるかのように作り出され、SNS上で急速に拡散されるという事態が懸念されます。この事態は、あたかも多くの人々が自発的に発信しているかのように見せかける「アストロターフィング」という手法と組み合わされることで、より大きな影響力を持つでしょう。
例えば、ある企業の製品に深刻な欠陥があるかのような偽画像が拡散されるケースが考えられます。このような偽情報によって企業の株価が暴落したり、顧客が離れていったりする可能性も考えられます。
AIによる偽画像は罰することができる?
AIによる偽画像は、クリエイティブな表現の可能性を広げる画期的な技術であり、新しいモノを作り出す行為や完成した作品を楽しむこと自体は問題ありません。しかし、先述したように、AIによる偽画像は、悪用されると深刻な問題を引き起こす可能性があり、以下の様な行為は法律で罰せられる可能性があります。
- 個人が特定できるような偽画像でプライバシーを侵害したり、評判を傷つけたりする行為
- 偽画像で金銭を騙し取ったり、契約を結ばせたりする行為
- 著作権や商標権を持つ人物や企業の権利を侵害する行為
- 重要なデータや情報を改ざんして社会に混乱をもたらす行為
- AIによる偽画像を用いたポルノ動画などのコンテンツを公開する行為
インターネット上では情報が瞬時に拡散されるため、軽い気持ちで行った行為が思わぬ形で大きな問題に発展するケースが少なくありません。また、国によって法律が異なるため、偽画像を用いたポルノ動画などは持っているだけで犯罪となる国もあります。
海外で違法となる行為を日本で行ったとしても、法的責任を問われる可能性があるでしょう。
企業ができるAIによる偽画像に向けた対策
AIによって生成される偽画像は、もはや人間が肉眼で真偽を判断することが困難なレベルに達しています。企業がこのような偽画像に惑わされず、適切な意思決定を行うためには、以下のような対策を講じる必要があります。
ファクトチェックの実施
AIによる偽画像の生成が高度化する中、企業は自社の情報発信だけでなく、社内外で流通する情報に対して、より厳格な事実確認を行う必要があります。ファクトチェックは、こうした状況下で、企業の信頼性を維持し、顧客との関係を深化させるために不可欠と言えるでしょう。
ファクトチェックとは、情報が事実と合致しているか誤った情報やフェイクニュースではないかを検証する行為です。企業は、ディープフェイク検出ツールなどの活用やファクトチェック専門のチームを社内に設置し、定期的に監査を行うことで、厳密な検証が可能になるでしょう。
正確な情報を発信することで、企業は顧客からの信頼を獲得し、長期的な関係を築くことができます。
C2PAが提供しているシステムの導入
C2PA(Coalition for Content Provenance and Authenticity)は、AdobeやMicrosoftなどの企業が中心となり、デジタルコンテンツの信頼性を確保するための国際的な取り組みです。C2PAが開発した技術を活用することで、画像がどのように作られ、編集されたのかという来歴を正確に追跡できるようになります。
C2PAが提供しているシステムを導入することで、信頼性を評価し、AIによる偽画像かどうかを判断することが可能です。また、消費者に対して透明性の高い情報を提供し、信頼関係を構築することもできるでしょう。
AIに関するリテラシーの向上
AI技術の発展で偽画像はますます精巧になり、判別が困難になっています。企業はこのような状況下で、AIに関するリテラシーを向上させ、偽情報に対抗した信頼性の高い情報を発信していく必要があるでしょう。
AIに関するリテラシーを向上させるには、従業員にAIがどのように機能し、偽画像がどのように生成されるのかを理解させたり、定期的な研修・セミナーの実施や情報共有の場を設け、社員全員が最新の情報を共有できるようにすることが重要です。
従業員がAIに関する知識を深めることで、偽画像に惑わされにくくなり、正確な判断ができるようになるでしょう。また、新しいビジネスモデルの創出やビジネスの改善に繋げることもできます。以下で、AIに関するおすすめのセミナーをご紹介します。
生成AIセミナー
AI研究所の生成AIセミナーは、生成AIの技術や活用方法を2日間で深く学ぶことができます。会場受講とライブウェビナーがあり、自身のニーズに合わせて選択可能です。
また、どちらも講師に直接質問などができるため、初心者の方でも安心でしょう。講師が受講者の操作画面を見ながら操作のサポートをすることもできます。
AI研究所の生成AIセミナーの講義内容は、以下の通りです。
1日目 | 2日目 |
生成AIの概要 | 社内データを用いた生成AIチャットボット作成 |
ChatGPTやCopilotを使った業務効率化 | 生成AIのアプリケーション化 |
ChatGPTやCopilotの実践テクニック | Azure OpenAIの概要 |
生成AIを使った画像デザイン作成 | Azure OpenAIの社内活用方法 |
AI研究所の生成AIセミナーでは、オリジナル教材「生成AI完全攻略セミナーガイド」をPDFにて配布しています。セミナーの復習はもちろん、参考書のように活用することも可能です。
AIによる偽画像の悪用による被害を防止
今回は、AIによる偽画像の仕組みや技術、企業に及ぼすリスク、企業ができる対策を詳しく解説しました。ディープフェイクの技術は、エンターテイメント業界などでは創造性を広げるツールとして活用されている一方で、悪意を持った人物により個人や企業を騙し、社会を混乱させる目的で利用されるケースも増えています。
AIによる偽画像は社会全体の課題であり、企業単独で解決できる問題ではありません。企業は、自社の取り組みだけでなく、社会全体の動きにも注目し、積極的に関与していくことが求められます。企業側は、AIによる偽画像による被害に遭わないためにもファクトチェックの実施やC2PA提供システムの導入、AIに関するリテラシーの向上などを検討してみてください。