2024年度から、インターネット上の偽情報対策が大きく前進する見込みです。総務省は、生成AIを使った偽情報判別技術の実用化支援を始めることを発表しました。
近年、ネット上では住宅が水没した災害時の偽画像や、著名人になりすました投資詐欺広告など、巧妙な偽情報が拡散し、トラブルになっています。さらに、政治家になりすました偽動画も登場し、人々の不安を煽るなど深刻な影響を与えています。
このような状況を受け、総務省は、画像・音声などの加工の有無やコンテンツの信頼性を判断できる技術の確立し、実用化の支援に乗り出すことになったようです。今回は、AIによる偽情報に用いられる技術や潜むリスク、だまされないポイントを解説します。
AIによる偽情報とは?
AIによる偽情報とは、生成AIを使って本物のような画像やニュース、Webサイトなどを作り出す誤った情報のことです。ディープフェイクとも呼ばれ、機械学習の「ディープラーニング」と偽物を意味する「フェイク」を組み合わせた造語です。
生成AIは専門知識がなくても簡単に作成できる上に、驚くほど精巧な画像や動画が作成できます。そのため、本人が発言しているかのようにリアルで、真実と虚偽の境界線を曖昧にします。
悪用されるとSNSなどであっという間に拡散され、多くの人々を混乱させる恐れがあるのです。
AIの偽情報に用いられる技術
AIの偽情報に用いられる技術には、どのようなものがあるのでしょうか。ディープフェイクを生み出す最新技術について詳しく解説します。
GAN(敵対的生成ネットワーク)
GAN(敵対的生成ネットワーク)は、Generative Adversarial Networkの略で、偽情報の作成に特に悪用されやすいAIアルゴリズムの一つです。GANは以下の2つのニューラルネットワークで構成されています。
生成ネットワーク(Generator) | ランダムなノイズを入力して、学習データに似たデータを出力するネットワーク |
識別ネットワーク(Discriminator) | 生成ネットワークが出力したデータと学習データのどちらが本物かを判別するネットワーク |
GANは日本で敵対的生成ネットワークと呼ばれており、データから特徴を学習し、擬似的なデータを生成することができます。例えば、画質の低い画像データから画質の高いデータにすることやテキストから画像の変換、画像とテキストの合成など様々な種類のデータを生成することが可能です。
敵対的逆強化学習
敵対的逆強化学習は、2つのAIエージェントが互いに競い合いながら学習する手法です。強化学習とGANの考え方を融合させたもので、攻撃者となるAIエージェントは、偽情報を生成し、もう一方の検知者となるAIエージェント(検知者)を騙すことを目標とします。
一方の検知者は、攻撃者によって生成された偽情報を識別することを目標とします。このような仕組みにより、難解な環境下でも的確に行動し学習することが可能です。
AIによる偽情報に潜むリスク
AI技術は社会に良い影響を与えることもあれば、悪い影響を与えることもあります。特に、AIによる偽情報は、様々なリスクをもたらすでしょう。
以下では考えられるリスクを詳しく解説します。
なりすまし動画が作られる
ディープフェイクを用いて、本人の許可なしになりすまし動画が生成される恐れがあります。例えば、なりすまし動画を使って、著名人や政治家の発言を捏造し、人々を騙して政治的な混乱を引き起こす可能性も考えられます。
さらに、本人の名誉毀損や個人情報の漏洩、信用や評判を落とすことにも繋がるでしょう。
フィッシングメールが作られる
進化したAI技術により従来の手法では見抜けなかったような、自然で説得力のあるコンテンツが生成可能になりました。そのため、フィッシングメールの巧妙化が高まっています。
フィッシングメールとは、金融機関やECサイトなどの実在する組織になりすまし、偽のWebサイトなどに誘導して、個人情報や金銭を盗み取る詐欺メールです。フィッシングメールは、「アカウントが不正利用されています」などの不安を煽るような文言で、偽のWebサイトへのリンクをクリックさせようとします。
その後、本物のWebサイトと酷似したデザインの偽サイトに誘導し、ログイン情報やクレジットカード情報をユーザーに入力させようとします。入力された情報は、不正アクセスや金銭の窃取などの犯罪目的に悪用されるのです。
サイバー攻撃に利用される
AIを用いてユーザーや組織を分析し、効果的なサイバー攻撃を仕掛けることができます。例えば、SNS上の情報や過去の行動履歴などを分析し、ユーザーの脆弱性を把握したり、関心のある話題を巧みに利用した巧妙なメッセージを作成したりすることが可能です。
サイバー攻撃は様々な種類があり、目的も様々あります。代表的なサイバー攻撃としては、以下のようなものがあります。
- 不正アクセス
- 情報漏洩
- ランサムウェア攻撃
- マルウェア感染
- DDoS攻撃
AIによる偽情報が悪用された事例
AIによる偽情報は、あたかも真実のように巧妙化しており、社会不安を招きかねない社会問題となっています。偽情報はAI技術の飛躍的な進歩により騙しやすくなり、個人や社会にとって深刻な脅威です。
以下で実際にAIによる偽情報が悪用された事例を解説します。
民主党予備選の投票妨害
2024年1月に、米ニューハンプシャー州でバイデン大統領に似た音声を使い、民主党予備選の投票を妨害する行為があったと報道されました。調査によると音声は、生成AIで作られたディープフェイクとみられており、有権者に投票を控えるよう促していたようです。
大統領報道官は後日の記者会見で、偽物だったということを述べました。
大統領のスピーチ動画
2022年3月には、ウクライナのゼレンスキー大統領のディープフェイクが国民にロシア軍への抵抗をやめるよう呼びかける動画がフェイスブックに投稿されました。ゼレンスキー大統領は、動画内でウクライナ側に投降を呼びかける、実在しない声明を読んでいたようです。
偽動画はSNSでも共有されましたが、フェイスブックを運営する米メタが利用規約に基づき、動画を削除しました。
AIによる偽情報がもたらすメリット
AIによるディープフェイクは人々の不安をあおり、社会を混乱させる力を持っています。しかし、一方でAIによる偽情報は、これまで不可能だった新しい表現を生み出す可能性もあり、必ずしも悪い面だけとは限りません。以下でAIによる偽情報がもたらすメリットを解説します。
歴史上の人物や架空のキャラクターが再現できる
AI技術により、歴史上の人物や架空のキャラクターを再現することで、教育分野や創作活動の幅を広げたりすることが可能になります。従来、既存のキャラクターを使用するには、権利者からの許可が必要でした。
しかし、ディープフェイク技術を使えば、AIにより全く新しい架空キャラクターを生み出すことができるのです。つまり、著作権や使用料を気にせず、思い通りのキャラクターを低コストで登場させることが可能になります。
CG技術では難しい表現ができる
AIはこれまで不可能だった新しい表現や体験を生み出す可能性を秘めています。例えば、従来のCGでは難しかった微妙な表情や感情の変化を自然に表現することができるでしょう。
まるで本物の人間が演じているかのようなリアルさで、視聴者を物語に引き込みます。また、複雑な動きやアクション、幻想的な世界や生物などもリアルに表現し、視聴者に深い没入感を与えることが可能です。
そのため、エンターテイメント作品はもちろん、教育コンテンツなど、様々な分野で幅広い表現を可能とする可能性を秘めています。
制作スケジュールの短縮ができる
従来の映像制作では、俳優やスタッフを実際に集めて撮影を行う必要がありました。しかし、AIによる偽情報を使えば俳優を実際に雇うことなく、人物像を生成することができます。
また、俳優が急な体調不良などで撮影できなくなった時や危険なシーンを撮影する時も映画制作することが可能です。そのため、撮影時間や場所の制約がなくなり、制作の効率化が大幅に実現できるでしょう。
AIの偽情報にだまされないためのポイント
AI技術の進化により、偽情報の見極めがより難しくなっています。偽情報にだまされないためにはどのような対策を取れば良いのでしょうか。以下では、AIの偽情報にだまされないためのポイントを解説します。
ツールで判定する
AIによる偽情報は従来の目視での判別が難しく、多くの人が騙されてしまうケースが増加しています。そのため、AIで作られた情報かどうかを判断するためにツールを使って判別することが有効です。
検出ツールにはいくつかの種類がありますが、代表的なツールは以下の通りです。
AI検出ツール | 特徴 |
WeVerify | AIと人間の力を融合させたSNSなどのコンテンツ検証と偽情報分析 |
Microsoft 認証ツール | 静止画像や動画を分析し改ざんやディープフェイクを暴き出す |
Sentinel | 国家、防衛機関、企業などが使うディープフェイク検出フォーム |
情報の出どころを確認する
AIの偽情報にだまされないためには、情報の真偽を判断することが重要です。まず情報源の信頼性を徹底的に調査する必要があります。以下の点に注意して確認しましょう。
- 発信者
- 情報の裏付けとなるデータや出典
- 信頼できるメディアからの情報か(公式サイトからの情報)
- 公式の問い合わせ窓口に確認
また、情報源はその分野の専門家なのか、専門的な知識を持っているのかを複数の情報源で確認することが重要です。
脆弱性に対する対策をする
ITシステムの脆弱性管理を怠ると悪意を持った第三者によって悪用され、情報漏洩やシステム障害などの被害につながる可能性があります。例えば、ディープフェイクにより「御社のパスワードを確認する必要がある」とシステム担当者の声で電話がかかってきた場合は、不正アクセスや情報漏洩などに悪用される恐れがあるでしょう。
AI技術は現在も進化途中の段階のため、欠点も存在します。そのため、最新バージョンへのアップデートや脆弱性診断、 IDS/IPSなどでセキュリティ意識を常に高めておくことが重要です。
社内のセキュリティに関するリテラシーを高める
AIの偽情報から社内を守るために、社員のセキュリティリテラシーを高めることも重要です。AIによる偽情報の脅威に対する意識を高め、適切な判断と行動ができるよう、社員へのパスワード管理、情報共有のルール、フィッシング詐欺対策などのセキュリティ教育を徹底します。
社内研修や情報共有ポータル、e-ラーニング教材などで社員のセキュリティーに関する知識を深め、社内情報や顧客情報の取り扱いの明確なルールを定め、社員に周知徹底することが大切です。
AIによる偽情報のリスクを理解して活用しよう
今回は、AIによる偽情報に用いられる技術や潜むリスク、だまされないポイントを解説しました。AIによる偽情報は、人間の目を欺くほど精巧に作られ、一見すると本物と見分けがつかず、専門家ですら騙されてしまうこともあるのです。
万が一、間違った情報を信じてしまった場合は、社会的な信用を失ったり、経済的な損失を被ったり、最悪の場合は命に関わる事態に発展する可能性もあるでしょう。AIの偽情報から身を守るには、情報の真偽を判断し、一人ひとりが情報リテラシーを高めて常に警戒を怠らないことが大切です。
また、企業では脆弱性に対する対策を行い、社員のセキュリティーに関する知識を深め、社内全体でセキュリティ意識を高めておくことが重要です。真の情報を見極め、安全な情報環境を築いていきましょう。