ディープフェイク(Deepfake)とは?特徴や危険性について解説

ディープフェイクという人為的に合成や加工がされた動画が、主にインターネットを通じて多くの人にとって身近なものとなりつつあります。
表現に新たな可能性を与えるディープフェイクですが、実はこの技術によって被害を受けている人も少なくありません。
そこで、この記事ではディープフェイクとはどういった技術なのか、その技術力の高さや仕組みをディープフェイクによってもたらされる危険性や課題とともにご紹介します。

高度な技術で作り込まれた動画「ディープフェイク」とは

ディープフェイクは英語でDeepfakeと表記し、AIを用いた高度な技術によって合成された動画を指します。
ディープフェイクは、人為的に作り出された偽物の動画であることが容易に見分けられないほどの完成度であることが一般的に挙げられる特徴です。
ディープフェイクは使われ始めてまだ間もない言葉であるため、広く知れわたっている定義こそありませんが、その語源は深層学習を意味する「deep learning(ディープラーニング)」と偽物という意味の「fake(フェイク)」を組み合わせたものだと言われています。
この技術は本来映画などに活用する映像技術として開発されたものでしたが、現在は様々な場面で使われるようになっています。

ディープフェイクの作成技術


ディープフェイクを作成する上で欠かせないものが、人工知能であるAIの技術です。
ディープフェイクによくある例として、ある人物の顔を違う人物の顔にすり替えるという動画があります。
このような動画を作成する際、ただ単に顔の静止画を切り抜いて動画に当てはめるといった従来でも可能だった方法を用いると、映っている人の表情の変化が乏しかったり、または表情に変化がまったくなかったりして動画は不自然な仕上がりになってしまいます。

AIを活用したディープラーニング

そこで、動画の元になる人物の顔を数万点に及ぶパーツに分け、その1つ1つに対してAIを活用したディープラーニングという手法を使用します。
AIに膨大な量の表情の変化に関する情報を覚え込ませることで、動画に映る人物の顔をすり替えても、元の人物の表情に合わせてすり替えた後の人物の表情を自然に動かすことが可能になります。
まるで最初からその人物が映っていたかのように顔のパーツが自在に動き、表情を作り出すため、何も知らない人がその動画を見ても、それが人為的に加工された動画だと気づく可能性は低くなります。
ディープフェイクが世に初めて登場したのは2017年だと言われています。
インターネット上に、ディープフェイクによって顔をすり替えられた有名人のポルノ動画が登場し、話題となったのが始まりでした。
その後、ディープフェイクを作成するためのコードを共有するプラットフォームが一般に公開され、誰でもその技術やノウハウを習得できるようになり、ディープフェイク動画が一斉にインターネット上へとアップされるようになっていきました。

ディープフェイクのポルノ分野への転用

高度な技術を駆使して作成されるディープフェイクは、本来映像による表現をさらに自由に、そして自在なものとするための有意義な技術であるはずでした。
しかし、ディープフェイクが誰でも簡単に作成できるアプリやソフトが多数作り出され、そうしたものを利用し、ポルノ動画に技術を転用する人も増えています。
ディープフェイクの技術をポルノ動画に利用することで、アイドルや女優などの有名人の顔を利用したポルノ動画が多く作られているという実情があります。
アイドルや女優など加工動画に映る人の名前に引用する、割り当てるといった意味合いを持つ「quot」というタグをつけ、その人物を利用したディープフェイクをまとめている事例もあるほどです。
ディープフェイクであることを理解していない人がそうしたポルノ動画を見た際、それが偽物であることが判断できないということを問題視する人もいます。
また、そのポルノ動画がディープフェイクであることがわかっていたとしても、必要な許可がないままに作成された動画であれば、女性の人権を著しく侵害することに変わりありません。
アメリカでは、ディープフェイクをポルノ動画に転用し映像を配布することを違法とする地域も出てきています。

ディープフェイクの危険性


ディープフェイクがもたらす危険性は、ポルノ動画だけに留まりません。
ディープフェイクが政治的な影響力を持つ人物に対して使われると、その人物が持つ本来の考えや意見とは異なった主張が広く伝わってしまう動画が作成される危険性もあるのです。
一方、様々な権力を持つ人物が人権侵害や汚職などを犯した際、その事実を追及するための証拠となるはずの動画を単なるディープフェイクだとすることで、自分にとって都合の悪い事実をなかったことにする逃げ道にされてしまう可能性もあります。
このように、ディープフェイクという優れた技術が本来の目的とは違う使われ方をすることで、事の真実や情報の信憑性が揺らいでしまう危険性があります。

悪用されるディープフェイクへの対策

ディープフェイクの技術が向上すると同時に、悪質なディープフェイクを見破るための研究もすでに活発になっています。
アメリカの大学の研究チームでは、いち早くディープフェイクを見破る技術の開発に成功しています。
この研究チームがディープフェイクに対抗するために着目したのが、動画に映る人物のまばたきです。
通常、人間は約2秒に1回のペースでまばたきをしますが、ディープフェイクに映る人物は一般的にまばたきをしません。
ディープフェイクを作成する際、AIがディープラーニングによって膨大な量の表情のデータを記憶しますが、一方でAIが人間の生理学的信号に基づく表情の変化までを完璧に再現することは難しいからです。
つまり、ディープフェイクの元となる動画に映る人物がまばたきをしていても、AIがそれを完全に再現することは一般的に困難です。
そして、そこに注目した研究チームが、AIによって動画上の人物のまばたきがない部分を検出する手法を作り出すことに成功しました。
これからまたこの技術をさらに発展させ、まばたきの頻度やまばたきにかかわる継続時間などといった複雑なデータをAIに習得させ、より巧妙で悪質なディープフェイクにも対抗できる手段にすることを目指しています。

ディープフェイクと表現の自由

ディープフェイクには危険性をはらんだ問題点があることが一般的にも知れわたるようになってきましたが、本来、ディープフェイクは映像技術を革新的に進歩させる手段の1つです。
また、ディープフェイクが必ずしも悪質な使われ方ばかりしているというわけではありません。
そして、高い技術が正しく使われるために、ディープフェイクの使用がどの程度許容され、また規制されるべきかを考えることがこれからの課題だと言えます。
ディープフェイクだけではなく、様々な場面でどこまでを表現の自由として捉えて許容するべきかという難しい判断が迫られています。
表現の自由を守るために、動画加工技術であるディープフェイクを利用することへの規制は限定的であるべきだと考える人も少なくありません。
世界でもディープフェイクに関する法律が整っている地域はまだ少ないため、これからもディープフェイクによって被害を受ける人が多く出てくると予想できます。
そのため、多くの人が自由に表現できると同時に、ディープフェイクを見たくない人も含めた不特定多数の人が知らない間にディープフェイクによって被害を受けることがないようにする、バランスの取れた対策が重要です。

ディープフェイクの技術力と危険性に気をつけて


ディープフェイクは、人為的に加工されていることがわからないほどの映像をAIを活用した技術によって作り出す手法です。
ディープフェイクは映像技術の発達に大きく貢献すると同時に、その巧妙さゆえの危険性が問題視されることも少なくありません。
ディープフェイクのポルノ分野への転用や人権侵害、情報の悪質な操作など今後もディープフェイクを映像表現として活用するための対策が必要になるでしょう。

最新情報をチェックしよう!