フェイク画像で以前よく、行われていたのは、アイドルコラージュ。
ディープフェイクはこれの動画版です。
しかしながら人間の顔認識機能は高いので人工的な動きのわずかな不自然さも見抜いてしまうため、CGでの顔動画は不自然さが出て映画では使えませんでした。このため、ハリウッド映画の特撮でCGを使用する場合でも、顔だけは実物の顔動画を使用してCGと合成するようにしていました。
ところが数年前に、ディープフェイスという名前で有名女優の顔をAV女優の顔に挿げ替えた動画をアップして注目されました。本物かどうかを見分けるのが困難なぐらいのハイクオリティーの動画をハリウッドの専門家が非常に高価な機械を使って作ったのではなく、アマチュアの趣味的な動画で実現できるたことが驚きでした。
その後、他方から同じような動画が出回りましたが、このような動画はディープフェイクと呼ばれるようになりました。
ディープフェイクはAIのディープラーニングという機能で作られます。
オランダのセキュリティー会社の調査によれば2019年9月の時点で14679件のディープフェイク動画が出回っていたそうですが、2018年の調査から略々倍増していると言うことです。
ディープフェイクはAIの進化と画像チップの処理能力の向上により可能になったと言うことです。
2019年に英国でエネルギー関連企業のCEOの声をAIで再現し、子会社に電話で送金を指示し約2600万円をだまし取るという詐欺事件が発生し、2018年のインドでは政権に批判的な女性ジャーナリストのアダルト的な内容のディープフェイクが拡散しました。
最近では、英国首相のディープフェイク動画の動画のクォリティーの高さが注目されました。
当初は、ハリウッド女優のスカーレットヨハンソンさんや、エマワトソンさんなどがディープフェイクの標的になっていましたが、最近では、一般人も標的になってリベンジポルノの対象になったりということも技術的には可能であるとのこと。
SNSに上がっている写真や動画を使ってディープフェイクを作ってしまうと言うことも可能になって来ている。
ディープフェイクがはびこることが当たり前になって来ると、映像の信頼性が揺らぎ、映像証拠としての価値も揺らいでくる。
犯罪に利用、冤罪が生じる、顔認証を突破する技術が登場して生体認証突破などが起きる心配もあります。
もっとも、現状ではiphoneに使用されているappleの顔認証技術は、本人の顔以外では、本人の平面的な顔写真でも突破することはできないそうですので、顔認証技術の方がまだディープフェイスより勝っているといえます。