フェイク動画「復元」、政治家や芸能人の被害防ぐ…国立情報学研が開発

 人工知能(AI)で作成された偽動画「ディープフェイク」を見破ったうえで元の動画に戻す手法を開発したと、文部科学省が所管する国立情報学研究所のチームが明らかにした。社会的な問題となっている偽動画の悪用防止につながる成果で、公的機関や芸能人の動画での活用を想定しているという。

 ディープフェイクは、動画に登場する人の顔を別人にすげ替え、表情を合成する技術。近年、ネット上のアプリなどを使えば比較的簡単に作成できるようになり、政治家や芸能人の偽動画が悪用されるケースが目立つ。

 チームは、人の顔の特徴に関する識別情報を、目には見えない形で動画内に埋め込む手法を開発した。また、その顔が別人に置き換えられても、動画内に残った情報を手がかりに元の顔に戻せるAIを作成した。

 実際、チームがこの処理をあらかじめ施した約200の偽動画で検証したところ、ほとんどの偽動画を高精度で復元することに成功したという。チームを率いる越前功・同研究所教授(情報セキュリティー)は「病気に備えあらかじめ接種するワクチンのように、偽動画の悪用を防ぐ『サイバーワクチン』として利用できる」と話している。

 ただ、動画内で人が正面を向いていなかったり、画面が暗かったりすると、うまく復元できないなどの課題もあり、現在、精度を高める改良を進めている。将来的には、企業などからの要望に応じて、技術の提供も検討する方針だ。

 総務省によると、2020年末時点で、インターネット上に検出された偽動画は約8万5000件に上る。24年の米大統領選に向けても、共和党の指名候補を争うトランプ前大統領やフロリダ州のロン・デサンティス知事の両陣営が、有権者の印象を操作するための偽動画をSNS上に投稿するなどして議論を呼んだ。

 偽動画の作成技術も高まっており、動画の不自然な部分から偽造を検知することが難しくなっているのが実情だ。日本政府も科学研究費助成事業(科研費)などを通じ、大学や研究機関による偽動画の検知技術の高度化などを支援している。

 ディープフェイク研究に詳しい山崎俊彦・東京大教授の話「偽動画の悪用への抑止力となる成果だ。動画に埋め込む情報を複雑化すれば、安全性がさらに高くなるだろう」
https://news.yahoo.co.jp/articles/cae98ccbe83db5f60aee0207e76bf5bd7d1325ed