日: 2021年4月28日

リアルアバターの恐怖

 今回はちょっと趣向を変えてサイバー犯罪に利用されそうな技術の話。
 ちょっと前、オバマ大統領やイギリスの首相の映像を加工して、言っていないことを言わせている映像が話題になりましたが(実験という種明かしはしていた)、これはリアルタイムでやっているのではなく、後で時間と手間を掛けて加工して作られたものでした。他の人が喋っているのを一種のモーションキャプチャで読み取って、その通りにオバマの顔を動かすんですね。

 ただ、どうも今はそれがリアルタイムで出来るようになっているようで、ある研究者がパソコンでそれを実現してしまったようです。

ZoomやSkypeでリアルタイムに他人になりすませるオープンソースのディープフェイクツール「Avatarify」
https://gigazine.net/news/20200417-zoom-skype-avatarify/

 記事の内容が正確だとしたら、以下の映像はその技術を使ってZoomで友人を騙したものです。なんと、テスラのイーロン・マスクに成りすましています(笑)。間違ったZoom会議室に入っちゃった……ごめん、みたいに言ってますね。マスクは割りと無表情な感じだから、余計にリアリティがある。あとネット会議は割りと映像凍ることもあるから。

 これは実験だから良いけど、こんなことが手軽に出来るようになってきたのでは、本当に詐欺などに悪用されると怖いと思う。一種のアバターみたいなもんだから、もう映像で喋っていても相手が本物なのかわからなくなる。今はまだ稚拙な面もありますが、すぐ本物の人間と全く見分けがつかなくなるでしょう。
 相手が男なのか女なのか、若いのか年寄りか、そもそもAIかもしれない。もうこんな時代になっているんですね。
 オレオレ詐欺に悪用されたら、どう防げば良いか…。

 声をリアルタイムに変換することもできますからね。ボイスチェンジャーみたいなもんもあるし、最近ではボカロ技術の応用で、ボカロの声で喋ることができるソフトも出て来ました。自分は試してないので品質はわからないが、これもパソコンで「誰の声でも喋れる」ようになるのは時間の問題でしょう。(低品質のものなら、ワークステーション等でもうあった気がする)

 上手く使えば一人で実写映画が撮れる可能性もあるが、例えば俳優さんを勝手に出演させてしまうことすらできるので……。
 もうネット上の映像や音声は信用できない、という世界が来るかもしれません。
 そんな時、最終的に真実性を担保するのは、信頼できるメディアの報道……ってことになってくる(そうして貰うしかない、心配だが)。あとは刑法を改正してそういう行為に重い刑事罰を科すか。アイコラ画像みたいなのは、ちゃんと取り締まりをやってほぼ公共の場からは絶滅しましたよね。

 なんだかわけのわからないデジタル泥沼みたいなところへ、世界は突っ込もうとしている感じがする(w)。個人番号カードを端末に差し込むと、公的機関が通話画面に認証マークを出すようにしますか? まあそのマークも偽造されますね(汗)。