2019年、一発目の投稿となります。
本年もどうぞよろしくお願い致します!


さて、近年はテクノロジーに犯罪対策は付きものとなっています。
音声分野も例外ではなく、自動音声を利用した詐欺なんかも発生しているようです。

参考:
https://jp.techcrunch.com/2019/01/05/2019-01-04-new-apple-voice-phishing-scam-looks-just-like-a-real-support-call/


声質変換技術の説明をした際に、一番良く言われることは、
「オレオレ詐欺が蔓延りそう」です。

ちなみに、2018年の振り込め詐欺(いわゆるオレオレ詐欺以外も含む)の被害件数は、なんと13,000件にのぼるそうです。
被害額だと、286億円。
認知件数だけでこの数字なので、気付かれていないものも含めると、その数倍になりそうですね。
改めて、凄い数字だと思います。

参考:
https://www.npa.go.jp/safetylife/seianki31/higaijoukyou.html


たしかに、声質変換技術で声色を真似することができるようになると、簡単に息子や娘の真似ができるようになるかもしれません。
ただ、オレオレ詐欺に利用するためには、本人の声データを取得する必要があります。
ここからは個人的な見解ですが、数打ちゃ当たる戦法のオレオレ詐欺には、声質変換は向かないと思います。
現状の技術レベルでは、不自然さが増しますし、声を変える手間も増えます。技術レベルが向上したとしても、せいぜい今までのボイスチェンジャーより自然に声が変えられるという程度ででしょうか。

逆に、声質変換の基となる音声技術を利用して、オレオレ詐欺を見破ることに利用できるかもしれません。
特有の喋り方、抑揚の付け方、声色の使い方等で詐欺を検知できるようになると、被害撲滅につながるのではないでしょうか。


声質変換で気をつけるべきは、イタズラ等に利用されることかと思います。
海外で、声質変換技術を利用してオバマ大統領が話しているかのような動画が制作されていました。
このように、本人が知らないところで好き勝手に声を利用されてフェイクニュースが増えるかもしれません。

当社としても、もちろん対策は考えています。
GoogleのDuplexでも、あまりに自然なので、「人工知能と名乗らせろ」という声が挙がりましたが、声質変換も同様に、変換された声であることがわかるような仕組みは検討中です。


どんなテクノロジーでも同じですが、ある程度は使う側の良心に依存してしまうものかなと思います。
包丁も同じで、使う人によっては凶器となり得ます。
もちろん提供する側として最大限の対策はしますが、テクノロジーが正しく利用される世の中であって欲しいものです。


株式会社voiceware
代表取締役社長 田村一起
http://voiceware.co.jp