【悲報】AIの悪用始まる。3秒で作った他人の音声で通話し金を毟り取る詐欺が横行。通話に合言葉が必須の時代到来か [483862913]
■ このスレッドは過去ログ倉庫に格納されています
10人に1人が被害に。AIを悪用した音声詐欺が世界で増加、身を守るには
5/17(水) 15:14配信
(株)マカフィーは、AI(人工知能)を悪用した音声詐欺が世界で増加中であり、
成人の10人に1人が被害に遭遇しているとの調査結果を発表した。
これは、同社が日本を含む世界7か国(日本、米国、英国、ドイツ、フランス、インド、オーストラリア)を対象に実施した、
AIを悪用したオンライン音声詐欺の現状に関するレポート「The Artificial Imposter」に基づくもの。
上記7か国の18歳以上の成人7,054人を対象に調査を行ったところ、10%が自身がAI音声詐欺に遭遇、15%が知人が遭遇したとの回答があったという。
さらに、被害者の77%が実際に金銭被害にあったと回答している。
なお、日本のオンライン音声詐欺の遭遇率は世界7か国で最も低くなっており、自身が遭遇は3%、知人が遭遇は5%と、世界平均の約3分の1に留まった。
人の声(声紋)は、いまや非常に高精度な個人認識が可能だが、調査対象となった世界の成人の過半数が週に1回以上、
全体の10%は週に5回以上、自身の音声データをオンラインで共有している。
この声がサイバー犯罪者に狙われて、コピー・悪用される格好の材料となっている。
同社の調べによれば、詐欺師はAI技術を使って声のクローンを作り、困窮を偽ったボイスメールを送ったり、
被害者の連絡先に電話をかけていることが明らかになっている。また、クローン音声と本物の識別については、
「識別できるかどうかわからない(35%)」または「識別できないと思う(35%)」として、
およそ70%の回答者が自信がないと答えており、音声クローニングによる詐欺が勢いを増す要因にもなっているという。
さらに今回の調査では、ディープフェイクや偽情報が増加することで、オンラインで目にする情報に対してより警戒心が高まっているということも判明。
成人の実に32%が、以前よりもソーシャルメディアに対する信頼度が下がったと回答した。
https://news.yahoo.co.jp/articles/419c16eba481169a76f5c44b79e740a4ab3072cb
なお、日本の音声データのオンライン共有についてもまた世界7か国で最も低く、週1回以上の共有が28%、
週に5回以上は5%で、世界平均の半分ほど。オンライン共有をあまり行わないことも、
オンライン音声詐欺の遭遇率の低さにつながっているとも考えられる。
とはいえ、“音声クローンが3秒で作成できる” という今、日本においても注意が必要と同社は呼びかける。
では、AIを悪用した音声クローニングの詐欺から身を守るにはどのような方法があるのかだが、
マカフィーはまず、家族や信頼できる親しい友人との間でのみ通用する「パスワード(合言葉)」の共有を推奨。
特に、高齢者や、家族、友人が電話や電子メールで助けを求めてくる際は「相手にパスワード(合言葉)を求めることを
習慣づけるようにしましょう」とアドバイスしている。
また、根本的に発信者への疑念を抱くことも大切だとする。知らない発信者からの電話やテキスト、電子メールのみならず、
見覚えのある番号からの発信であっても、送金など詐欺に類する行為を求めてくる場合には、
「一呼吸置き、電話を切る、相手に直接電話をかけ直すか、情報を確認してから応答する」などを心掛けるように勧めている。
ほか、ソーシャルメディアネットワークに参加している場合、自分のアイデンティティを共有するほど
自身のアイデンティティが悪意のある目的でクローン化される危険性が高まるとして、クリックやシェアは慎重に行うよう忠告。
個人を特定できる情報にアクセスできない設定を行ったり、個人情報がダークウェブに流出した場合に通知を受ける設定を行うなどして、
サイバー犯罪者が自分のクローンを作成できないように個人情報の管理に努めるといった方法を紹介している。
マカフィー 日本・アジア地域チャネルマーケティング本部長の青木大知氏は、次のようにコメントを寄せている。
「AIは私たちのビジネスで素晴らしい機会をもたらしたり、生活を便利にしたりしますが、
悪用されるリスクもはらんでいます。日本は他国に比べ、音声データのオンライン共有率が低く、
結果的にAIを悪用した音声詐欺の遭遇率も低い傾向にありますが、この現状はむしろ、
今後、音声詐欺に遭遇する可能性が高いとも受け取ることができます。McAfee Labsの調査で、
AIボイスクローニングツールを利用して、わずか3秒で85%の一致率を有する音声クローンを作成できることが分かりました。
このようなAIを悪用した音声クローニング詐欺が横行しやすい現状を認識し、自分のアイデンティティの共有に慎重になるとともに、
音声詐欺の遭遇に備えた準備が必要です」
https://news.yahoo.co.jp/articles/419c16eba481169a76f5c44b79e740a4ab3072cb AIイラストのボイス版であるRVCがあるからな
音声を学習させたモデル使えばリアルタイムで声変えれる
リアル蝶ネクタイ変声期みたいなやつな
だからこうした詐欺が出てくるわけだ >>4
ちょっと調べりゃ自分で簡単に学習できるしな タマトイズのHP見てたらAIに学習させて設計したとかいうオナホがあった 例えば好きなセー優さんにおまんこおまんこ言わせられるの?
最高やん あー
そういや、妙な営業電話掛かって来たんだけどこれかなー
礼儀がなってないから怪しい感じだったんだけど
わざと横柄に対応したら、なんか向こうがキレてさいならーみたいな感じで
チンピラみたいな短気っぽさで凄い怪しかったわ >>16
今ですらそれやれてる
通常声ならわからん おれおれ、ゆうすけだけど、今かばん失くしちゃって
お金補填できないと会社クビになっちゃうんだよ こんなAI今からでも一般公開禁止にしろよ
なりすまし犯罪や人の声勝手に使ってフリーライダーが小銭稼ぎするか
声優やアナウンサーを失業させるくらいの使い道しかないだろ
誰も不幸にならない平和的な利用法がほとんど無い
なんのためのAIなんだよ お兄ちゃんだよ
お兄ちゃん
安倍晋三です
信夫「…」 >>28
馬鹿はお前だろ
このまま放置したらどんどん巧妙化して詐欺だらけになるわ 落ち着けよ
AIは人間が発明した道具で人間が使役するものだぞ AIで情報通信技術はゴミになるので
鉄道飛行機で移動して対面で意思疎通
してくださいwwwwww たかし~? ほんとにたかしか~?
本人ならポケモン全部いえるはず~ AIに電話応対をさせて、詐欺診断させればいいんじゃね? >>8
その声紋データが流出したら大変なことになるな
スマホで指紋も声も虹彩も顔も何もかもすべて吸い取られてるんだろうなぁ やはり古典的な合言葉を通話前に使うのが一番
定期的に変えれば尚良し 祖母「ミニモニ?」
孫「fuckだぴょん!」
祖母「キツメの?」
孫「オメコ!」 >>20
アンタそんなブラック企業辞めちゃいな!! オバマとトランプとバイデンが仲良く会話してるのあってワロタw >>31
反社はいずこから入手して幾らでも悪用するから電話でお金を用立てること自体会社でも家族間ども禁止にすりゃいい 音声とか動画みたいなデジタル素材が改ざん可能になると攻殻機動隊の世界みたいに証拠能力無くなるんやな
SFの世界やん いい加減ネットを使った詐欺は全世界統一で即実刑
最低懲役20年最高死刑くらいにしろよ AIの利用者側の進化に法律が追いついてないし
世界的に規制に偏るのも仕方ないな >>49
これまで以上にフェイクニュースがはびこるだろうし警察が証拠の捏造に使うかもしれん
結構ディストピアな世界 ひろゆいボイスとかあるしな
やろうと思えば色々活用されるな だから先人達が2005年から警鐘鳴らしてただろ
個人情報、個人の物はネットに上げるなと
その忠告を知らず、後からネットに入ってきた陽キャがウェーイって、何でもかんでも上げた結果がこれ
自業自得 >>55
いや、街中で誰かに写真撮られたら終わりだからな ネット犯罪は
いっつも気をつけましょうと言うだけ
警察何やってんの? 未来のネットはai生成された音声映像、記事だらけになってどうしようもない状態になってそうですね 日本が遮断しても悪用は止まらないから
無能池沼警察はとっととネットの知識入れろボケそれとAIの知識も
分からないならAIに助けてもらってええからそれで十分や国策にしろそろそろ仕事しろ!!!! 20年前はロゴのコピペすらできな日本語すらかけないアホの犯罪者放置して完全に負けてAI利用も先越されるとか恥さらしどころか死んだ方がええで 警察が無能で一番被害に合って一番命の危機にさらされて一番困るのは国民やからな!!!!! ■ このスレッドは過去ログ倉庫に格納されています