AIオレオレ詐欺

AIの進歩が進み、 “AIオレオレ詐欺”が世界中で急増しているそうです。

 

アメリカで実際に起きたAI詐欺の実話例があります。

ある日、見知らぬ番号の電話に出ると、助けてと泣き叫ぶ娘の声がし、その直後に誘拐犯から身代金を要求されました。

電話を切った後、パニックになりながらも家族や友人に相談をし、警察に通報、続けて娘に確認の電話をすると本人は自宅にいることが分かり、無事に詐欺事件になることはありませんでした。進化するAI技術により作り出されたAI音声詐欺と判明しました。

 

あるアンケートで、AIによって作られた家族や知人の声を識別できますか?との調査がありました。

できると自信をもっている人は約3割。7割は自信がないと回答したそうです。

 

どうして声だけで見知らぬ個人を特定できるのでしょうか。

どうやらSNSなどの動画から音声を作り、いろいろな手段から連絡先を探し出しているようです。

公開している人は注意をする必要があり、声紋認証にも要注意です。

 

AIのオレオレ詐欺から身を守るには

・事前に家族間で合言葉を決めておく

・固定電話は留守番電話にして知らない番号には出ない

・電話を取ってしまったら、電話を切った後に親族など信頼できる人に電話をして状況確認をする

 

身を守ること事態はこれまでと変わりません。

身代金など要求される電話には慌てず誰かに相談して対処することが大切ですね。