-
1. 匿名 2023/08/05(土) 17:47:25
なりすまし詐欺は昔からありましたが、従来は人の悲鳴を録音したものを使っていました。しかし、近年では、AIで声を真似るようになり、見破ることが難しくなってきています。
家族の苦痛に満ちた声を聞かされてしまうと、詐欺であることを疑うことが難しくなります。実際、911に通報した人はデステファノ氏に偽装誘拐だと伝えたのですが、デステファノ氏はブリアナが泣いているんだと聞く耳を持ちませんでした。
FBIは、今回の偽装誘拐事件もAIによるクローン音声が使われたと見ています。クローン音声を作るには本人の音声データが必要ですが、わずか数秒から1分ほどで十分とされるケースも出ています。こうなると、例えば詐欺師が電話をかけて黙っていれば、「もしもし?」などと言ってくるので、それを録音するだけで済みます。もしくは、SNSで公開している動画から音声を抜き出す手もあります。
(略)
日本では誘拐と言われても現実味がありませんが、例えば事故を起こした、会社に損害を与えた、PCを壊した、といった理由で、とりあえず100万円貸してくれ、といったオレオレ詐欺にAIでクローンした音声が使われる可能性はあります。+25
-19
-
2. 匿名 2023/08/05(土) 17:47:54
ならその娘を逮捕しよう+2
-24
-
3. 匿名 2023/08/05(土) 17:48:13
恐ろしく+16
-0
-
4. 匿名 2023/08/05(土) 17:48:17
ディープフェイクはAI時代の課題だよね
逆にアナログ最強になりそう+190
-1
-
5. 匿名 2023/08/05(土) 17:48:37
完全にビカムヒューマンの世界じゃん+8
-0
-
6. 匿名 2023/08/05(土) 17:48:52
こういう偽装誘拐とか証拠の偽装ってどういう罪になるんだろう+6
-0
-
7. 匿名 2023/08/05(土) 17:49:02
コンピュータはとても便利だけどね
いい加減に使い方を考えて規制しないとね
+73
-0
-
8. 匿名 2023/08/05(土) 17:49:17
これからこういう犯罪増えるよ
AIオレオレ詐欺とかさ+109
-0
-
9. 匿名 2023/08/05(土) 17:49:19
悪質だねぇ。+18
-0
-
10. 匿名 2023/08/05(土) 17:50:21
>>8
AIオレオレはもう報告なかったっけ?波長学習して声変えるやつ+23
-0
-
11. 匿名 2023/08/05(土) 17:50:22
ズル賢い人間だけが生き残れる時代か+0
-0
-
12. 匿名 2023/08/05(土) 17:50:23
>>1
日本では誘拐と言われても現実味がありませんが
↑
これ
何言ってんの?
日本でも普通に誘拐事件たくさんあるがな+78
-4
-
13. 匿名 2023/08/05(土) 17:50:30
ひえー
合言葉設定しようよ+22
-0
-
14. 匿名 2023/08/05(土) 17:51:45
>>2
なんで?+9
-0
-
15. 匿名 2023/08/05(土) 17:51:58
未来に人類はどうなってんだろね。+5
-0
-
16. 匿名 2023/08/05(土) 17:52:59
>>8
本当の息子から金せびる電話来てもシカトだよ、AI詐欺が流行ったって動じないわ+60
-0
-
17. 匿名 2023/08/05(土) 17:55:41
今やってるCODEってドラマみたい
+3
-0
-
18. 匿名 2023/08/05(土) 17:55:46
芸能人の声や表情は学習させやすいから、AIロマンス詐欺は絶対に出てくると思う
男女ともかなり被害出そう+23
-0
-
19. 匿名 2023/08/05(土) 17:57:02
クロネコの宅急便さんのオペレーターがAIだった
もう普通に若い女性の声。はい、いいえを聞き分けて質問進めてくるの
ちょっとややこしい案件だったんで、すぐに生身の人間に変わったけど、あれで身内の声を真似されたら分からないなぁ
+25
-0
-
20. 匿名 2023/08/05(土) 17:57:23
悪いやつらばかりに使われるんじゃなくて警察もAIで騙して犯人捕まえようよ+6
-0
-
21. 匿名 2023/08/05(土) 17:59:00
>>2
2コメ争奪おばさん意味が分からないよ+4
-0
-
22. 匿名 2023/08/05(土) 17:59:08
声優さんもいらない世界かー+3
-1
-
23. 匿名 2023/08/05(土) 18:02:15
自身が出演する動画アップしてると色々盗られて悪用されるようになるって事か。。。怖いな。
+4
-0
-
24. 匿名 2023/08/05(土) 18:02:47
>>22
声関連、画像関連の新しい権利や法律ができる気はする。死後もあの人の声や絵を、という需要は一定数あって、数年前に美空ひばりもAI再現してたしさ。生前に本人が同意すればどうこうってなっていくんじゃないかな+3
-0
-
25. 匿名 2023/08/05(土) 18:03:55
日頃から連絡をマメに取り合える環境を作っておかなきゃならないのかもね。
すぐ無事を確認できるように。
今はまだ疑う能力残ってるけど年齢いったらこう言う詐欺に騙されないっていう自信がないなあ。
孫の声とか真似されたら騙されそうで怖い。+2
-0
-
26. 匿名 2023/08/05(土) 18:04:12
>>22
ちょっと昔にYouTubeで
大沢たか◯さんの音声で官能小説読ませるのあって面白かったな(笑)
あんなことやる人がたくさん出てきそう…
+0
-0
-
27. 匿名 2023/08/05(土) 18:06:44
>>22
藤田咲さん、もっとギャラ貰ってもいいと思う。+1
-0
-
28. 匿名 2023/08/05(土) 18:07:30
>>22
まだラグがありそう+0
-1
-
29. 匿名 2023/08/05(土) 18:08:33
>>2
落ち着いてもう一度読んでみて。+7
-0
-
30. 匿名 2023/08/05(土) 18:10:03
何を信じたらいいのかわからない時代が到来+3
-0
-
31. 匿名 2023/08/05(土) 18:24:24
これ本当にオレオレ詐欺とかに使い放題だと思った。
この前ちさこ一茂良純の番組でやってたけど、こんなんが普通に使えるようになったら動画の発言や電話だって何も信用できなくなる。
+7
-0
-
32. 匿名 2023/08/05(土) 18:25:51
>>26
タカオに許可取ってるのかね?
声も肖像権みたいので守られないといけない時代か+7
-0
-
33. 匿名 2023/08/05(土) 18:29:19
>>1
とにかく本人と連絡とって確認するしかないよね
オレオレ詐欺もこわいけど、ルフィ事件みたいな勝手に目を付けられて家に押し入られて殴られてお金取られるのが怖いわ+1
-0
-
34. 匿名 2023/08/05(土) 18:34:43
>>8
家族で合言葉決めとこうかねぇ+2
-0
-
35. 匿名 2023/08/05(土) 18:38:53
昔 姉が陣痛がきて病院に電話しようとしたタイミングで詐欺電話イライラがピークになり
詐欺でしか稼げないゴミが生きてんじゃねーよ
と怒鳴ったら
「私たちだって生きるしかくがあるんです
ひどすぎませんかって」逆ギレされた事がある
+7
-0
-
36. 匿名 2023/08/05(土) 18:39:58
>>8
以前、息子の好きなプリキュアの質問をして、オレオレ詐欺師を撃退した人の話があったよね
いくら声を真似ようとも、自分の子どもでなければ答えられない特殊な質問攻めにして、確かめるしかないね
うちだったらアレだなっていうのを、あらかじめ考えておくようにする
パニックになっていたら思い付かないかも+11
-0
-
37. 匿名 2023/08/05(土) 18:40:00
非常時に叫ぶ
家族にしかわからない暗号というかセリフを事前に決めておくしかないね+1
-0
-
38. 匿名 2023/08/05(土) 18:42:25
>>1
困るよねぇ。AIだと思い込んで実は本物だったとかなったら取り返し付かないし···歌わせればAIかどうか見破れるって言われてるけど誘拐とか緊迫した場面でそんな悠長な心理状態にならないし···AI音声かどうかを判別する装置が開発されればバカ売れしそう。+1
-0
-
39. 匿名 2023/08/05(土) 18:43:27
テスト問題を出す
答えられたらどっちかな?+1
-0
-
40. 匿名 2023/08/05(土) 18:45:29
>>35
とりあえずタイミング悪いよねw+8
-0
-
41. 匿名 2023/08/05(土) 18:45:57
>>12
沢山…?+5
-1
-
42. 匿名 2023/08/05(土) 18:46:20
>>8
もう出てるよ+0
-0
-
43. 匿名 2023/08/05(土) 18:46:53
>>34
金いるなら家まで頭下げに来いや〜
で解決+4
-0
-
44. 匿名 2023/08/05(土) 18:52:00
>>18
話逸れるけど声優はAIでよくなりそう+0
-1
-
45. 匿名 2023/08/05(土) 18:55:01
動画で流れてきたやつたまたま聞いてたら、ワンピースのルフィが夜に駆ける歌っててびっくりして見て見たらAIで作ったやつだった、凄いな最近のAI。+1
-0
-
46. 匿名 2023/08/05(土) 18:56:01
誰でも有名人になれるね+3
-0
-
47. 匿名 2023/08/05(土) 19:05:46
>>16
そんなぁ😭www+2
-0
-
48. 匿名 2023/08/05(土) 19:09:21
>>35
詐欺師が一丁前の口効く価値ないね+12
-0
-
49. 匿名 2023/08/05(土) 19:10:43
子供本人が目の前で土下座でもしない限り
金なんぞ渡さないわ。+2
-0
-
50. 匿名 2023/08/05(土) 19:25:39
>>1
これでしょ
だいぶ前に見て恐ろしいと思った
個人情報だだ漏れしてる日本
そのうちやられまくるよ
+4
-0
-
51. 匿名 2023/08/05(土) 20:06:58
>>1
声優の仕事が奪われる+2
-0
-
52. 匿名 2023/08/05(土) 20:19:20
>>21
がるお+0
-1
-
53. 匿名 2023/08/05(土) 20:19:45
>>7
もう無理止まらんよ+0
-0
-
54. 匿名 2023/08/05(土) 20:24:46
>>2
こういう記事もろくに読まずに頓珍漢なコメントする人こそ、AI詐欺やオレオレ詐欺に簡単に引っ掛かりそう…+6
-0
-
55. 匿名 2023/08/06(日) 00:38:06
>>1
AIによるクローン音声が実現ってニュース見た時にこういうの出てくるだろうねって家族で話してたけど、思いの外実例出てくるのが早かった+1
-0
-
56. 匿名 2023/08/06(日) 13:43:07
>>21
どう見てもおじさんのコメントで草+0
-0
コメントを投稿する
トピック投稿後31日を過ぎると、コメント投稿ができなくなります。削除すべき不適切なコメントとして通報しますか?
いいえ
通報する
AIによるクローン音声を使った偽装誘拐についてCNNが報じました 今回は、アメリカで報じられた事件…