犯罪分子正在利用人工智能生成的照片和视频进行诈骗,以勒索赎金,联邦调查局在周五发出警告。
整体情况:与人工智能相关的诈骗,包括广泛使用的声音克隆工具和越来越逼真的人工智能生成的图片与视频,让人们在真实和虚假之间的界限变得模糊,变得更加脆弱。
运作方式: 在这些诈骗中,FBI表示,罪犯向受害者发送短信,声称绑架了他们的亲人,并索要赎金。如果赎金没及时支付,他们通常会升级暴力威胁。
- 当受害者要求提供证据时,骗子会发送看似真实的所爱的人照片或视频,有时还会利用定时消息功能,给接收者留有限的时间仔细审查。
是的,但是值得注意的是:仔细一看,很多 AI 生成的照片和视频其实都有一些不准确的地方。
- 联邦调查局表示,受害者应寻找缺失的纹身或伤疤和身体比例不准确。
从数据来看:根据Entrust网络安全研究所的研究,2024年全球每五分钟就会发生一次深度伪造攻击,而数字文件伪造相比去年增长了244%。
- 根据德勤金融服务中心的预测,预计到2027年,美国因这种欺诈造成的损失将达到400亿美元。
提示:任何怀疑自己遭遇人工智能诈骗的人在同意任何条款或付款之前,应该先联系亲人。和家人或朋友约定一个安全词也能帮助区分真实和虚假的信息。
- 该机构指出,罪犯会迅速行动来制造恐慌,所以我们要停下来,问问绑架者的说法到底靠不靠谱。
热门跟贴