诈骗者正在使用 AI 冒充您的亲人。 这是要注意的事项

2023-04-22 0 706

诈骗者正在使用 AI 冒充您的亲人。 这是要注意的事项

想象一下接到一个电话,说你所爱的人正处于困境中。 在那一刻,你的直觉很可能是做任何事情来帮助他们摆脱危险,包括电汇。

诈骗者意识到了这个致命弱点,现在正在使用 AI 来利用它。

另外:这些专家正在竞相保护 AI 免受黑客攻击。 时间不多了

《华盛顿邮报》的一篇报道讲述了一对老年夫妇 Ruth 和 Greg Card 成为假冒电话诈骗的受害者。

73 岁的露丝接到一个电话,她认为是她的孙子。 他告诉她,她在监狱里,没有钱包或手机,急需现金。 像其他关心此事的祖父母一样,露丝和她的丈夫(75 岁)冲到银行取钱。

到了第二家银行后,银行经理才提醒他们,他们之前也遇到过类似的案例,结果是骗局——而这家很可能也是骗局。

这个骗局不是孤立事件。 该报告指出,到 2022 年,冒名顶替者诈骗是美国第二大最流行的骗局,超过 36,000 人成为冒充其朋友和家人的电话的受害者。 据 FTC 官员称,在这些骗局中,有 5,100 起是通过电话发生的,从人们那里抢走了超过 1,100 万美元。

另外:最好的 AI 聊天机器人:ChatGPT 和其他可供尝试的替代方案

由于 OpenAI 的 ChatGPT 和 DALL-E 等生成式 AI 程序越来越受欢迎,生成式 AI 最近引起了广泛关注。 这些程序主要与其高级功能相关联,这些功能可以提高用户的工作效率。

然而,用于训练那些有用的语言模型的相同技术可用于训练更有害的程序,例如 AI 语音生成器。

这些程序分析一个人的声音,找出构成该人独特声音的不同模式,例如音调和口音,然后重新创建它。 这些工具中有许多在几秒钟内即可工作,并且可以产生与原始音源几乎无法区分的声音。

你可以做什么来保护自己
那么,您可以做些什么来防止自己落入骗局呢? 第一步是意识到这种类型的呼叫是可能的。

如果您接到亲人的求助电话,请记住,很可能是机器人在说话。 为确保它确实是亲人,请尝试验证来源。

另外:人工智能语音复制的迫在眉睫的恐怖

尝试向来电者询问一个只有您所爱的人才能知道答案的私人问题。 这可以很简单,比如询问他们您的宠物、家庭成员或其他个人信息的名称。

您还可以检查亲人的位置,看看它是否与他们所说的相符。 今天,与朋友和家人分享您的位置很常见,在这种情况下,它可以派上用场。

您也可以尝试用另一部手机给您所爱的人打电话或发短信,以验证来电者的身份。 如果您所爱的人接电话或回短信,但不知道您在说什么,那么您已经得到了答案。

最后,在做出任何重大货币决定之前,请考虑先与当局联系,以获得有关最佳实施方式的一些指导。

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

七爪网 行业资讯 诈骗者正在使用 AI 冒充您的亲人。 这是要注意的事项 https://www.7claw.com/55382.html

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务