| |
首页 淘股吧 股票涨跌实时统计 涨停板选股 股票入门 股票书籍 股票问答 分时图选股 跌停板选股 K线图选股 成交量选股 [平安银行] |
股市论谈 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事 |
商业财经 科技知识 汽车百科 工程技术 自然科学 家居生活 设计艺术 财经视频 游戏-- |
天天财汇 -> 科技知识 -> 电信诈骗分子通过 AI 换脸进行诈骗,专家提醒「可以让对方摁鼻子观察辨别」,该注意哪些网络安全事项? -> 正文阅读 |
|
[科技知识]电信诈骗分子通过 AI 换脸进行诈骗,专家提醒「可以让对方摁鼻子观察辨别」,该注意哪些网络安全事项? |
[收藏本文] 【下载本文】 |
参加多人视频会议 结果只有自己是真人 这事听上去似乎匪夷所思 却真实地发生了 近期 香港警方披露了一起 多人 “AI换脸”诈骗案 涉案金额高达2亿港元… |
我的看法是,AI 换脸/变声应用的普及降低了技术门槛,提高了犯罪分子的作案能力,未来普通人在遇到类似诈骗的时候更加防不胜防。但防诈反诈,万变不离其宗,一定记住不听不信不转账,涉及到异常大额的财务活动要多方/多因子进行确认。 之前看到过这个新闻,我还觉得有点假,这次央视都报道了[1]…看来确有其事。 |
|
按照香港警方的说法,诈骗分子是利用公司职员在网络上公开的视频片段,配合人工智能生成技术和换声合成技术,配合预先录制的对白,在线上会议里播放并作出转账指示。[2] |
|
可以看出,要想成功地实施类似的诈骗,现阶段难度还是比较高的,至少不是广撒网式的捞鱼,而是精准的定点爆破,公司内说不定还会有内鬼配合,否则就算员工在网上有公开的视频、声音,又怎么精确地知道相关业务和负责财务转账的人员。越是精心设计、精心策划的行动,环节越多,所谋图的利益也越大,一般盯上的都是财务人员。 昨天正好也关注了 AI 数字人的话题: 著名音乐人包小柏用 AI「复活」已去世的女儿,此前有人用 AI 「复活」奶奶,数字生命会带来哪些改变?59 赞同 · 8 评论回答 |
|
虚拟数字人技术,最大的问题就是会被用于诈骗。更逼真的换脸、变声,会带来诈骗和信任问题。以及未来也许我们不只需要保护自己的个人隐私,连肖像、声音、知识库都要想办法保护,否则会被别人拿去做成数字人。 至于解决方案…目前来看没有太好的解决方案。从技术层面,如果是科技公司提供的合成服务,可以强制要求增加水印、标识,但现在很多开源的 AI 技术已经能实现类似的效果了。至于专家提到的,捏捏鼻子,或者现场要求对方读一段话等等,也许是现阶段的解决方案,深度合成和识别的技术会在对抗中前进,也许再过一段时间,AI 合成的人脸就可以捏鼻子了。 |
|
所以识别 AI 合成视频/声音并没有什么完全的金标准。我们要做的还是提高警惕,涉及财务转账一定要做多因子验证。就好像最常见的手机验证码和 Two-factor authentication(2FA) 技术一样,单因子是不可靠的,仅凭通话、语音、视频同样不能作为唯一凭据。 参考: AI 诈骗在全国爆发,骗子用换脸拟声技术佯装好友,受害者十分钟被骗 430 万,从技术角度看如何避免?343 赞同 · 122 评论回答 |
|
参考^https://tv.cctv.com/2024/02/26/VIDErs3S2Wp8SnopBd5oUhYo240226.shtml^https://tv.cctv.com/2024/03/03/VIDERKCl9F7QNVsQS5P0eUWZ240303.shtml |
我个人的建议是在这个人工智能生成内容满天飞的时代,只要你上网,就应该养成这样一种习惯:看到任何一段文字、一张图片、一个视频,首先应该怀疑一下它是不是 AI 生成的。 应该逐渐把这种怀疑培养成一种下意识地思考。 因为现在人工智能生成内容以假乱真的能力太强了,也太多了。 包括各位现在在知乎上看到的一些回答,其中就有很多是AI生成的,有一些痕迹比较明显的,可能一眼看上去就能认出来;可是也有一些经过一定的调教和稍加修改就完全可以骗过平台、骗过绝大多数读者的眼睛,让你根本不会怀疑它是由 AI 创作的。 这样的内容危害还是很多的,最主要的一点是这样的内容很多是真假信息混杂的,你以为内容是真人写出来的、可靠的,实际上可能完全是 AI 胡说八道的,最后导致那些虚假的、错误的信息也会被你接收到。 更直接的危害还包括新闻中这种骗取钱财的。 这样的新闻也不是第一次了,只是这种在实时的视频会议中诈骗团伙多人“以假乱真”来骗取受害人的我还是第一次看到,只能说这些诈骗团伙对现在的 AI 技术已经足够的自信——AI换脸、声音克隆、以及对受骗人个人和公司信息的掌握程度等等。 在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内。 其后,向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。 随着技术的成熟,AI生成的内容越来越逼真,以后类似的诈骗手段只会越来越多,普通人判别的难度则会越来越高。 而且诈骗团伙往往利用的也是人们对新兴技术认知的信息差去有针对性地寻找诈骗对象。 连经常上网、接触新技术的年轻人都很容易被骗,更别提那些平时不怎么了解新鲜事物的家长和老年人了,不信各位可以找几张AI生成的照片发给自己的爸妈,看看能有多少认出来这是假的。 而如果骗子利用 AI 复制你的照片、声音或者是视频,制定一套“定制化”的诈骗方案去诱骗他们,那可以说是一骗一个准。 社会和国家层面固然可以对这类技术和内容做到一定的监管,但是相较于技术的发展,这些措施往往是滞后的。 所以,还是那句话,对于普通人来说,最好的防范手段还是自己先提高认知。不一定要去了解技术本身,但是一定要了解技术发展的什么程度了,起码看到一段文字、一张图片、一个视频,或听到一段语音的时候,应该下意识的产生诸如“它是不是AI生成的?”这样的疑问。多提高警惕心,就不会那么容易上当。 |
|
|
忽然想起来以前某音直播间卖翡翠的那种杀猪盘,直播间里几百人聊天留言,结果全是托儿,目标人群就是那一两个下单的。 现在的电信诈骗方式随着技术更迭也与时俱进的升级了,由传统的文字模式,语音模式发展到了视频模式。 多人 “AI换脸”诈骗听起来稀奇,其实换汤不换药。无论何种模式的诈骗,剥开花里胡哨的各种外表之下,关注最核心的一点,对方的所有诉求是不是直指银行卡里的钱。 专家提醒的三点: 做好日常信息保护,加强对人脸、指纹等生物特征数据的安全防护。 不要登陆来历不明的网站,避免病毒入侵。 对采集声音、图像的 App 做好授权管理,防止他人收集个人信息。 当然做这些很有必要。 但我觉得,除了这些之外,反诈最核心的一点是头脑里时刻绷着一根线,任何场合之下提到关于关于钱的话题,三思之后再三思! |
|
|
我之前看过一个视频换脸开源项目,叫DeepFaceLive,可以接obs实现直播,那时候就预感,这个项目肯定会被不法分子用来诈骗。下图是官方demo |
|
再搭配上AI换声,可谓是真假难辨了。 目前识别方法,除了题目中链接讲的,让对方摁鼻子,挡住部分脸部五官,还需要做好日常信息安全保护,保护好自己人脸、声纹、指纹等生物特征数据。 我一直强调保护隐私的重要性,虽然在很多场景,我们不可避免的可能会泄露一些个人信息,但并不代表我们就要完全放弃保护自己的隐私。 例如在题目中这起诈骗中,「这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。」。诈骗人员是如何知道其他参会者的信息并通过AI技术实现换脸的呢?可以看到,这次诈骗都是提前预谋的,诈骗分子需要提前了解会议的内容,提前了解会议的议题,提前了解参会者的所有信息,才能实施诈骗。 落实到每个人,我们可以让自己的通讯录尽量不要用关系来命名某个人,例如不要用「老公」,「爸爸」这种名字来存号码,尽量用自己记得的外号,例如「张三」,「老六」等等,不要让自己的通讯关系网泄露。在工作场合,保护好个人的资料,不要用公共wifi上网,不要使用别人的usb设备。 |
人都到期了吧?那就开始开会吧。 好! |
|
|
这个可能已经是一个非常严重的问题了。 首先我觉得必须跟所有自己的亲人预告沟通好:除了当面沟通以外,一切其它别的方式都不会借钱,不会要钱,更不会向不熟的账户打钱!其实,告诉自己与家人:不贪、不怕。万事不急! 解决了基本的心理问题,才能完成下来的技术问题。心理焦虑不解决,技术上就很难的。而心理解决了,我们才能继续下面的技术问题! 现阶段所有的技术都是不完美的,或者说不自然的。它不是万能的神~所以一定有破绽! 现阶段主要是以换脸与生成为主的两种方式 换脸就是把你的正在聊的脸,切换成另一张。所以它有一个问题就是,会有一个匹配时间,同时换脸也不能完美的契合物理规律。 所以我建议有几个方向做验证: 快速的移动头部,你可以看到匹配算法是跟不上的。如果后面是一个复杂的背景,切换到马路边或者复杂图案下,这个匹配算法大概率是会出现错误。也可以试着举个杂志上有脸的照片!你看一下,是不是会切换??进行物理性的验证,上面提到的,摁鼻子,实际上就是换脸的算法没有针对这类操作做训练,所以这就是神经网络的问题,你对于没有出现的数据的泛化性是一定不会太好的!如果摁鼻子不行,可以挖鼻孔,或者按一下脸,看是不是有很自然的图像出现。我还没有看到现在能够这样自然的 AI 处理方式。要知道,这么多年,动画片界与游戏界都没有解决好踩小草的物理行为 |
|
生成 另一个方向就是弄张脸,做生成,也就是 像这几天被骂惨了的 CloseSource 的阿里开源 EMO 这一类,通过照片或者什么 3D 建模加上声音 Clone 做完全的影像生成操作。 这一类摁鼻子这个操作更能识别出来,因为生成这个东西,还没有精准的控制能力,所以你让对方做什么,对方肯定是不能精准的做出来的。 |
|
如果对技术感兴趣,下面网址里收集了一些精典的项目,其中关于人脸、视频的处理你可以看一下。它是一个很好的引子! https://u9xr1w60pr.feishu.cn/docx/ElRKd4BWNopv0gxwGi5c0WSmnlh 另一个问题就是,骗术的东西是很难讲的。它很多时候不是个技术问题,它是一个标准的心理应用。基本套路就是漏斗型操作, 大规模用博傻问题筛选,如果找到合适的对象了,再做下一步操作。通过相对有一定技术含量的手段,去引导目标转钱! 所以回到开头就是 通过心理上的引诱、暗示、压迫来让目标完成动作。这个靠的是逻辑教育与安全教育。 BTW:我住的边上是一个人材公寓,每一两个月在屏上就有:刷单被骗。。。。几十万。可见这事跟智商关系不大! |
想多啦,捏鼻子、挥手的辨别方法也没用。 |
|
0 这位大神抖音:亲 AI的章鱼哥哥 扩展阅读: 为什么抖音上的姑娘都那么好看,现实中我怎么一个也见不着?9 赞同 · 4 评论回答 |
|
|
专家这个建议有一定道理,但是对于一些技术更加成熟的AI换脸不一定适用。 目前AI不仅在图像生成领域取得了极大地成功,而且在视频生成领域也越来越逼真,比如OpenAI近期推出的Sora。 Sora生成的视频,几乎达到了以假乱真的效果,即使是多个镜头切换,AI生成的视频也保持了极强的稳定性,并没有出现掉帧的情况,视频依旧非常流畅,真的达到了“一镜到底”的效果。 这里面有三个镜头让人影响深刻。 其中一个是一堆金毛小狗在雪地里打滚儿,狗狗用鼻子拱雪,甚至一粒一粒的雪粒都能感觉到,感觉这个画面非常真实。 |
|
对比Pika和Runway是做不出这样效果的。Pika和Runbway实际上是基于图形图像本身的操作来进行生成。只是形成一种比较简单的计算机动画的效果。 另外两个是咖啡里面的帆船,以及俯视角度的无人机穿过古老的城堡。视频非常流畅,感觉就像是真实拍摄的镜头,看不出AI生成的痕迹。 所以,如果真的使用Sora进行网络诈骗,那么即使按专家说的按鼻子,按脸,可能视频依然非常流畅,看不出视频抖动。 这个时候,就需要更强的检测模型,就像之前黑客利用ChatGPT生成恶意钓鱼网站,我们就需要更强的模型,来抵御这些攻击。 此外,魔高一尺、道高一丈,在AI领域不一定适用,因为安全模型总是落后于生成模型,我们总是在出现了很强的AI模型之后,才想到怎么去防范,总是慢一拍。 这也是OpenAI这也的AI公司面临的问题,如何在出来更强模型之前,就有更强大的安全策略或算法,保障模型的安全性,这些是大家必须思考的问题。 |
面对电信诈骗分子利用 AI 换脸技术来进行新型诈骗,主要还是通过让对方进行一些特定动作来进行辨别,比如提问里面说的“让对方摁鼻子”这种方法。 由此引申的该注意哪些网络安全事项,我想主要还是要和保护个人隐私相关,尤其是保护涉及生物识别的隐私数据(人脸、声音、指纹等),细分为下面几个大的注意事项: 时刻保持警惕性 在网络上进行聊天时要保持警惕,特别是对于要求转账或提供个人信息的请求,要进行双重验证,确保是来自可信来源。 注重个人隐私 避免在社交媒体上随意发布包含自己面部的照片,特别是在非官方网站上不要轻易提交个人照片或将个人照片发送给不熟悉的人。除了照片之外,声音信息也要格外注意。 警惕虚假信息 对于看起来诱人的中奖信息或是任何看起来可疑的钓鱼网站和链接,要保持警惕,不轻易点击陌生链接或下载附件。 提升设备安全 确保个人电子设备的安全,避免设备被非法安装了偷拍软件。定期更新系统和安全软件,以保证系统的安全性。 加强身份验证 在涉及财务决策或者其他重要决策的视频会议中,采取额外的身份验证措施,比如事先约定的密码或动作,以确保对方身份的真实性,尽量线下真人面对面进行。 提升防范意识 提升对于 AI 换脸等技术的认识和了解是防范此类诈骗的关键。平时应该通过各种渠道提高自己对这类技术的认识,了解其潜在的风险和防范措施。 |
有些人可能还不知道现在数字人能达成的效果,这里放个视频让你们感受感受 商汤科技创世人汤晓鸥?haokan.baidu.com/v?pd=wisenatural&vid=14517112242511718325 你能分辨得出这是真人还假人么,如果这个人还能和你实时通话,实时对答,如果这项技术被诈骗分子拿来定点爆破有多少人能够幸免? 当然现在技术和使用还存在一定门槛,但是AI这几年发展得势头太猛了,如果等到技术全面升级后,人人都可以使用,那我们如果去防范这样的诈骗形式呢? 我之前写过一篇关于防范AI诈骗的回答,有兴趣可以过去看一眼,这里就简单总结下; AI 换脸新型诈骗,如何应对人工智能背景下的「高科技诈骗」?16 赞同 · 10 评论回答 |
|
全民普及 我认为不管手段如何发展,你要让身边的人都知道有这个东西,比如AI如何诈骗,不要认为AI已经很流行,那是因为你接触到了,实际上这几次我回家,发现身边的人都不知道AI的现状,信息差太大了,希望每一个人都能取了解下AI诈骗的手段去和家里人说一说。 比如家里遇到AI真人视频诈骗,在遇到特殊情况是不是会多思考一下,对面这个人是不是我儿子,不管视频多么逼真,他总不会知道你小时候的任何事吧,只要当家长的多问几句,自然就露馅了。普及这个事,不关是社会、媒体、官方的事情,我们自己知道了也要为家人提个醒。防范诈骗,人人有责。 加强个人信息保护 对于我们自己,更要有意识地保护个人隐私和数据。不要上传高清照片和个人信息到互联网,尤其是那些公开的社交媒体平台。对于那些要求上传个人信息和照片的服务,我们要慎重考虑其必要性和安全性。一旦照片或资料被不法分子获取,就可能成为他们伪造你身份的工具。 使用双重验证 啥叫双重验证呢。比如,当我们的家人在紧急情况下需要我们汇款或提供敏感信息时,我们可以设立一个预先约定的安全问题或密码,这样即便是视频通话看起来再真实,没有正确回答安全问题的人也不应该被信任。就叫防范于未来。 下载国家反炸中心!下载国家反炸中心!下载国家反炸中心! 回答不易,您的点赞关注就是对我最大的动力 我是李想,我的理想是带领小白入门AI,掌握AI,更多AI干货,移步 @李想 Prompter 主页。 |
确实是个有趣的知识 类似的情况也发生在陕西西安。张女士在与老板的视频通话中被要求转账186万元。由于视频中的声音和图像与老板极为相似,张女士没有怀疑并执行了转账。然而,当张女士将转账凭证发到公司内部群后,老板却表示并未发起视频通话或要求转账。张女士随即报警,警方迅速采取措施,成功保住了大部分资金。 AI 换脸合成视频最核心的包括为三个部分: 首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。 其次,将这些特征与目标人脸图像进行匹配、替换、融合。 最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。 考虑到是视频,那么一些额外的实时动作便很难实现: 我们可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去进行识别,实时伪造的视频,因为它要对这个视频进行实时的生成和处理和AI的换脸。在挥手的过程中,会造成面部的数据的干扰。挥手过程中,他所伪造的这个人脸,会产生一定的抖动或者是一些闪现,或者是一些异常的情况。可以让对方摁鼻子、摁脸观察其面部变化。他在一个采访中表示,如果是真人的鼻子,按下去是会变形的,但AI生成的鼻子并不会。 其实,不止这些,比如说有没有影子啊,是不是可以变换发型啊,眨眼是不是自然啊等等 只不过,有一个核心的问题,如果是对面是真人,你提这种要求,不怕社死么? |
AI 换脸诈骗,是个新型技术的诈骗形式,普及防 AI 换脸诈骗,是个现实的话题。 我先来说说 AI 换脸技术的发展由来,然后再来说说该如何注意这类的网络安全事项。 技术由来 => 一直以来,人脸识别、AI 换脸都存在很大的安全隐患,会涉及个人隐私、会涉及诈骗。现在 AI 算法发展很快,AI 换脸技术一方面效果越来越好,另一方面也越来越容易上手。我记得最开始比较出圈的 AI 换脸算法是 Deepface,现在更进一步,有了 AIGC 来做 AI 换脸,让 AI 换脸更加真假难辨了。 |
|
该注意哪些 AI 换脸网络安全事项 ==> AI 换脸技术的快速发展不可阻挡,在 AI 换脸技术越来越逼真的情况下,该如何防 AI 换脸诈骗、有哪些有效的措施,这才是最要紧的。我来举例几个方法: (1) 个人角度 => 大家应该提高对于 AI 换脸诈骗的警惕,寻根问底多问几句,如果感觉到有些奇怪了,可以直接电话或者当面确认是否实情,千万不要傻白甜轻易相信涉及金钱交易的述求,要有那种有了 AI 换脸后 "眼见也不一定为真" 的认知;(2) 环境角度 => 社会应该加大对于 AI 换脸诈骗的教育宣传,包括电视广告、交通广告、微信通知等方式的宣传,让大家了解类似案件的发生,让大家知道这类事件在身边常有发生,这样大家也会多留一心了。 |
在现代社会中,彻底保护个人隐私变得十分困难,尤其是在AI换脸技术普及的背景下。个人生物识别信息,如面部和声音,难以得到有效保护,因为它们是我们日常生活的一部分。例如,如果你在生气时录制视频或参加视频会议,这些信息很可能会被泄漏。 为了验证视频的真实性,可以通过要求执行特定动作如挤鼻子、挥手或提问等方式进行验证,但这些方法通常只适用于个人交流。 在职场环境中,要求上司进行这类验证是不现实的。随着AI技术的进步,这些验证方法未来可能也无法有效区分AI生成的视频。生成视频的成本正在降低,很快就可能仅需几张显卡即可实时生成高质量视频,让人难以辨识真伪。 如何防范这种风险成为一个问题。对个人而言,通过执行特定动作或打电话等方式相对容易进行验证。然而,在公司层面,尤其是与上司交流时,采取这样的措施就显得更加困难。面对紧急情况,如迅速需要完成的财务转账,采取复杂的验证流程似乎不现实。 有效的防范措施应由公司制定,建立完善的制度,例如要求财务转账前必须有多人授权,禁止仅凭视频指示进行转账。这是因为诈骗的最终目的通常是为了骗取金钱。因此,记住一个简单的原则:一旦有人要求转账,无论是个人还是公司层面,都需要小心。 这种情况并非新鲜事,AI视频只是让老骗术以新形式出现。从以前的QQ假人群到视频会议,其本质未变。因此,最有效的防范方法是明确公司的转账制度,严格遵守,以预防诈骗。 |
这道题算是问对人了!本人从事网络安全行业20年+,熟悉了解隐私、信息泄露各种案例和套路,并整理了较为全面的保护个人信息和隐私预防措施,欢迎点赞收藏+关注! 一、个人信息泄露常见途径1.APP权限开通 手机是我们日常生活工作中使用最多的工具,其也拥有我们大量的隐私和秘密,而不经意间开通的各项权限,也对我们信息安全造成重大威胁。 满怀期待的下载了app,上来就询问是否开通各项权限,包括相机、位置、通话记录等,部分软件更是霸王条款,不开通权限就无法访问app,殊不知,我们开通的同时,也给了开发商窥探我们隐私的权利。 2.伪基站 伪基站指的是通过短信群发器、短信发信机等设备搜取以伪基站为中心、一定半径范围内的手机卡信息,并伪装成运营商的基站。伪基站能任意冒用他人手机号码向用户手机发送诈骗、广告推销等短信。 伪基站的常规操作是:先冒充如10010、95588官方客服号码,然后发送伪装成兑换积分、修改账号密码等形式的钓鱼网站链接给用户,接着用户进入钓鱼网站,填写银行卡账号、密码等个人信息,并下载实际为木马病毒的安全控件,最后盗取用户账户内的资金。 3.纸质单据 我们日常生活出行中,火车票、快递物流单、购物纸质对账单、银行业务单、消费发票等单据遗失会导致个人信息泄露。 虽然现在很多纸质单取消了,但电子版的各项信息一旦被他人看到,也有泄露的危险。 4.钓鱼网站 钓鱼网站是指欺骗用户的虚假网站,其将网站登录页面伪装成类似正规网站的登录页面,欺骗消费者或者窃取访问者提交的账号和密码信息。 钓鱼网站一般只有一个或几个页面,和真实网站差别细微。钓鱼网站是互联网中最常碰到的一种诈骗方式,通常伪装成银行及电子商务、窃取用户提交的银行账号、密码等私密信息的网站。 5.实名验证 实名验证过程中,需要提供个人身份证、手机号码等敏感信息,这些信息可能会被不法分子利用,造成个人信息泄露。如果这些信息被恶意使用,可能会导致身份盗窃、诈骗等不良后果。 6.弱密码或密码不加密 大部分监控设备使用厂商提供的默认用户名和密码,或是设置的密码比较简单,密码不加密,很容易被黑客通过暴力破解、字典攻击等手段破解。黑客可以使用专门的软件,尝试各种可能的密码组合,直至成功登录。 7.浏览记录 上网过程中,会有浏览记录,即使清除了可能也没用,实际上它并不能真正地将你的行踪抹去,包括不能防止网站、网络提供商和其他用户监视你的上网行为。事实上,浏览器使用者越来越多地面临着隐私泄露的风险。 黑客可以利用技术手段非法获取用户的网络活动轨迹,包括浏览记录、搜索历史、聊天记录等。这些信息可以被用于各种形式的诈骗和攻击行为。 8.恶意软件和病毒 一些不法分子会编写恶意软件和病毒程序,并将其植入到用户的计算机系统中。这些恶意软件可以窃取用户的个人信息、账号密码等敏感数据。 9.社工库 社工库是黑客们收集存放个人隐私数据的地方,主要目的是贩卖信息,例如当不良用心之人想要通过网络对你攻击时,就会通过社工库“人肉搜索”,把你的隐私数据曝光于网络中。 社工库中存储了数以亿计的个人信息,包含姓名、手机号、身份证号、快递地址、邮箱地址、社交账户(qq、微博)甚至开房记录等隐私信息。 二、加强网络安全防线1、安装杀毒软件 电脑端可以选择一款可靠的杀毒软件,杀毒软件的主要作用是检测、移除电脑病毒、电脑蠕虫和特洛伊木马等计算机威胁。 杀毒软件通常集成了监控识别、病毒扫描和清除、自动升级等功能,部分杀毒软件还提供数据恢复、防范黑客入侵、网络流量控制等功能。杀毒软件是计算机防御系统的重要组成部分,通过实时监控和扫描磁盘,以及智能技术和启发技术等方式,来保护计算机免受恶意软件的侵害。 2、及时更新软件 及时更新软件,可以获得更多更新的功能体验,能够帮助我们更有效地完成工作、学习或娱乐。 另外,软件的更新升级可以修复漏洞和纠正错误。随着软件使用量的增加,各种潜在的漏洞和错误也会逐渐暴露出来。这些漏洞和错误可能会导致软件的不稳定、崩溃或被黑客攻击,软件厂商经常会发布更新,修复漏洞并添加安全补丁。 3、采用加密协议 网络通信是黑客入侵的主要途径,应采用加密协议,限制不必要的通信端口,防御DDoS攻击,启用网络防火墙,实现虚拟专用网络等。 聊天社交领域建议使用端对端加密的聊天软件,能够有效保护你的聊天信息和隐私安全。 端对端加密是目前国际范围内广泛认可的一种保密性极强的加密技术,运用到聊天中就是分配给每位用户一个专属密钥。即用户发出的消息以密文形式传送到对方的手机,对方同样通过密钥快速自动解密后,才能看到消息内容。 |
|
聊天内容不经过第三方存储,可以很好的防止潜在的窃听者,包括电信供应商、互联网服务供应商甚至是该通讯系统的提供者,窃取、篡改、拦截聊天信息。 像国外的Snapchat、line、iMessage,国内的蝙蝠APP等,都采用的端对端加密算法。国外的需要爬墙,这在我国是明令禁止的,不再多说,这里详细介绍一下蝙蝠APP。 蝙蝠APP是国内最知名的加密聊天软件,自2019年上市以来,备受大家喜爱。除了在技术上的端对端加密,蝙蝠APP还有很多其他保障聊天隐私的功能。 预设密信(聊天暗号):对单个聊天框加密,需要输入正确的暗号才能进入聊天界面,防止他人在自己不知情的情况下随意查看聊天记录~ |
|
密聊模式:该模式下头像打码处理,内容防截屏录屏,分分钟为你鉴定背后截图说你坏话的绿茶婊~ |
|
4、使用防火墙 防火墙可以阻止未经授权的访问和数据传递,过滤掉潜在的攻击,如病毒、木马等,从而保护内部网络数据的安全。 防火墙还可防止信息泄露。防火墙可以阻止内部网络中的敏感信息如DNS信息被外界获取,保护用户隐私。 5、网络安全扫描技术 此技术的主要防护功能是通过对网络的全面系统扫描,网络管理员能在有效了解网络安全配置与运行的应用服务的情况下,及时发现安全漏洞,即时进行风险等级评估,并采取相应的防护措施进行处理以降低系统的安全风险。 6、设定强密码 采用高强度密码,避免使用简单的数字、字母组合,最好使用随机字符和特殊符号的组合,并定期更换密码。 【密码设置小技巧】 方法一:加入更多标点符号等特殊字符 例如:【ABC123】【ABC123。?!@#】 方法二:用统一的规则,组合不同元素 比如这样的规则:[ 用户名] + [ 用户名长度] + [,] + [ 网站缩写 ] 切忌所有密码规则不要统一,避免黑客一破百破。 7、定期备份数据 定期备份数据可以在数据受到破坏时快速恢复丢失的数据。 可以选择的方式:使用专业软件例如“Disksync”;利用系统自带的功能;使用云存储服务;使用外接硬件等。 另外可以使用蝙蝠APP,有加密文件功能,能够对你的图片、文档、视频等加密存储,也可以链接方式分享给他人。 |
|
关注我,获取更多信息安全干货~错过太可惜! |
前几天有包小柏用AI‘复活’死去女儿,上个月有李一舟用AI课‘割韭菜’被封,今天是AI换脸电信诈骗。 关于AI的各种新闻,每一个都很炸裂。 其实,这很正常,新科技的出现,必然会打破固有的生活状态。 在AI技术未完全融入生活阶段,法律以及一些使用界限还不完善时,各种现象必然层出不穷。 有好的一面,自然也有坏的一面。 其实,在AI换脸诈骗之前,有语音诈骗、微信模拟真人诈骗等各种方式。 现在,不过是升级了而已。 其实,被骗说到底,是骗子利用技术+人性弱点。 像这个新闻,虽然骗子的技术确实高端,但受害人身为财务人员,安全意识太薄弱了。 像新闻中所说的这种形式,针对一个公司开视频会议,全部都是AI模拟的同事,只有受害者是真人。 |
|
在过程中,进行了先后15次转账。 那么,问题来了,这个公司的付款流程,是如此轻率的吗?开个会,只有语音认可,财务就转出? 难道这个转账人员,不怕担责任吗?不需要领导的邮件审批,或者其他内部OA审批吗? 如果有这些流程,那么该受害人还轻易的转了账。那么,只能说明受害人太轻率了,只知道听命行事,没有身为财务人员的基本安全意识。 至于专家的建议,给对方指定动作,如捏鼻子等,来判定是否是真人。 这个方法,当下来说,自然是可行的。 |
|
但sora如果普及了,如果迭代了,那很多细微的动作,都可以作为惟妙惟肖,根本无法判定是否是真人。 此时怎么办? 我觉得当下可能也没太多好的方法,对于普通人来说,想规避这种问题,做到: 1、了解当下AI的发展,提高警惕 起码知道AI能干什么,不能干什么,知道能模仿语音,能变真人,自然就对电话诈骗,视频诈骗有了警惕。 2、多渠道核实身份/事件 如果对方是语音让你转账,你就说需要邮件,微信需要明确发,还需要OA审批等等。 然后你再去通过电话、微信视频等多个维度,去核实对方身份。 如果是公司的人,还可以在群聊里核实这件事。 3、无法确定时,拒绝非面对面的金钱交易 如果仍然无法确定,那就拒绝线上交易。 |
除了知晓一些辨别AI换脸诈骗的小诀窍,我们每一个人都应该提高防范意识,养成良好的上网习惯。 首先,应该是做好日常信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护。 另外做好个人的手机、电脑等终端设备的软硬件安全管理。 第二,不要登录来路不明的网站,以免被病毒侵入。 第三,对可能进行声音、图像甚至视频和定位等信息采集的应用,做好授权管理。 不给他人收集自己信息的机会,也能在一定程度上让AI换脸诈骗远离自己。 用AI技术为他人“换脸换声”甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面: 一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。例如网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。 二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。 三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。 也就是说,需要取得声音权人的同意,才能够使用他人的声音。 “眼见不一定为实”“有图有视频也不一定是真相”的时代已经来临,提前了解才能有心防范,希望打击AI诈骗的技术早日普及。毕竟新技术出现的初衷本该是让我们过上更美好的生活 |
随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,不知不觉,他们竟然已经用上了AI换脸技术。近日,包头警方发布一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。 端详案情的细节,可以说是细思极恐。郭先生的“好友”是通过微信视频联系到他,两人经过短暂聊天后,郭先生才转账的。这也就是说,骗子不仅盗取了他的好友微信,还直接利用AI合成了好友的人脸和声音,如此以假乱真,让人防不胜防。 |
|
以往,针对朋友借钱或其他网络转账,我们常常提醒大众要打个电话或视频核实一下,确认后再转账。然而现在,这种“核实”心理反而被利用了,试问,连眼睛和耳朵都可以赤裸裸被欺骗,还有什么验证方式能够让我们放心地进行网络交易?这件事情之所以能冲上热搜,这便是最大的痛点,令人迷茫而恐惧。 而这些诈骗分子之所以能够进行AI换脸、合成声音,就在于他们掌握了一定的受骗人信息,比如受骗人的照片、视频、语音等。那么,他们是从哪里获取的这些个人信息? 可以想见的渠道主要有两个,一是,有可能来自受骗人自己对外公开的社交帐号,比如微博,只要不是博主主动设置自己发布的内容仅在一定范围内可见,那么理论上任何人都是可以搜索查看,甚至还可以看到博主和好友的互动。二是,受骗人的个人信息被有意泄露甚至售卖。 |
|
所以,AI诈骗看似一个新问题,其实又回到了个人信息保护上。正如有业内人士分析称,“我觉得科技的进步也让防范诈骗的难度在提升。发生的原因还在于信息爆炸导致的信息泄露过度。”一方面,这需要个人在日常网络行为中,注意不过分暴露个人信息;另一方面,也需要严格规范技术的开发和应用,完善相关授权机制。 去年12月,《互联网信息服务深度合成管理规定》正式发布,关于授权同意的原则提到,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。换句话说,一些AI软件未经“主人”授权就随意生成人脸人声,是违法的。 诈骗分子之所以能够鸟枪换炮,就是因为之前他们可以购买的是姓名、住址、亲友关系等社会信息,而如今他们可以获取人脸、人声等生物信息了,并且可以利用技术软件进行合成。那么,是谁在充当这个技术中介?这是非常重要的一环,只要打断了这个中间环节,AI诈骗也就失去了技术前提。 |
|
图据湖北网警巡查执法 从目前爆出的案例来看,对于AI诈骗,基本都是事后追查打击,这其实是很被动的。接下来,治理AI诈骗的工作应该进一步前置,多在预防环节下功夫。而对个人信息的保护,就是最好的预防。 我们常说,科技是一把双刃剑。如果前些年,科技的伤害之刃还处于一种“划伤”阶段,那么如今在一些领域已经出现“刺痛”感了。而疼痛是保持清醒最好的方式。眼下,看着别人被骗几百万,所有人都应该警惕,这样的技术侵害是无差别的:任何人的脸与声皆可合成,即使不被用于诈骗,谁又能保证不被用于其他侵害呢? |
一、反诈是系统性的复杂工程 反诈、防诈本就是一个系统性的大工程。绝不能有「一招鲜吃遍天」的错觉。 须知 AI 换脸技术也是在不断进步的,就算是用手按鼻子、捏脸,也是可以模拟的。何况互联网和 AI 技术,还均处科技之巅,其变化和进步,就没停过。普通人万不可掉以轻心。 1、AI 背锅 从本条新闻上看,该诈骗行为的实施,早已经超越了 AI 范畴。 |
|
从问主描述上看,首席财务官的面部特征,已经暴露。而且,分公司和总公司之间,也缺乏安全可靠的网络会议平台(缺乏基本的认证、授权机制)。 而且这家分公司的职员和总公司的财务系统,也极度缺乏网安常识,通过互联网进行这么大的资金转出,竟然没有丝毫的 AAA 常识(认证 Authentication、授权 Authorization、审计 Accounting)! 2、网安漏洞 这起案件看似由 AI 变脸所引发。可实际却是一个典型的网安问题,本质原因还是因为该公司对于网络安全重视不够,没有自己的网络安全 Team 导致的。 二、任重道远 综上,预防这种诈骗的措施,还在于系统性的网络安全建设。 1、认证 选择经过安全认证的视频会议平台(身份验证和加密),降低未经授权人员访问视频会议的概率。 2、授权 使用多因子身份认证(MFA)等更加健壮的身份验证方式来确权(确保只有通过授权的人员,才能加入会议)。 3、审计 如果有条件,尽量建设自己的网络安全 Team,并对公司所有的互联网会议,即时核查(对所有会议采取监控措施,必须要让通过验证和授权的网络会议具备可审计属性)。 4、教育 教育员工要具备基本的 AAA (网安)常识。避免在 Internet 等不受信任的渠道,进行未通过 AAA 检验的私密交流和转账操作。 |
感慨一声,时代在变,诈骗的手段在升级,不变的是诈骗的内核,忽悠你转移财产。诈骗罪是一个很古老的罪名,但一直延续至今,生命力还挺旺盛。 以前一直觉得被诈骗的人都挺傻,怎么这么容易被骗,后面看来电诈人员有专门的培训、专门的套路之后才发现,只有把某样东西转化为学术问题,那是万万不能轻视的。 看到这个新闻感觉蛮可怕的,以前诈骗都靠打电话,电话里没有看到真人,毕竟还没那么可信,也不太容易放松警惕。而且经过多年的宣传,以及警察叔叔大力推行的反诈APP,现在想通过电话诈骗,可能没前些年那么容易了。 但现在使用AI技术换脸的话,视频里出现的就是身边人,比如家人、领导等等,很容易放松警惕。 比如突然拉你开个工作会议,会议中被换脸后的“领导”,让你会议结束后给XXX公司打款,一般人很难怀疑。 现在电诈如此盛行的原因还是信息被泄露的厉害,网络上对于个人信息都是明码标价,比如5毛钱一条,然后打包出售。这就是为什么大学里一个寝室可能连续接到诈骗电话,这就是因为信息被打包出售了。 我工作之后还接到过诈骗电话,电话那头说我当时在学校的时候搞过助学贷款,但是记录没有消除,让我再去看看。因为我自己确认自己在大学里没有贷过款,所以也没特别当一回事,后来才直到这是常见的电诈方式。 |
之前有个国内的“闹剧”,当初个人觉得会比较不是那么的高科技,是因为感觉被骗的那位,警惕心有点低。 首先,陌生人利用AI技术冒充他的朋友,还要这么“大额”(430万)的转账,一般人都会用电话或者面谈的方式与朋友再次确认吧?只能说这位成功人士真的很有钱,430万可能对他来说就是一个小数目,相比于我们也就1,2W的钱吧? 其次,线上的“朋友”就这么你来我往的,这位仁兄就愿意打款了,怎么的都觉得他的朋友圈有些杂,敢情全是线上朋友?也位面有些前卫。 再有,打款的时候,这么巨额,也不核实下对方银行账号的实名吗?换成普通老百姓,430万都能买一套郊区小别墅了,而且要用一辈子的时间去换,就算线下多方核实信息,都会有不放心和犹豫的步骤..... 不得不说这位仁兄钱可能真的有点多。换到普通人身上,这种事情,就算借1000,估计也不会发生。 现在要防范这类事情,还是很容易的:电话或者短信等联系朋友,多方信息求证转钱的需求是否是本人发起的,通过银行求证转款账号的实名信息,通过IP地址查证该用户是否与朋友所在地一致...... 但如果从虚拟数字人的发展程度来看,的确仿声和用一张照片与对方进行互动,表情能够模仿到位已经不是难事了。虽然说道高一尺、魔高一丈,但AI技术现在真没有发展到以假乱真的地步,时刻保持警惕才能从根本上杜绝被骗。 未来随着科技的发展,谁也不能确定会发生什么,但纵观人类的发展史,以前也有科技跃进的阶段,求生欲总会让人类想到自我约束和与AI共存的平衡点。大家只能小心再小心。 |
|
[收藏本文] 【下载本文】 |
上一篇文章 下一篇文章 查看所有文章 |
|
|
股票涨跌实时统计 涨停板选股 分时图选股 跌停板选股 K线图选股 成交量选股 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事 |
网站联系: qq:121756557 email:121756557@qq.com 天天财汇 |