| |
首页 淘股吧 股票涨跌实时统计 涨停板选股 股票入门 股票书籍 股票问答 分时图选股 跌停板选股 K线图选股 成交量选股 [平安银行] |
股市论谈 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事 |
商业财经 科技知识 汽车百科 工程技术 自然科学 家居生活 设计艺术 财经视频 游戏-- |
天天财汇 -> 科技知识 -> 泰勒·斯威夫特 AI「不雅照」疯传,人工智能滥用引担忧,如何看待此事?该如何解决? -> 正文阅读 |
|
[科技知识]泰勒·斯威夫特 AI「不雅照」疯传,人工智能滥用引担忧,如何看待此事?该如何解决? |
[收藏本文] 【下载本文】 |
据美国福克斯新闻、《国会山报》26日等多家美媒消息,针对由人工智能(AI)生成的美国流行歌星泰勒·斯威夫特不雅照在网上传播一事,白宫表示“担忧”,并敦… |
技术解决不了这个问题,就像菜刀在售卖的时候它的目的肯定是让你娱愉的做一桌菜的工具一样,不会期望你拿它出来做其它用途的。 但是 AI 这事吧,特别麻烦,尤其是 AIGC这类技术的发展 ChatGPT 、StableDiffusion 、 VoiceClone 、 TTS 等一类技术的发展,出现了一个目标是“数字人”这个概念的时候,你就知道它的目标是模仿生成一个完全仿真的人类: |
|
朋友戏称、理工男审美的数字人 当一个人完全被数字化了,那这个衣服在不在,什么表情,什么声音,在说什么?其实完全看使用者,所以不可避免的会带来滥用。不过你要说有担忧? 这事在 Photoshop 时期也这样啊,在 faceswap 出来后也这样,在 AI 更方便的技术出来后也是这样。 所以,我觉得现有的法律体系框架下是完全可以有足够的约束力的,而且国内的人脸、鉴黄等技术的完善程度,我觉得这都不是问题。 相反,这个东西用于诈骗与垃圾消息发送这事,过去没解决,实名制后没解决,同样我也不觉得在 AI 技术下能解决它。 所以,该干什么干什么,人啊不贪则不受骗,不信则不受骗。 还有啊,给钱这事,如果不是你经常给的账户,一定要当面给才成,不要相信任何一个通过网络上的任何手段与电话视频管你要钱的消息、聊天。 只要做到不动,不贪,不信,那就肯定没有问题。 当然了,如果你对技术不太相信,我给你一些可以参考的 TTS&Clone, 你去看看就知道这方面的技术有多可怕,所以呢保持“人性”很重要! EmotiVoice TTS 与 Clone https://github.com/netease-youdao/EmotiVoice Voice Clone/OpenVoice https://github.com/wavmark/wavmark https://huggingface.co/M4869/WavMark/tree/main https://github.com/myshell-ai/OpenVoice https://research.myshell.ai/open-voice Coqui-AI TTS https://github.com/coqui-ai/TTS 曾经大火过的 TTS 项目的开源 Song Clone https://github.com/Grace9994/CoMoSVC https://arxiv.org/abs/2401.01792 效果非常不错 https://comosvc.github.io/XTTS-v2 https://huggingface.co/coqui/XTTS-v2 YourTTS https://github.com/Edresson/YourTTS LMS-Toucan https://github.com/DigitalPhonetics/IMS-Toucan VITS https://huggingface.co/docs/transformers/model_doc/vits Tortoise TTS https://github.com/neonbjb/tortoise-tts Pheme https://github.com/PolyAI-LDN/pheme StyleTTS2 https://github.com/yl4579/StyleTTS2 P-Flow https://github.com/p0p4k/pflowtts_pytorch Vall-E https://github.com/enhuiz/vall-e https://github.com/lifeiteng/vall-e EasyBertVits2 https://github.com/Zuntan03/EasyBertVits2 日文的声音 Clone Bert-VITS2 https://github.com/see2023/Bert-VITS2-ext |
破事水。我还以为这是个两年以前的问题。 欧美一线女明星和k-pop女星们的换脸瑟瑟视频在网络上泛滥至少有两三年了,还有很多专门发布celebrities换脸视频的网站,传播甚广,也不知道这么明显的侵权网站为什么一直没被打掉。 所有比较有名的的漂亮女星——好吧,也包括一些不漂亮的女星——反正咱们能说出名字来的,基本都被出过大量换脸瑟瑟视频。这些视频到今天也还在各种deepfake系列的网站上挂着,随便看不要钱。 那时候没人出来打官司,今天倒有了,这就挺神经病的,因为现在,2024年初,AI换脸已经简单到人人可以制作,根本无法禁止了。 在两年前,AI换脸还是非常麻烦的技术,没有编程技能的话基本玩不转。但是从一年多前有了roop,难度直接降到有手就行,不需要训练任何模型,想给谁换脸,有一张照片就可以。这还是因为有法律管着,不然的话三四年前我们就可以做到人手一个换脸app,会用手机就会给别人换脸。 所以如何看待? 挂梯子看。 |
由于AI人工智能技术的飞速发展,在上网冲浪的时候保护自己的生物特征隐私十分重要,通过几张照片,人工智能就可以生成和本人非常接近的图片,或者通过技术可以更换背景。 |
|
我采用AI绘画生成的马斯克的图片 下面我给大家简单介绍下新闻及AI生成图像的情况。 一、新闻简介 这几天,全球瞩目的音乐巨星泰勒·斯威夫特(Taylor Swift,广受粉丝爱戴的“霉霉”)不幸成为Deepfake技术的最新目标。令人震惊的是,在极短的时间内,多个社交平台如X和Facebook上涌现出大量伪造的“不雅照片”,引发了广泛的关注和讨论。 |
|
图片由Deepfake合成——网上流传的AI伪造的照片 这些虚假照片迅速在网络上传播开来,浏览量已经飙升至惊人的上千万级别。尽管相关平台已经迅速采取行动,封禁了最早传播这些图片的账号,但遗憾的是,照片的传播仍未得到彻底遏制。 这一事件再次引发了人们对Deepfake技术的关注和担忧。 |
|
图片由Deepfake合成——网上流传的AI伪造的照片 作为一种能够高度逼真地伪造人脸和声音的技术,AI绘画近年来已成被利用,成为网络欺诈、信息操纵和个人隐私侵犯的重要工具。 作为普通人,我们应该特别注意人脸高清照片尽量别上传到不信任的公共网站,因为现在的人工智能技术真的可以通过几张照片就可以生成各种照片。关于这一点可以看我之前的回答。 AI 生成写真照爆火,未来会替代海马体等写真照相馆吗?416 赞同 · 84 评论回答 |
|
此次泰勒·斯威夫特成为受害者,无疑给全球公众人物和广大网民敲响了警钟。 二、传播情况 关于这些Deepfake照片的传播途径,众说纷纭。 有消息称,它们最初出现在某个加密聊天群组中,而另有报道则指出,这些照片最初被上传至一家充斥着大量以知名人士为主角的不雅照片的不良网站上。无论起源如何,这些照片迅速在各大社交平台上扩散开来。 除了泰勒·斯威夫特,这家网站还涉及众多名人,包括饰演芭比的知名演员Magrot Robbie等,无一幸免于这场风波。 |
|
在社交平台X上,“Taylor Swift AI”一度成为热门话题,吸引大量关注,不过目前该话题疑似已被平台屏蔽。 随着事件的发酵,各大社交平台开始采取行动。 一些涉嫌传播这些照片的账号陆续被封禁,但仍有部分漏网之鱼继续传播。对此,Facebook母公司Meta的发言人表示,这些内容违反了平台政策,他们正在积极删除,并对发布这些内容的账户采取相应措施。 |
|
图片由Deepfake合成——网上流传的AI伪造的照片 然而,有网友指出,问题不仅仅在于删除这些照片,更重要的是这些照片根本不应该出现在这些平台上。对此,Meta回应称将继续监测并及时删除违规内容,以确保平台的安全和清洁。 在26日的白宫记者会上,发言人让-皮埃尔对此事表示关切。 |
|
新闻发布会截图 她强调,虚假图像的流传令人担忧,尤其是涉及未经同意的真实人物私密图像。 虽然社交媒体公司在内容管理方面拥有自主权,但政府认为他们在执行规则方面可以发挥更大作用,以防止错误信息和侵犯隐私的内容传播。 让-皮埃尔还提到,网络执法不严对女性的影响尤为严重,她们更容易成为网络骚扰和欺凌的目标。她表示,这不是一个新问题,而是拜登和哈里斯政府一直优先关注的问题。 政府将继续高度重视并采取措施应对此类问题,以确保网络空间的安全和公平。 |
|
我用AI绘画生成的有着东方风格背景的西方骑士 本次起针对泰勒·斯威夫特的“深度造假”诈骗活动很可能是利用文字转语音服务制作的。 这类工具能够将脚本转译成声音,并通过唇语同步程序将其合成至视频片段中。这种技术的应用使得虚假信息的制作变得更加容易和逼真,给公众人物和普通网民都带来了极大的风险和挑战。 三、AI换脸 泰勒·斯威夫特再次成为AI“深度造假”的受害者,这已经不是她第一次被这种技术整蛊了。 早在1月初,一则声称由她本人出演的带货广告在社交媒体Facebook上广泛传播,但实际上,这只是一起精心策划的AI诈骗活动。 |
|
AI生成假视频 在这则广告中,一个貌似泰勒·斯威夫特的虚拟形象坐在钢琴前,热情地向观众推销法国高端炊具品牌Le Creuset。 她声称,由于包装出错,有3000套Le Creuset炊具套装无法正常在线下销售,因此决定转向线上出售,并作为她的“新年大放送”,将向20位忠实粉丝免费赠送一套炊具。然而,这一切都是虚假的。 实际上,这则广告中的“霉霉”并非真实的泰勒·斯威夫特,而是利用AI“深度造假”技术合成的。 通过深度学习技术,诈骗者合成了她的声音,并将其与她的形象和Le Creuset广告片段拼凑在一起,制造出一个看似真实的推销视频。 关于AI视频的合成,现在国内的大模型都可以做到了,前一段阿里通义前问的“全民舞王”也是类似的原因,之前也有一个回答,给大家做参考: 阿里云大模型「让照片跳舞」刷屏朋友圈,有哪些信息值得关注?242 赞同 · 118 评论回答 |
|
涉事公司对此迅速做出回应,强调泰勒·斯威夫特没有参与任何消费者赠品活动,所有关于产品促销的活动均来自官方社交活动。 这起事件再次引发了人们对AI“深度造假”技术的关注和担忧。 四、AI深度造假 那么,什么是AI“深度造假”呢?简单来说,深度造假(Deepfake)是英文“Deep learning”(深度学习)和“Fake”(伪造)的混成词,指利用深度学习技术生成合成图像、音频或视频的技术。 这种技术可以被用于制造看似真实的虚假信息,从而达到欺骗观众的目的。我之前有一个类似的回答可以做参考,无论是通过一张照片,还是通过手绘图,都可以生成图片: AI 拍写真有前途吗?79 赞同 · 10 评论回答 |
|
用AI生成嫌疑人画像用于缉凶,是否可行?63 赞同 · 16 评论回答 |
|
AI生成不雅照片的深度造假(Deepfake)技术,其核心原理根植于深度学习与生成对抗网络(GAN)的复杂交互中。这种被命名为Deepfake的技术,其强大之处在于能够通过庞大的图像数据集进行训练,使模型精确捕捉到人脸的细微特征和纹理信息。 在Deepfake的生成阶段,AI模型会巧妙地将输入的人脸图像与目标图像相融合。通过一系列精细的算法操作,输入的人脸图像被巧妙地替换为目标人脸图像,最终生成一张全新的、逼真度极高的合成图像。 这种技术的精湛之处在于,其生成的图像往往难以被人类的肉眼辨别真伪。 关于AI换脸,我之前也有一个回答,给大家做参考: 「AI 换脸」技术沉向大众,「素人」女性频频受害,治理「技术作恶」难点在哪?普通人应如何维权和防范?77 赞同 · 29 评论回答 |
|
现在Deepfake技术的滥用现象也日益严重。尤其是在未经个人明确同意的情况下,擅自制作和传播他人的不雅图像,这不仅严重侵犯了个人隐私权,更引发了一系列道德和法律的严峻挑战。 人工智能的发展将对世界造成深远的影响,给人类社会将带来非常强力的效率提升,但是就和任何科技发展一样,有利必有弊,我们必须高度警惕深度造假(Deepfake)这种技术的潜在风险,并积极探索有效的监管和防范措施,以确保科技发展的道德底线不被突破。 五、AI绘画修改背景 除了用于图像造假,还有很多用途,我这里做一个简单的演示。下图是我用AI绘画生成的虚拟人像,我采用AI绘画技术进行背景更换,我分别用森林、海滩、雨林、雪地进行演示。 1.原图 |
|
我用AI绘画生成的原始图像2.森林 |
|
我用AI绘画调整的图像3.海滩 |
|
我用AI绘画调整的图像4.雨林 |
|
我用AI绘画调整的图像5.雪地 |
|
我用AI绘画调整的图像 这项技术有很多的可能性,我们需要的是进行法律和技术上的规范,而不是恐惧和限制。 我是德里克文,一个对AI绘画,人工智能有强烈兴趣,从业多年的设计师!如果对我的文章内容感兴趣,请帮忙关注点赞收藏,谢谢! |
每次看到这种问题我就来气 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
在当今这个信息爆炸的时代,人工智能(AI)技术正逐渐渗透到我们生活的方方面面。然而,随着AI技术的不断发展,其在侵犯个人隐私方面的问题也日益凸显。最近,美国流行歌星泰勒·斯威夫特的AI生成不雅照在网上传播,严重损害了她的名誉和形象,引发了社会的广泛关注。这种现象并非个案,越来越多的人开始担忧自己的隐私安全。那么,在AI时代,普通人如何借助司法体制保护自己的隐私呢? |
|
2023年7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部和广电总局公布《生成式人工智能服务管理暂行办法》(以下称《办法》),自2023年8月15日起施行。是全球第一部关于生成式人工智能治理的专门法律规范。《办法》强调了生成式人工智能服务中数据处理的特别要求。一是应当使用具有合法来源的数据和基础模型;二是涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;三是采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。《中华人民共和国民法典》第四编--人格权编中就关于自然人的信息和隐私保护问题进行了规定。《中华人民共和国刑法》包含了对侵犯公民个人信息罪的规定。我们必须紧跟这些法律法规的最新发展,以便更有效地保护自己的权益。 |
|
其次,科技在司法领域的应用也不容忽视。如今,大数据、区块链、人工智能等技术已经广泛应用于司法领域,为解决个人隐私侵权问题提供了新的思路。例如,利用区块链技术可以实现对个人信息的安全存储和传输,从而降低隐私泄露的风险。了解这些技术的应用对于保护个人隐私具有重要意义。 再次我们需要审慎分享个人信息:在网上填写表格、注册账户或参与调查时,谨慎提供个人信息。只在与个人有直接关系的、可信的平台上分享必要的信息。 |
|
最后,如果发现个人数据被泄露或被滥用,及时采取措施,如更改密码、通知服务提供者等,并根据情况寻求法律帮助。如果个人隐私权受到侵犯,可以依法向有关部门投诉或提起诉讼,要求停止侵权行为、赔偿损失等。只有这样,我们才能在享受科技带来的便利的同时,确保自己的隐私安全得到充分保障。 |
根据辟谣第一定律, 大概率是用一个花边新闻打压某个真正有热度的事情的可能性比较高. 2024年了, 不会还有人觉得这种"不雅照"是新闻吧, 想看的人换脸不雅视频都到处都是了. 且看鹰趴~ |
咱就是说,没有deepfake、roop、stable diffusion等等AI换脸、AI绘画工具的时代,拿张不雅照p上明星的脸也没难到哪里去。 没有PS的时代,从海报上剪一张明星的脸,贴不雅照上,然后边缘稍微处理一下也能做到看起来就像真的一样。 我 自己手写诽谤别人的文章 和 打字写诽谤别人的文章 和 用大语言模型生成诽谤别人的文章 本质上没多大区别,唯一的区别可能就是后者写起来速度快点。 结果有些人看到一两张合成的照片就在那里嗞哇乱叫,“AI真的是太可怕啦”、“我们马上就要被虚假的信息淹没啦” AI只不过是增强你的生产力,人本来的那些能力加上AI还是那些能力,只不过被大大增强了。 结果有些人不好好想想自己为什么会看到这种图片,却去怪ai太强大,担心被滥用,然后呼吁别开发AI了,别发展科技了。我觉得不如让他们直接回归农业文明,这种烦恼碰都碰不到。 那些编辑怎么不担心担心他们自己脑子被滥用,会意淫出一些奇奇怪怪的画面呢 鉴定为学新闻学学的。 看到有人说我拉低AI造假的危害性,其实我曾经也是个AI换脸玩家,同学间整天拿对方的脸换来换去P梗图,我们都已经玩脱敏了。我自己很清楚AI被滥用的危害。 但是我们也可以换个角度想,在几十年前有人给你发一个谁的不雅照片你可能就信了,因为那时候你可能还没接触到PS这种工具,你以为有图有真相,图片是绝对真实的,但现在你可能就不太会信,因为你知道AI可以轻松生成这些玩意。 如果所有人都见过了、脱敏了,看到这种照片的第一反应是求证而不是直接转发,那被骗的概率就会大大降低。 |
|
好久没玩Roop了,现在开一下给各位看看 |
工具本身没有对错,错的人使用的人。没有Ai的年代,照样有人ps各种不雅照。 我就不同了,我用Ai请她们演魔幻大片。Ai模型自带的面孔根本出不来她们这样的气场。 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
泰勒·斯威夫特AI不雅照事件让人们进一步看到了人工智能技术在深度伪造领域被滥用所带来的一系列严重问题,不仅侵犯了个人隐私权、肖像权,还可能对个人名誉和社会道德规范造成严重影响。 利用人工智能生成的虚假色情或侮辱性质内容属于违法行为,应当有严厉的处罚措施。例如,可以参考巴西出台的“泰勒·斯威夫特法案”,虽然该法案并非针对AI深度伪造,但展示了国家通过立法打击不良现象的决心。再者社交媒体平台和技术公司需要加强内容审核机制,采用更先进的技术手段识别和过滤深度伪造内容。同时,技术研发方面也需发展反深度伪造技术,比如建立可靠的内容真实性验证系统,以便用户和平台能快速辨别真伪。 明星及其他公众人物遭受此类攻击时,采用有力的法律援助和支持,积极采取法律行动维护自身权益,形成强有力的震慑效应。相关行业也应建立严格的伦理准则和行业标准,约束AI技术的研发和应用,避免技术被用于非法或有悖于公序良俗的目的。 AI技术具有的多面性,需要从法律、技术、教育等多维度入手进行防控,确保科技发展的同时,切实保护公民合法权益和社会公共利益。 |
疯传没有传到我 我表示予以谴责 |
人工智能的正反两面 近期,泰勒·斯威夫特的AI合成「不雅照」在网络上广泛传播,这一事件不仅侵犯了公众人物的隐私,更引发了关于人工智能滥用的广泛讨论。 这并非个别事件,而是技术滥用的一个典型例子,暴露了在赞叹人工智能技术便利性的同时,我们对其潜在道德和法律风险的忽视。 |
|
人工智能的双刃剑效应 人工智能技术,如ChatGPT等聊天机器人,在多种场景下展现了其惊人的便利性和高效性。然而,技术的这一面并不意味着可以无视其带来的潜在风险。例如,在泰勒·斯威夫特的事件中,AI技术被滥用来制造虚假信息,侵犯个人隐私,引发了对AI伦理的深层担忧。 |
|
法律与伦理的追赶 面对这一挑战,我们需要重新审视技术与法律、伦理之间的关系。在许多国家和地区,法律体系尚未完全适应快速发展的AI技术。如何在不抑制创新和自由的同时,有效预防技术滥用,成为了当下亟待解决的问题。 社会责任与公众教育 法律和政策之外,加强公众教育同样重要。普及AI技术的潜在风险,提高公众对自己数据和隐私权利的认识,是预防类似事件的关键。同时,AI开发者和运营平台也应承担相应的社会责任,确保技术的安全和道德使用。 AI技术在育儿领域的应用是一个典型例子。许多父母使用AI助手帮助孩子学习和成长,这本身是积极的。但如果缺乏适当的指导和监督,孩子可能接触到不适宜的内容,或过度依赖技术。因此,教育孩子如何安全、负责任地使用AI,对家长来说至关重要。 |
|
平衡性与事件思考 面对泰勒·斯威夫特事件等挑战,我们需要在技术进步与伦理责任之间找到平衡点。建立全面的法律框架、加强公众教育,并鼓励技术创新,是实现这一目标的关键。只有如此,我们才能最大限度地发挥AI的潜力,同时避免其可能带来的负面影响。 技术创新与伦理约束的协调 技术创新不应脱离伦理约束。随着AI技术的日益成熟,其在各个领域的应用也应遵循相应的道德准则和法律规定。开发者和使用者都应该对其可能造成的后果承担责任。 国际合作与标准制定 鉴于人工智能技术的全球性影响,国际社会应加强合作,共同制定和实施跨国界的伦理和法律标准。这不仅有助于统一标准,也有助于更有效地应对技术滥用问题。 对于这样的事件,我们有什么解决方案 可能的解决方案 加强技术监管:需要通过立法和政策来加强对人工智能技术的监管,确保技术的发展不会侵犯个人权利。提高公众意识:公众应增强对AI技术潜在风险的认识,对于网络上的信息持质疑态度,减少对不实内容的传播。加强技术伦理教育:在AI相关的教育和研究中加入伦理教育,培养开发者和研究人员的伦理意识。推动国际合作:鉴于人工智能技术的全球性影响,需要国际社会共同努力,制定跨国界的伦理和法律标准。 结论 泰勒·斯威夫特AI「不雅照」事件是一个警示,提醒我们在欣赏人工智能技术带来的便利的同时,也不应忽视其潜在的道德和法律挑战。通过全面的法律框架、公众教育和技术创新的鼓励,我们可以更好地利用AI技术的潜力,同时避免其负面影响。 看到这里,麻烦点赞收藏~你的点赞对我很重要! 更多AI前沿资讯和有趣的内容,请移步主页 @佳雯聊AI |
单纯谈AI泛滥留出不雅照,我的看法是不屑一顾。。。 就算没有AI,不雅照就不存在了?想啥呢,不管是在ps时代还是AI时代,不雅照都大量的存在于互联网上。也没见说如何防止ps泛滥呀。 对于这件事我更多的注意力在于AI这两个字母上,啥?AI都可以生成私密照啦?作为一个AI的前沿使用者,对AI的这项功能当然不陌生。但我希望这个热点新闻能引起人们对AI的关注,真心希望每一个人都能注意到这一轮AI革命性的变化,好在这次的AI浪潮中快速成长。 对于AI的发展和用途,可以看看我这篇文章 |
反AI者的逻辑是这样的: 用拳头可以杀人,用棍子可以杀人,用枪也可以杀人。 但是,枪支的存在让杀人的成本变低了,所以枪支是需要管控的。 同理,手绘的方法可以创造虚假照片,PS可以创造虚假照片,AI也可以创造虚假照片, 但AI让虚假照片的创造成本变低了,所以AICG需要管控。 但枪支与AI真的可以类比吗? 其实是不能的。 AI与枪支在本质上存在显著区别。枪支作为武器,其设计和存在的核心目的是对目标造成伤害或致命打击。禁枪的意义在于发生冲突时,把烈度控制在非致命的范畴,避免无谓的伤亡。 而AI呢?是为了造谣和造假设计的专业工具吗?显然不是。使用AI编造虚假信息并非AI的本质属性。如果AI确实可以被用来作恶,那顶多也只能把AI比作一把螺丝刀,大部分时间用来拧螺丝,当然也可以用来捅人。 所以,AIGC问题的核心根本不是是否虚假,因为你只要用AI,就注定生成的内容是虚假的。核心在于你生成的这个虚假内容是不是侵犯了其他人的权益。有什么司法手段能够遏制这种权益侵犯。 说白了,这事儿的本质跟AI没啥关系,是网上传播谣言的成本低,出了事儿很难把犯罪嫌疑人捉拿归案,这才是关键。 回到问题本身。 美国广播公司(ABC)称,本周,数百万人在社交媒体上看到了AI生成的泰勒·斯威夫特不雅照 这里只提到了受到侵害的人的名字,但是对上传非法内容的人只字未提。 如果新闻是:张三上传了李四的不雅照 那不就啥问题都没有了吗? 吃瓜群众根本不需要管不雅照是不是真的,该报案报案,该打官司打官司呗。毕竟,就算是不雅照是真的,张三上传到社交媒体也依然是违法行为。 |
技术没有好坏,滥用的是“我们”。 |
核能很强大,但要是给所有人手上都发一颗核弹随便用,是问会有什么后果呢?AI也一样。 任何工具都需要有特定对应的应用方法,不然就会产生滥用问题,而AI本身具有很强的适应性,但不代表它就是个特例,用不正确的方法去使用AI就肯定是会滥用的。 然而,用户如何获取正确的使用方法,这就是个非常深奥且难解的问题,毕竟连开发人员也没有完全搞懂AI的生成原理,谁也写不出一部全面的说明书,只能依赖于AI与使用者进行磨合。 既然是磨合,那么使用过程中就必然会存在滥用问题,这是无法回避的,监管是非常有必要的。 可真正值得我们思考的问题是这个磨合过程是否有终点,滥用问题是否真的能够抑制,以及对AI的应用是否真的能给人类带来好处。 如果我们以人际关系作类比,当AI技术发展到一定程度的时候,这个磨合可能永远没有尽头,就与我们人类并非真的完全了解他人一样。 AI本身的适应性可能要比人类要好,磨合的结果可能就是大人对小孩那样,但谁都知道这种居高临下的关系是难以持久的,更不要说是以人类为主导,就像小孩把大人耍得团团转一般。 在使用AI的过程当中,比搞明白我们要干什么更重要的就是搞明白我们到底在干什么,这就是搞不清楚AI生成原理所存在的必然缺陷,没有被彻底掌握的AI有可能就是一种精神毒品,会产生严重的致幻性。 现在对于AI应用的研究还非常少,甚至部分场景是否有研究分析的可行性也是未知的,所以我们很难说AI的危害性到底有多大,有多少是我们猜测出来的。 也正因为我们没有充分了解其危害性,所以滥用问题或许是无法抑制的,毕竟连危险是什么都不知道,又怎么去规避危险呢。 要真正掌握如AI这种高度复杂的工具,或许穷举所有输出结果就是最有效的手段,但使用这种手段的成本很可能远大于收益,所以人类或许永远无法真正掌握AI。 我们应该做好一个假设,也就是AI是不可控的,只有AI自己才能控制得了它自身。 事实上,现在的AI技术远没有到成熟的地步,我们不应该过度夸大它的能力,现在的开放使用其实毫无疑问是在把用户当成白老鼠,用大量的交互来成为AI成长的养分,而对人类社会的危害就是我们交的抚养费。 指望用户去调教AI是不现实的,毕竟这需要的知识量已经远远超出常识范围,用户能搞清楚自己在干什么就已经不错了。 人类的理解能力是有限的,AI最终必然是要靠自身的力量来发展下去,所以自纠能力的开发非常重要,而在这个研发过程当中,如何限制人类社会所付出的成本就是非常重要的。 如果不对AI技术的开发与应用加以限制,那么野蛮生长的结果必然是一塌糊涂,而人类社会现在可容不下这样的挥霍,所以如果AI技术不能及时产生正反馈的话,那么限制其发展就是必须的。 |
|
[收藏本文] 【下载本文】 |
上一篇文章 下一篇文章 查看所有文章 |
|
|
股票涨跌实时统计 涨停板选股 分时图选股 跌停板选股 K线图选股 成交量选股 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事 |
网站联系: qq:121756557 email:121756557@qq.com 天天财汇 |