| |
首页 淘股吧 股票涨跌实时统计 涨停板选股 股票入门 股票书籍 股票问答 分时图选股 跌停板选股 K线图选股 成交量选股 [平安银行] |
股市论谈 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事 |
商业财经 科技知识 汽车百科 工程技术 自然科学 家居生活 设计艺术 财经视频 游戏-- |
天天财汇 -> 科技知识 -> 从 ChatGPT 到 Sora,为何 OpenAI 能连续打造出王炸级神器? -> 正文阅读 |
|
[科技知识]从 ChatGPT 到 Sora,为何 OpenAI 能连续打造出王炸级神器? |
[收藏本文] 【下载本文】 |
或许,能打败OpenAI的只有OpenAI。 2022年底,OpenAI推出人工智能聊天机器人ChatGPT,开启了大模型领域的“竞速跑”模式。202… |
资金+团队都很重要 OpenAI团队人虽然没有特别多但凝聚力很强,效率很高,不存在外行指导内行的事情发生 而且一直能源源不断得到投资,当然这个也是相辅相成的,很多公司也不缺钱,但搞出来的东西确实就差距很大 OpenAI目前有微软扶持,并且奥特曼又是特别激进,到处拉投资,到处找融资的那种风格,肯定是不缺钱的 AI的算力投入是非常重要的,且非常贵,Meta已经有50万块GPU,微软按照百万级别去下订单 这样的量应该是国内的所有人工智能公司加在一起的量,但他们是一个公司就这样的量 所以英伟达最近股票大涨,利润大增,就是各种企业都在疯狂买他的产品,都在砸钱投AI 最近奥特曼还在寻找相关芯片领域7万亿的投资,虽然最终不一定搞的到这么多,但可以看出来,他有极强的拉投资能力,可以一直源源不断的满足OpenAI资金投入需求 |
|
单纯的砸钱不一定就可以搞出来顶级的产品,需要这个团队也非常热爱这个事业 Sora据说共有13个作者,团队成立不足一年,且团队有00后村镇,之前他们的论文还因为缺乏创新被拒 他们的团队看起来简单,但不简陋,且肯定都是认真做事的人 有那么几个核心做事的人,其他一些人帮着一起做,这样效率比一大群人 但没有核心,且都喜欢混,效率低,管理层不懂还喜欢瞎指挥的强 |
|
网上也有人分享过OpenAI工程师的工作状态 他们都非常努力,但不是被迫的,就是他们很热爱这个事情,所以自己会安排好时间,每天非常努力的做 这种自驱力效率是非常高的 |
|
团队非常非常重要,资金也很重要,但他们也不是不赚钱 因为OpenAI完成了最新的这一笔交易以后,估值大幅提升了 OpenAI员工也可以套现获利,员工可出售老股,该公司将通过风险投资公司Thrive Capital 牵头的要约收购出售现有股份,也就是说该交易允许员工将其在公司的股份套现 在去年的时候风险投资公司Thrive Capita还有一批资本,同意通过要约收购购买OpenAI 股票,那时候估值是300亿左右,目前是800亿,增长非常快 员工也可以通过出售老股赚的非常多 这些都是动力,爱好,梦想,团队的凝聚力,还可以赚大钱,然后有源源不断资本投入他们 这样综合起来就导致了这个公司总是可以拿出来很强的产品 |
最近华尔街冷落特斯拉,但是却偏爱英伟达。以至于只要英伟达股价上涨,特斯拉就开始下跌;只要英伟达股价下跌,特斯拉股价就会开始拉涨。为了弄清楚这个有趣的现象,我们来严肃但直观地分析现在AI领域的四大重点问题: 为什么马斯克通过 FSD(自动驾驶) 来实现 AGI(通用人工智能) 的思路不被华尔街看好? 2. 到底 大模型(CHATGPT) 好,还是 专业模型(FSD) 好? 3. CHATGPT 是怎么开发出来的,中国还有没有机会?中美普通人面对AI浪潮的时候有什么不同? 4. 这波 AI 芯片的浪潮什么时候开始衰退,衰退的标志性信号是什么? ------------------ 首先我们要记住,大模型是归纳推理,而专业模型是演绎推理。我们先记住这句话,后文你会慢慢体会到这里面的重大区别。 我们先来简单易懂地聊一聊 CHATGPT 这种大模型是怎么开发出来的。 你可以把 CHATGPT 理解成为一个高度复杂的统计模型或者统计算法。虽然复杂,但它本质上是一个基于归纳推理的概率问题。其实 CHATGPT 和大脑神经元的运作过程是类似的,最终都是经验和概率。具体来讲,当你在 CHATGPT 输入一段话的时候,它可以通过概率来预测你的下一句话最有可能是什么。 比方说,我输入问题 "在早上的时候,加拿大人最喜欢吃的食物是什么"。模型会根据概率来推算结果。假设面包的概率是50%,土豆的概率是60%,牛奶的概率是30%。模型觉得土豆的概率最大,那么就会输出 "土豆"。当然,这个概率计算的过程并不是实时的,而是 Open AI 已经算好的。在 Open AI 的模型里面,"加拿大人" + "早餐" + "土豆" 这个组合复现的频率最高,所以模型会自动把这个组合作为一个大概率正确的结果 (不是绝对正确,是大概率),存放在模型里面。而当另外的人询问相似问题的时候,模型会自动输出 "土豆" 作为一个归纳推理的结果。也就是说,模型把互联网上所有的答案都归纳总结了一遍,最终得出了一个结论:"土豆" 就是加拿大人最爱的早餐。 整个模型里面,最关键的就是这个权重的分配,也就是上面 50% 60% 30% 这些数是怎么来的。这些数字是通过 AI 芯片,辅以天量的数据一点一点硬算出来的,所谓大力出奇迹。具体来说,如果来自 "推特 / 油管 / 新闻 / 其他社交媒体" 上面的数据都说加拿大人喜欢吃土豆,那么 AI 模型可以捕捉到这些数据,借助超强算力,算出规律,进而自动完善自己的模型。也就是说,只要你把市面上高质量的数据喂给 AI模型和 AI服务器,他就会通过 unsupervised learning 的方式,消耗大量的时间和算力,慢慢归纳拟合成一个高质量的模型。这个模型会给不同的结果配以不同的权重。 说到底,大数据模型的关键就是两个:超强算力和天量数据,缺一不可。这也是为什么美国卡中国芯片脖子的标准就是算力。超过某个算力,就不允许卖给中国。 ------------------ 为什么说 CHATGPT 和人类脑部神经元的运行模式类似?我们不从过于专业的角度来聊这件事了。如果你有兴趣,去搜索专业的论文就会发现,CHATGPT 本身就是在模拟人脑神经元的运行模式。我们从比较浅显易懂的角度来讲: 人类是如何判断小猫是小猫,小狗是小狗的?没有人在婴幼儿的时候告诉你:"两个耳朵,有胡须,有四条腿,有尾巴的就是小猫"。没有人这么和你说过。但是!有人会教你什么是小猫。这个学习的过程十分的简单。你爸妈见到小猫的时候,指给你看,并且告诉你:"你看,这就是小猫"。你见的多了以后,大概在脑子里面存下了一个模糊的印象,大概什么东西看起来像小猫。这全部都依靠大量的生活经验。大量的经验对于 AI模型来说,就是大量的训练。 同样的例子,如果你把几百万张小猫的图片喂给 AI 模型,它就会化繁为简,找出其中的共同点。比方说小猫大概率有两个耳朵,大概率有胡须,大概率有尾巴等等。就是这样通过统计和概率的方式一点一点拟合出来。 这个其实就是概率!CHATGPT 在学习的过程中也是这样一点一点进行的。在初期阶段,需要人为辅助机器学习什么是小猫。你输入几百张照片,告诉他这些照片里面哪些是小猫,哪些不是小猫。这个阶段是 supervised learning。等到模型足够智能的时候,模型就可以开始自我学习,自己修正自己的模型和参数,这个阶段就叫做 unsupervised learning。自我拟合可以进化到非常复杂的阶段。现在已经没有人能够完全理解 CHATGPT 在底层方面是如何运行了。有点类似于 "黑盒" 。人们只能够大概知道 CHATGPT 是怎么运转的,却无法知道更加详细的底层信息。就比方说,我们知道小猫大概是什么样子的,但是没有人知道,具体尾巴多长算是一只猫。我们都知道尾巴10米长的肯定不是猫,尾巴1厘米短的也不是猫,但是具体多长多短算是猫,我们人类自己也不清楚,同样 CHATGPT 也不清楚。我们只知道是一个大概的范围和概率。具体是多少,只有模型自己知道,我们是没有具体参数的。 ------------------ 接下来我们进入第一个问题,为什么 FSD(自动驾驶) 这样的模型无法形成 AGI(通用模型)?如果标题再劲爆一点,为什么特斯拉不如英伟达 (我后文说了两者都很重要)? 简单来说就是 overfitting。当一个模型过于专业的时候,他就会过度拟合。具体来讲,自动驾驶的模型会过度专注在驾驶领域。尤其是攸关性命安全的自动驾驶,FSD 这种专业模型不会去学习一些无关紧要的东西。比方说 FSD 没有必要去学习 "怎么画一幅抽象的画" 这种无关紧要的问题。如果真的去学习这种无关紧要的东西,反而会影响自动驾驶的准确定。所以,FSD 需要的不是这些文字方面或者流媒体方面的拟合,相反,FSD 需要的是街道数据的拟合,行人数据的拟合,交通标志的拟合等等大量 3D数据的拟合。除此之外,还要能够链接各种传感器,和控制各种精密机械。 我们换一个角度来讲,你没有办法让大模型去直接操控一辆汽车。换句话说,你也没有办法让大模型去做所有专业的事情。CHATGPT 只能够专注于 文字 / 音频 / 视频 / 代码等等这些原本就存在互联网的数据。但是某些现实中真实存在的 3D 数据,CHATGPT 并没有渠道获得他们。即便有这些数据,CHATGPT 这种通用模型也没有办法控制机械结构让汽车行驶在道路上,因为操作精密机械必须需要机器精准的数据。CHATGPT 众所周知,在精密度的表现上很差,尤其是数学。 特别强调,数学是演绎推理。 历史是归纳推理。 让历史去控制汽车,还是让数学去控制汽车,想必大家自己就有答案。 ------------------ 其实人类的语言本身就是大模型。我们可以通过语言来模糊地描述整个世界,我们可以用语言写诗;我们可以用语言来描述复杂的微积分,用来解释牛顿第一定律;我们还可以用语言来写非常复杂的科学论文;我们还可以用语言来写抽象的小说和戏剧。但是,我们需要数学,这种纯粹的推理模型,来解决一些精密的论证过程。用语言来替代数学,是不可能的。但是用数学去写诗,也是不可能的。语言就是大模型,就是 CHATGPT。数学就是专业模型,就是 FSD。CHATGPT 和 FSD 就像是语言和数学一样,不可以互相替换,也都缺一不可。 人类一开始学习语言的时候,都是婴幼儿阶段,并不会学习语法。但是通过不断的重复和练习,我们自己就学会了语言。所有人都能学会母语,不论智商高低。进而,如果所有人都说一样的语言,那么我们就会通过进一步的归纳,创造一套语法。人类语法的创造过程就和创造 CHATGPT 是一模一样的。通过 归纳 / 总结 / 重复,就会自然的诞生一套 CHATGPT 专用的语法,而这个语法就是大模型本身! 一言以蔽之,大模型就是 "大力出奇迹"。 ------------------ 相比之下,FSD 就是一个推理模型。在交通规则的约束条件下,通过识别道路的真实情况,来推理出复杂的解决方法。这本身是一个由简入繁的过程。交通规则其实很简单,绝大多数人类都可以理解交通规则,都可以无障碍地行走在大街上。但是大街上的真实状况却是千变万化的,我们很难用一个模型去适配所有的特殊情况。老司机从来不会告诉你:"遇到绿灯就闭眼开"。相反,老司机永远会告诉你:"即便是绿灯,也要降低速度,观察周围情况,再视情况而定"。 由简入繁本身就不是统计学擅长的事情,而是推理擅长的事情。学过统计学的都知道,为了得到一个模型,我们经常会剔除掉一些特殊的情况,进而算出一个大概正确的结果。但是自动驾驶本身不能随意剔除特殊情况,因为随便忽略任何特殊情况都会造成重大的安全隐患。 推理就擅长处理复杂的情况。学过数学的都知道,给你几个简单的定理和公式,你就可以推导出来更加复杂的公式,解决非常复杂的应用问题。简单来讲,FSD 这种专业模型,基本上就是由简入繁。而 CHATGPT 这种大模型,基本上就是由繁入简。 强调!!! FSD 和 CHATGPT 本身在做完全相反的两件事。FSD 是基于简单的交通规则,推导出一个非常复杂的模型。CHATGPT 则是通过天量的复杂数据,归纳出一个大概率正确的简单模型,并且把这个简单模型存储起来,以备他用。 ------------------ 举一个实际生活中的例子。尝试使用过 CHATGPT 的朋友都知道,你问 CHATGPT 数学问题的话,它经常出错。这就是因为 CHATGPT 只是在做模糊的概率运算,并不能够做复杂的演绎推理。 在自动驾驶这种专业模型领域呢?使用激光辅助自动驾驶的汽车,表现得往往比视觉辅助自动驾驶的汽车要好很多。这就是区别。专业模型需要的就是 快 / 准 / 稳,所以激光雷达自动驾驶在目前就是最优解。 大模型好还是专业模型好?其实这两者永远都不可能替代对方。就像语言永远无法替代数学一样。 ------------------ 不管是大模型还是专业模型,我们可以看出,算力是核心的核心。其实大模型本身并没有特别高的技术难度,并不是不可逾越的大山。我可以这么说,任何公司,只要有足够的算力,足够的时间,足够的数据,足够的电力,都能够推导出很好的大模型。但是在现实世界中,算力和数据这两个就已经是很多公司的致命弱点了。很多不懂行的老百姓会觉得美国的人工智能可以碾压中国,但其实技术上面是不存在壁垒的,存在壁垒的其实是芯片和数据。 我们先拿欧洲举例。欧洲虽然能够生产光刻机,但是欧洲并没有像样的芯片生产企业。想要获得高性能 AI 芯片,还是要向台积电下订单。除此之外,欧洲其实并没有自己的互联网数据积累。欧洲连像样的大型互联网公司都没有。他们都在使用美国开发的互联网产品。微软 / 谷歌 / 推特 / 油管 等等都是美国公司,甚至连外卖公司,都是美国的 Uber。欧洲其实正在给美国公司无偿地提供各种各样的训练数据。美国公司可以利用这些数据开发大模型,但是欧洲却没有这些数据的使用渠道。 除此之外,全世界使用英语的人口最多。因此互联网上英语内容的数据也是最多的。获得英语数据比获得 法语 / 德语 等其他语言的数据要容易得多。因此英语大模型训练起来也会更容易。 中国的难处是在算力上面。中国有很多世界顶级的互联网公司,是唯一有机会和美国互联网公司抗衡的团体。欧洲已经无能为例了。如果光刻机能够卖到中国,那么中国也可以生产出廉价的人工智能芯片。可惜的就是我们没有办法买到最先进的光刻机。虽然我们在进步,但是对手也在进步。这就会对中国造成很大的威胁。 中国还存在一个重大的威胁,就是隐私数据的壁垒。在 CHATGPT 秘密开发的过程中,Open AI 并没有告诉别人,他们将会使用别人的信息用来开发大模型。所以很多人在不知情的情况下被 Open AI 拿来搞训练了。我们的隐私数据都喂给了 Open AI。他们拿着研究好的大模型赚钱,但我们却无法享受到分红。某种程度上,我们所有人的隐私权和知识产权都受到了侵犯。现如今 Open AI 已经开发出完成了强大的 AI 模型,此时此刻美国政府再入局,颁布新的安全隐私法律。此时此刻中国再入局,就没有办法获得高质量的训练数据了。这其实是无形的霸权。 没有了数据,中国更难开发大模型。 ------------------ 有意思的事,中国这种擅长归纳推理的国家,缺热衷于开发需要演绎推理的专业模型。而美国这种擅长演绎推理的国家,现在却热衷于开发需要归纳推理的大模型。中国已经再很多工业领域使用了专业的模型,用来满足各种各样的实验和生产需求。 更有意思的是,中美两国都在开发能够毁灭自己经济的 AI 模型。大模型对服务业的威胁是最大的,大模型的推广会摧毁美国的服务业就业。而美国却偏偏喜欢搞大模型,而不是专业模型。专业模型对制造业的威胁是最大的,专业模型的推广会摧毁中国的制造业就业。而中国缺偏偏喜欢搞专业模型,而不是大模型。 唯一可以确定的事,就是大家都需要 AI芯片。这也就是为什么英伟达的股价会持续飙升的根本原因。不论是大模型还是专业模型的都需要算力的加持。 ------------------ CHATGPT 在实际应用层面已经证明了模拟人脑神经元来模拟人类智慧的道路是正确的。这个就是 CHATGPT 最伟大的突破。 ------------------ 那么,这波 AI 浪潮什么时候开始衰退?衰退的标志是什么呢? 通过我们上述的分析,大家也都清楚了,AI 时代最重要的就是算力。算力依托于 AI 芯片。现在之所以芯片公司的市盈率这么高,就是因为没有几家公司能够生产出来 AI 芯片。而这一切的根源就是中国无法得到最先进的光刻机,所以中国没有办法大量提供市场需要的芯片。 现在的状况和2000年初互联网泡沫几乎一模一样。2000年初的时候大家觉得互联网是一个颠覆性的产品,所以大家一股脑的疯狂投资。结果互联网服务的价格越来越低,"上网" 这件事从一个奢侈行为逐渐变成了家喻户晓的日常。所有人现在都可以轻松的使用互联网。互联网从此走下了神坛。 未来 AI 会和互联网一样,成为一个新基建。AI 在将来会是一个全民普及的服务,就和现在的互联网一样随处可见。到时候 AI 芯片就会和白菜价一样,唾手可得。 在 AI 芯片白菜价的年代,最贵的就不再是 "铲子",而是服务了。 举个例子,现如今的互联网时代,互联网这项服务本身越来越便宜,上网费用越来越低。但是通过网络提供的服务和商品越来越多。现在通过移动互联网几乎可以买到全世界任何一种服务和商品。借助互联网,苹果 / Meta / 亚马逊 / 谷歌 等等公司都迎来了爆发式增长。 在未来,不管是大模型还是专业模型,最重要的依托就是数据。小企业会变得非常难以存活,因为他们没有数据积累。 未来真正有投资价值的将会是 AI 应用。但是!但是!但是!现在离芯片白菜价的时候还远。我们还没有到泡沫破裂的时候,现在还在泡沫堆积的阶段。 未来可能会出现新的融合,也就是大模型和专业模型的融合。类似于用大模型开发一个专门服务法律和会计业务的模型。但长期来看,以人类的智慧,还没有能力用一个模型解决所有大模型和专业模型的问题。 ------------------ 未来 AI 浪潮衰退有三大标志: 台积电放缓先进制程的投产节奏,推迟投产时间;Intel开始逐步追赶台积电,投产2纳米及以下芯片;中国开始规模化量产2纳米及一下芯片。 当然中间可能会发生一些其他的事情改变走向,比方说台海局势。但是,总体来说上述三件事情一旦发生,就标志着 AI 浪潮彻底从芯片时代转变为服务时代。泡沫在那时就会破裂。但是也将开启一个全新的未来。 |
题目有问题,对于部分人来讲,OpenAI做的这些东西全都是虚的,什么叫王炸级别的东西,起码得有个实体,然后最好真的能炸,要么自己本身就能炸,要么能发射能炸的东西。 而ChatGPT,不过是个聊天工具;而Sora更是只能生成一些莫名其妙的视频。 这算是王炸级别的神奇吗? 完全不算,就连个卫生纸都造不出来。 但如果抛开虚实的争吵。 OpenAI的从22年底发布的ChatGPT,到现在的Sora,每一个都是重磅炸弹。 但更重要的是他们每次发布的产品,基本上一年前就做出来的,只不过调整花的时间很长,GPT4花了1年时间来调整;Sora也差不多一年。 特别是Sora这一年的调整期,各种视频生成公司大放异彩,比如runway,比如pika。 特别是Pika的发布,那段时间内各种营销、公关帖子不断,各种美女学霸等。 |
|
但实际上Sora在23年的前半年就实现了类似的功能,甚至还要更好。 他们是等到了Sora可以比较稳定的生成1分钟的视频的时候才选择了发布。 这一次发布真的是硬控了所有人很多天,有点儿不讲武德的意思。 大家都在10秒以内的视频生成领域快乐的玩耍,你超过我这一点儿,我比你那一点儿强。 |
|
真的是其乐融融,快乐的融资,快乐的搞钱。 但是Sora打牌直接扔炸弹,你这让别人怎么玩? |
|
其实最后说到底,现在的AI已有的技术大家都有,唯一的区别就是OpenAI可以更快的跑通完整的技术。 为什么openai可以跑通所有AGI技术栈?450 赞同 · 94 评论回答 |
|
但OpenAI可以独树一帜,最大的原因就是OpenAI深耕AGI这个领域很久了,特别是大模型LLM这一条,基本上之前所有人都认为这条路走不通,真的没多少人真正的觉得scaling law的可行性,以及真的有人花真金白银,几百万美金一次去训练大模型。 说实话,OpenAI敢想敢做,且持续深耕,绝对是这几次AI新产品极其重磅的主要原因。 Google他们不是没有钱,而是不觉得LLM这条路能走得通。 |
|
你看Google在ChatGPT大火之后迅速推出Bard,因为他们是真的急了,但是现场演示翻车后,股票大跌。 |
|
这些公司也不是追不上,但是问题是OpenAI深耕多年,你的初始速度和加速度都不如OpenAI,其他公司很难短时间内追得上。 还有一个恐怖的点是,GPT4是一年前就做出来的东西,微调了一年才发布;Sora据说也是23年3月就做出来的东西,差不多过了一年才放出来。 OpenAI每次发的东西基本上都是调整了很久才发布,发出来可能就是王炸。 最后一点儿,可能荣誉感也很重要,在OpenAI做的工作,可能会载入到AI发展史,甚至更宏大的历史,这种感觉或许也是OpenAI如此牛逼的原因之一。 |
很好的问题,谈谈自己的看法。 我认为OpenAI能成功且连续出王炸,主要是OpenAI的两个坚持。 首先是信念上的坚持,那就是AGI(通用人工智能)一定会实现。 |
|
既然是做AGI,那就不做那些只是刷刷点的工作,而是要做像ChatGPT和Sora这样更通用更智能的工作。OpenAI的很多工作比如CLIP和DALLE往往能引领一个新的方向或者领域。 然后是方法的坚持,那就是scaling law:更大的模型+更多的数据+更强的算力带来性能收益。从只有100多M参数的GPT-1到有T级别参数的GPT-4,这是scaling law最好的证明。而Sora最大的提升主要也是来自transformer架构的scaling。 |
|
至于其它因素,如人才和资金,这也不是OpenAI独有的,大厂谷歌和Meta也不缺人也不缺资金,它们只是必要条件而已。 我个人不确定AGI会不会真正到来,但是OpenAI一定是距离AGI最近的一家公司,期待它持续带来更多惊喜,真正实现AGI,也真正Open。 |
|
更新一下OpenAI员工分享的“开发者们总是问我,为什么他们应该把赌注放在OpenAI及其平台上” |
|
原因很简单,是四点: Compute 算力: |
|
计算能力的扩展规律正在得到验证,这意味着我们可以通过更大的模型持续改进事物(同时在许多情况下使它们在推理上更有效)。我们将继续制作最好的模型,并为开发者提供更多的灵活性。 没有人像我们这样大规模地投资于计算能力。 其他人刚刚醒悟,意识到他们需要数以十万计的GPU。 像Sam和OpenAI中的其他人多年来就已经知道这一点。 此外,大多数平台现在才刚刚达到规模(或仍在朝着这个方向努力),而我们已经在生活和呼吸平台扩展问题一年半的时间了。 这些战斗的疤痕和吸取的教训是重要的。 Mission 使命: |
|
使人工通用智能(AGI)惠及全人类的使命要求我们为开发者构建平台。简单来说,我们每天醒来都想打造一个开发者能够对其关键任务基础设施投资并感到自信的平台。 我们做出的每一个决策都考虑到了开发者和建设者。 这一点在许多小事上都有所体现。坦白说,尽管我们努力做到完美,但我们并不完美。但我们正在尝试,我喜欢认为我们正在成功地打造一些开发者喜爱的东西。 Team 团队: |
|
虽然经常被谈论,但OpenAI的人才密度仍然被低估了。我们团队中的人才参与了一些有史以来最成功和对开发者最友好的产品的构建。 每天上班,知道我们有这么多人全心全意地帮助开发者取得成功,这有时真的会让我微笑。 作为一名开发者,知道有人在努力让我的生活变得更好,这是一种很棒的感觉。 Focus 专注: |
|
我们只有一个目标,那就是创造人工通用智能(AGI)并使开发者能够利用它构建产品和服务。我们不是在尝试卖广告、建立社交网络或最大化收入。 这在我们能够快速移动以及我们能够进行的规模投注上非常重要。 这就是我们所做的,当有人把我们从这个目标上拉开时,我们会花费大量的精力将我们带回到重要的事情上:构建开发者喜爱的东西。 另外一个额外的优势是Listening 倾听: |
|
正如你们可能从每次发布中看到的,我们真的很努力地改进那些人们不满意的地方,让它们变得更好。 在某些情况下(例如模型的惰性),这可能需要一点时间,但我们真的在幕后全力以赴。 请继续提供反馈,并让我们知道你们需要什么才能成功。?? 就像网友评论的那样: |
|
|
橘生淮南则为橘,生于淮北则为枳 OpenAI 主要核心力量是华裔和中国留学生,为中国人就不行呢?很多答主写的很好,回答的很全面,但缺一个维度。 我刚刚灵光一闪,突出想起我在外企工作的情形,很有意思现象。两个中国人很难共事,或者中国人领导中国人也难干成事。换成老外领导中国人,立马这个团队就能提升战斗里。那个那个老外领导事个打酱油的都行。 刚刚还跟我同事聊天,就谈到这个问题,我说如果当时,让我们两个一起合作,肯定啥事都干不成,我们两个回相互挖坑,下绊子,他也呵呵笑。上面给我们安排一个不管事 ,协调的打酱油外籍领导,这领导啥都不管,怎么干,任务,进度都不管我们,我们俩竟然合作的很好。 这就是大家说的,一个中国人是「龙」 ,两个中国人是「虫」 。 我有一想,中国几年前历朝历代不都是这样吗?一汉人主体的朝代,窝里斗,疆域从来没有扩大过。反而外族统治中原,每一次大融合之后,疆域不断扩大。 例如明朝,两波汉人结党,往死里斗。你发现没有,满族统治的清朝,两个汉大臣就能齐心协力。 所以在硅谷,印度阿三领导我们都可以,甚至黑人,但是要中国人领导中国人,或者两个平级的中国人在一起,是干不成事的。 |
|
|
|
|
Sora 的发布有几天了,但是现在仍然是各种群讨论的焦点,加上经济和资本市场的表现,普遍的情绪比较悲观。 Sora 这个东西,在美国也还处于概念阶段,只是概念逻辑确实很先进。真正形成碾压式降维打击需要AGI+AIGC,AGI需要一个更底层的世界模型,这个世界模型包含物理世界和意识世界,如果颗粒度足够小,那么需要的算力是恐怖的,目前人类的电力供给不一定供的上。技术发展可能需要不断的各个维度的螺旋式往上转,我个人是没那么悲观… 人类文明史上没有哪一次垄断是永恒的! 编辑于 2024-02-24 12:26?IP 属地吉林 发条带图评论 |
你敢信?短短几个月,我们居然卡住了“Open AI”的脖子 最近Open AI推出的大模型Sora火了。 在我的认知里,这跟我们这里八竿子打不着,所以一直没搭理。 但架不住朋友问得多,今天我看了下相关材料。 好家伙! 原来我们能卡OpenAI的“脖子”....... 比如:来自绵阳的东材科技。 《四川日报》在前天的深度报道,为其站台,喊出石破天惊的一声: Sora关键原材料之一就来自这里。 “?” 大模型跟一个做实体原材料的公司能有啥关系?我没记得Open AI有我们这的供应商啊? 带着疑问,我试图去理解他背后的逻辑,但看完脑子更是——嗡嗡的。 四川日报在报道里黑字白纸的表示: “东材科技坐落在绵阳市游仙区,他们生产的材料双马来酰亚胺树脂具有较高壁垒,国内几乎没有同行业公司生产。” ”众所周知,Sora或者别的什么大模型,都离不开英伟达的显卡。” “而东材科技是英伟达公司最重要原材料供应商之一.......” (报道似乎担心泄露商业秘密,介绍到这里就停止了) 什么情况?我怎么不知道?这是条大线索啊。 我继续挖掘,在研报中发现了令人喷饭的真相。 报道里所谓的“Sora关键原材料之一”其实就是东材科技生产的双马来酰亚胺树脂BMI(后文简称BMI)。 而BMI广泛应用于高精度打印,高速覆铜板时需要用的材料。 因此,东材科技的甲方爸爸,包括:台光、松下等企业。 而好巧不巧的是台光、松下等企业,又是英伟达GPU板组,OAM与UBB两个原件的供应商。 而Sora大模型又离不开英伟达的显卡...... 所以,“Sora关键原材料之一就来自这里。” 这逻辑....... 我理解了,为啥大家越来越支持张雪峰。 |
|
现在的媒体简直比当初营造“各地争夺孙悟空故里”、“抢夺诸葛亮故乡”还要吊诡! 当然,除了东材科技,当然还有很多企业都跟上了热点。 比如,虹软科技,在Sora发布仅仅3天后就宣布: 自家的Arc muse引擎迎来重磅升级,支持面向商拍的商业视频自动生成。 有的公司虽然还没有产品发布,但表示技术还是有的。 比如,科大讯飞表示: “自家已经拥有相对基础的文本生成视频功能。” 汉王科技不甘落后: “我们拥有包括视频在内的多模态识别技术。” 我盘了一下,就这么"蹭Sora的A股上市公司多达——60+家!” 粗粗扫了一遍,我内心有个声音: “Sora到底是我们的,还是Open AI的?” 与之对应,我还有一个疑问: “你们有,为什么不早说?” 我记得很清楚,上一次ChatGPT发布的时候,寒武纪一度涨到了271元/股。 结果到了2024年2月,股价跌到了108元/股。 倒是5个创始人套现了40个亿。 360就是宣传ALL IN AI的公司,股价在一飞冲天后,周鸿祎开启了“离婚减持”的新套路。 昆仑万维青出于蓝而胜于蓝,同样借着chatgpt的东风,在涨幅超过70%后,创始人离婚,前妻套现22个亿。 再然后把这22个亿借给公司吃利息,真正做到了一鱼两吃。 在有前车之鉴,又有新的演绎背景下,这么多Sora概念股要不要参与? 我其实不建议参与,道理不复杂。 一方面没有一个逻辑经得住推敲。 另一方面大家都“看破不说破”,玩得就是击鼓传花,但凡入局早的,现在都准备“咣当”一声卖出去,落袋为安。 但你一定要参与。 那我只能祝您好运,请一定注意灵活的身法,与销魂的跑位....... 烦请点击、加入:我的圈子 这应该是你人生里,值得投入的一笔。 |
归根结底还是山姆奥特曼本人优秀,和马斯克封神的逻辑一样。 你要说OpenAI的成功是建立在OpenAI所有天才般的工程师、科学家身上,我不否认,可是为什么微软也有这样的精英团队、谷歌也有这样的精英团队、FB也有这样的精英团队、亚马逊也有这样的精英团队........最后就是OpenAI杀出重围了呢? 当年很多马斯克黑为了贬低马斯克,各种"SpaceX的成就是SpaceX有优秀工程师"之类的观点,这些观点如果正确,为什么波音、诺格、ULA等美国大型航天企业没有率先研发出可回收火箭并取得一系列成就呢? 很多人好奇为什么美国的电影总是会有一些个人英雄主义,因为美国的评价体系有一个至关重要的控制变量评价法。 如果一家企业不比其他企业更有钱、招揽更多的人才、更宽松的政策.......那么根据控制变量法,那么就是企业的领导者优秀。 这种控制变量法还引申为,如果同样的环境做的更好或者更差的环境做的一样好,那么这大概率是这个人成为了关键变量。 OpenAI可以招揽的哈佛、麻省理工、耶鲁、斯坦福等人才,其他美国科技企业也能招揽,SpaceX可以招揽的哈佛、麻省理工、耶鲁、斯坦福等人才,其他美国科技企业也能招揽,为什么就OpenAI、SpaceX等企业在各自的领域"反杀"巨头了呢? 美国提倡的这种控制变量法有两点好处,第一防止部分专家学者对着箭落处画靶子,第二是以事实论英雄避免务虚的无意义讨论。 |
Sora到底有多炸裂,四款视频大模型5大场景测评!从ChatGPT到Sora,OpenAI为何能连续打造出“王炸级神器” |
|
或许,能打败OpenAI的只有OpenAI。 2022年底,OpenAI推出人工智能聊天机器人ChatGPT,开启了大模型领域的“竞速跑”模式。2024年2月15日,随着视频生成模型Sora的横空出世,OpenAI再度掀起热潮。 Sora将视频生成内容拉到了一个全新的高度,逼真的视频效果刷新了社会对AI能力边界的认知。它的问世,就如同一枚深水炸弹,瞬间引爆全球科技圈。 不少业内人士直言,Sora的到来标志着一次质的飞跃。英国皇家工程院国际院士、欧洲科学院院士许彬(Pan Hui)在接受《每日经济新闻》记者采访时表示,“目前Sora在视频生成品质上面绝对是无可匹敌的。Sora生成的视频可以从小特写切大全景,变换不同的机位。” 值得注意的是,文生视频大模型并不是一条全新的赛道。为了更直观地呈现Sora的文生视频能力,《每日经济新闻》记者采用OpenAI官方公布的5条Sora视频提示词,对Pika、Runway和PixVerse的文生视频能力进行了测试,并将生成结果与Sora视频进行了对比,测试场景涉及人物特写、电影预告片等5类。 对比结果显示,Sora在生成长度、连贯性和视觉细节方面表现出明显的优势,几乎实现了“降维打击”。 从ChatGPT到Sora,为何OpenAI能连续打造出“王炸级神器”? 加州大学伯克利分校计算机科学 PHD、知乎作者SIY.Z分析称,“如果必须用一个词来展现OpenAI最核心的技术,我觉得是scaling law——即怎么样保证模型越大,数据越多,效果就越好。”从文本生成模型 GPT、文生图模型 DALL·E,到文生视频模型 Sora,OpenAI或许已经打造出了一条自己的AGI通用技术路线。 |
|
5大场景实测: Sora在时长等4个维度上实现“降维打击” |
|
2月15日,OpenAI正式发布了首款文生视频大模型Sora。演示视频一经发布迅速引发业内热议,部分网友更是哀嚎,“要失业了”。 华大集团CEO尹烨在一篇文章中写道,“从这一刻,可拟合更多真实物理定律的数字孪生世界走进了人类社会。我愿意将其类比为,开启了AI发展的牛顿时代。” Sora的文生视频能力到底有何突出之处? 由于Sora并未开放测试账号,因此《每日经济新闻》记者采用OpenAI官方公布的5条Sora视频提示词,在街头、卡通动画、人物特写、动物特写以及电影预告片这5大场景下对同类模型Runway、Pika和Pixverse进行了效果测试。同时,将OpenAI官方公布的Sora视频与前述3个文生视频大模型进行了对比。 效果测试对比发现,Sora在生成视频的时长、连贯性和视觉细节方面表现出明显的优势,几乎达到“吊打”的程度。 英国皇家工程院国际院士、欧洲科学院院士许彬(Pan Hui)在接受《每日经济新闻》记者采访时也表示,“Sora的核心优势可以总结为,生成高清晰度的长视频。不论是清晰度,还是时长,目前都是第一。OpenAI更专注在照片写实主义的技术,虽然现在去讨论它会否引领新浪潮可能为之尚早,但是目前Sora在视频生成品质上面绝对是无可匹敌的。” 不过,需要说明的是,本次效果对比仅基于5个场景下的提示词,场景和提示词的数量均较为有限,并且不同模型生成的结果可能存在随机性。 一位技术从业者也向每经记者表示,尽管Sora与其他文生视频大模型的结果对比非常强烈,但不排除Sora的视频是OpenAI多次生成后选取最好的一条予以发布,因此展示效果更优。 |
|
(1)更长的视频时长 在与Runway、Pika和PixVerse的对比中,Sora生成的视频平均长度将近16秒,最长达到20秒,而相比之下,其他三个模型生成的视频长度均在3~4秒左右。Sora最长可以生成长达一分钟的视频,这使得Sora能够更完整地呈现视频内容,使其更适合制作短片、广告和其他应用。 (2)更强的视频连贯性 Sora生成的视频具有无缝过渡、自然的摄像机移动和流畅的角色动画,增强了整体观看体验。而相比之下,其他模型制作的视频经常会出现场景突变、画面不流畅等问题,影响观看体验。 许彬表示,“Sora可以改变视频的视角。Sora生成的视频,可以像一镜到底一样,从小特写切大全景,变换不同的机位,但是保证画面中的人物/物品。同时,(Sora生成的视频中)物体的一致性很强。一致性一向是在视频生成的领域里比较挑战性的一环,而Sora在此方向表现很好。” (3)更丰富的视觉细节 此外,每经记者发现,Sora生成的视频视觉细节丰富,物体纹理清晰,色彩逼真,整体视频质量更高。相比之下,其他模型生成的视频通常显得模糊、细节不足、色彩不那么鲜艳。 例如,在生成的“女人眨眼睛”的视频中,Sora对女性眼部的特写十分到位,从眉毛、睫毛、眼皮褶皱、眼袋、卧蚕和细纹的细节来看,已经达到以假乱真的效果。 |
|
(4)更能满足不同的场景 从上述5大不同场景的呈现效果不难看出,Sora明显更能够满足不同创作者的需求,无论是创作科幻场景、动画人物,还是模拟真实场景,都可以轻松实现。 华鑫证券研报称,Sora的核心技术是基于OpenAI在自然语言处理和图像生成方面的深厚积累,与Runway、Pika等相比,Sora在视频生成的真实感、细节表现上均具标志性价值。AI视频生成虽不是新事,但Sora的推出有望推高AI多模态的热度,可关注AI多模态应用塑造数字内容生产与交互新范式,赋能视觉行业,从文字、3D生成、动画、电影、图片、视频、剧集等方面,有望带来内容消费市场的繁荣发展。 |
|
从GPT到Sora,OpenAI打通AGI技术栈 |
|
从Sora身上,可以看到OpenAI沿袭了过往大语言模型训练的许多成功经验。 Sora视频的逼真和连贯程度着实令人惊叹,而帮助Sora实现能力飞跃的是该模型的两项核心突破。 首先在底层架构上,Sora采用的Diffusion Transformer(DiT,或扩散型 Transformer)架构。 OpenAI的文本模型,例如GPT-4,就是采用的Transformer模型,传统的文本到视频模型通常是扩散模型(Diffusion Model),Sora采用的DiT架构则融合了GPT和传统的扩散模型架构。 从OpenAI官网公布的Sora技术报告中可以发现,Sora采用的DiT架构的理论基础是一篇名为Scalable diffusion models with transformers的学术论文。该篇论文是2022年12月由伯克利大学研究人员、现Sora团队技术领导William (Bill) Peebles和纽约大学研究人员谢赛宁共同发表。 在Sora发布后,谢赛宁在X平台上写道,“当Bill和我参与DiT项目时,我们并未专注于创新,而是将重点放在了两个方面:简洁性(Simplicity)和可扩展性(Scalability)”。他表示,“可扩展性是论文的核心主题,优化的DiT架构的运行速度比UNet(传统文本到视频模型的技术路线)快得多。更重要的是,Sora证明了DiT缩放定律不仅适用于图像,现在也适用于视频——Sora复制了DiT中观察到的视觉缩放行为。” |
|
图片来源:X平台 其次,Spacetime Patch也是Sora创新的核心之一。在这一点上,Sora的设计思路和GPT-4也是一致的。 Patch可以理解为Sora的基本单元,Patch是视频的片段,一个视频可以理解不同Patch按照一定序列组织起来的。就像GPT-4 的基本单元是Token,而Token是文字的片段。GPT-4被训练以处理一串Token,并预测出下一个Token。Sora遵循相同的逻辑,可以处理一系列的Patch,并预测出序列中的下一个Patch。 许彬向记者解释,“把视频数据变成一个个小块(patches),让模型对图像的理解能够像文字一样。参考过往GPT的表现,GPT对文本的语义理解水平非常细腻,将同样的原理应用在视频上,可以增加数据的灵活性以及模型最后的表达能力。” |
|
图片来源:Sora技术报告 正如谢赛宁所谈到的“Scalability”一样,加州大学伯克利分校计算机科学 PHD、知乎作者SIY.Z在知乎上这样写道,“如果必须用一个词来展现OpenAI最核心的技术,我觉得是scaling law——即怎么样保证模型越大,数据越多,效果就越好。一句话概括 Sora 的贡献,便是在足量的数据,优质的标注,灵活的编码下,scaling law在transformer + diffusion model的架构上继续成立。” 在他看来,数据、标注、编码、底层架构都是来自于此前大模型的成功经验。谢赛宁在X平台也曾提到, Sora有两个关键点尚未被提及,一是关于训练数据的来源和构建,二是关于(自回归的)长视频生成相关的技术细节。 可以说,对于目前all in AGI的OpenAI来说,从文本生成模型 GPT、文生图模型 DALL·E,到文生视频模型 Sora,OpenAI或许已经打造出了一条自己的AGI通用技术路线。 值得注意的是,建立在此前成功经验之上的Sora路线,可能会成为接下来的文生视频模型新范式。早在1月,一位前阿里的AI专家在X平台上表示,“我认为,Transformer框架和LLM路线,将是AI视频的一个突破口和新范式,它将使AI视频更加连贯、一致,并且时长更长。目前的Diffusion+Unet路线(如Runway、Pika等),只是暂时的解决方案。” |
|
图片来源:X平台 |
|
800亿美元!“资本狂欢”,OpenAI估值9个月增长两倍 |
|
从聊天机器人ChatGPT,到文本转图像模型DALL·E,再到近期的文本转视频模型Sora,风口上的OpenAI成为资本市场不变的关注焦点。 实际上,文生视频大模型并不是一条全新的赛道。很多文生视频大模型早已走入大众的视野,例如Stability AI的Stable Video Diffusion、Runway的Gen-2 Video、谷歌的Lumiere、Meta的Make-A-Video、Pika以及PixVerse等等。 其中,Pika在去年11月正式发布Pika 1.0后更是掀起全球热潮,其创始人郭文景也名声大噪,Pika 1.0也被称作是Runway Gen-2的最强竞品。不过,在Sora火爆出圈后,随着其所代表的新技术路线的出现,文生视频领域的版图恐怕要重新改写了。 一方面,核心技术是一道鸿沟——Diffusion Transformer和Spacetime Patch并非新鲜事物,但却只有OpenAI成功推出了Sora。并且,从文生视频的实测对比来看,Sora的确实现了降维打击。 另一方面,从估值和融资规模来看,背靠微软的OpenAI在AI初创公司中可以说是断层领先。之所以其产品一经发布,就能让行业震惊于其超强的迭代能力,恐怕也离不开背后的烧钱。 |
|
图片来源:每经制图 Sora火爆出圈后,资本圈的最新消息是, OpenAI的估值已飙升至800亿美元以上,值得一提的是,该公司的估值在9个月的时间里增长了两倍。 除了各种AI大模型产品之外,OpenAI CEO山姆·阿尔特曼还瞄准了半导体领域。据报道,阿尔特曼正与潜在投资者、半导体制造商和能源供应商等各种利益相关者接触,预计将融资7万亿美元打造芯片帝国。 在技术和资金的加持下,OpenAI在接下来的时间里,可能还将继续遥遥领先。 与之相比,Runway截至目前累计融资超2.5亿美元。TechCrunch报道称,Runway的估值在去年6月底达到15亿美元,其投资者包括谷歌、英伟达、Salesforce等。 Pika的估值目前近2亿美元,这家仅有四人的初创公司有着非常豪华的投资人阵容,包括前Github CEO Nat Friedman、Quora创始人Adam D'Angelo、OpenAI创始成员Karpathy、Perplexity CEO等。 去年11月,Stability AI的估值达到约10亿美元。不过,Stability AI今年来也不断面临着资金方面的压力。2023年11月,Stability AI被曝出由于财务状况压力巨大正在寻求出售。此外,其重要投资者美国对冲基金Coatue Management还在去年10月致信管理层,要求CEO埃马德·莫斯塔克辞职。 |
|
内容创作领域将被颠覆 监管迫在眉睫 |
|
|
|
图片来源:新华社记者 黄伟 摄 许多人认为,Sora的出现可以改变一系列创意产业,从电影制作、广告到图形设计,从游戏开发到社交媒体、影响力营销甚至教育科技等领域都将受到影响。 “最直接的是视频制作领域。不管是电影,还是人人都能参与的短视频,很多危险的,不容易拍摄的场景,都可以让AI帮我们完成。这样大大改变了视频创作的逻辑,也降低了视频创作的门槛。不具备视频拍摄能力的人,通过自己的想象力,也可以变成优秀的视频创作者。”许彬说道。 他同时告诉记者,Sora和其他类似的AI视频模型在多个行业都显示出巨大的商业潜力和市场需求。“包括媒体和娱乐、银行、金融服务与保险、零售以及医疗保健等行业将极大受益于生成式AI的进步。这些技术的应用不仅可以优化营销和销售活动,改善客户服务,还能加强产品开发和风险管理。” 许彬同时表示,“生成式AI在这些领域的变革潜力已表明了广泛的市场需求和跨行业的巨大经济价值,可能为各个行业创造2.6万亿至4.4万亿美元的价值。” 此外,据外媒报道,光速印度合伙人Hemant Mohapatra将Sora的出现比作为潘多拉的魔盒已经打开,将会让一切都发生改变。“它生成的视频质量之高,会让库存视频生成公司立即感受到威胁。” 二级市场的腥风血雨已经可以印证这一说法。Sora发布的次日,美国电脑软件公司Adobe股价暴跌超7%;美国图片库、图片素材、图片音乐和编辑工具供应商Shutterstock跌超5%;几周前发布了“文生视频”工具Lumiere的谷歌母公司股价下挫1.58%。三家公司一天内就合计蒸发近480亿美元的市值。 另一方面,随着AI的快速发展,有关其风险的讨论也一直未曾停歇,如何防止其被滥用或误用以及如何避免其对人们的认知产生负面影响是业内许多专家探讨的重点之一。 “视频生成很容易应用在诈骗领域。很多地方都有人脸识别,视频生成也让过往的技术变得不再安全。为了减轻这些技术可能带来的风险,建立健全的道德准则、实施严格的数据隐私措施,以及确保AI模型开发和使用的透明度至关重要。”许彬告诉记者。 随着AI的发展,各国也在致力于加强对AI的监管。早在去年10月,美国白宫首次发布针对AI的行政令,将对AI研发和应用制定全面的监管标准。去年11月,中国、美国、英国、欧盟等多方代表在首届全球人工智能安全峰会上签署了《布莱切利宣言》。 许彬认为,未来,重点可能会转向增强(AI)能力,同时确保以合乎道德和负责任的方式开发和使用它们,以最大限度地发挥其对各个行业的积极影响。“AI视频模型正在朝着更负责任的AI实践方向发展,(需要)通过投资研发来增强AI应用的安全性和保障。采取积极主动的方法来解决这些社会和伦理问题是可能的。” |
|
记者手记丨从旧架构中实现新突破,OpenAI的边界不止于此 OpenAI的每一次动作几乎都会给科技圈带来一次巨震。尽管文生视频模型已非首次发表,但毫无疑问,Sora带来了一次质的飞跃,在时长、连贯性和视觉细节等方面的突破都是前所未有的。 而令记者感到惊讶的是,在查阅相关的技术解读时发现,Sora从底层架构上来说并非是全新的技术,例如,DiT架构和Patch的论文都是去年就发表的。从Sora身上,也可以看到OpenAI过往大语言模型训练的成功经验。然而,只有OpenAI从旧架构中实现了新的突破,这或许意味着,无论是OpenAI这家公司,还是AI算法本身,它们的边界还远不止于此。 Sora再次展示了AI的无限可能,行业的颠覆也可能再次到来。不过,有技术从业者也告诉记者,在观察Sora的提示词发现,文生视频模型的使用门槛比较高,用户要有比较强的描述能力。若要完成一个品质较高的作品,也很考验用户的审美能力。 与此同时,也不得不提到AI风险的老生常谈。更上一层楼的技术可能将为AI诈骗等犯罪行为提供温床,因此,建立健全监管措施,确保AI不被误用和滥用是一项重要的议题。 策划|肖勇 孙宇婷 记者|文巧 郑雨航 编辑|兰素英 视觉|刘青彦 视频|张涵 排版|兰素英 (实习生杨蓝西、陈君瑶对本文亦有贡献。) 如需转载请与《每日经济新闻》报社联系。 未经《每日经济新闻》报社授权,严禁转载或镜像,违者必究。 |
中小公司的优势,open ai目前很团结。这点从奥特曼被董事会开除风波就能看出来。 一个项目不是人越多越好,而是有个边界效应,过了这个边界,越多人反而效率越低。 ai这个领域谷歌一直在搞,chatpgt之前也是每年几十亿的投入。但是谷歌为啥赶不上open ai 谷歌gumini最近闹得笑话,所有生成的图都是黑人和少数人种。美国国父,马斯克,普京全让它们生成了黑人。 现在在reddit上有人爆料,内部员工早就发现这个问题了,但是如果自己上报到时候麻烦就到他头上,所以装作没看见。 就这样一步步搞到运营,经手了多少人,全当没看见。 这还是个bug,如果发现一个项目中途发现路线错了呢?这些人会上报还是装死? |
|
[收藏本文] 【下载本文】 |
上一篇文章 下一篇文章 查看所有文章 |
|
|
股票涨跌实时统计 涨停板选股 分时图选股 跌停板选股 K线图选股 成交量选股 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事 |
网站联系: qq:121756557 email:121756557@qq.com 天天财汇 |