天天财汇 购物 网址 万年历 小说 | 三峰软件 小游戏 视频
TxT小说阅读器
↓小说语音阅读,小说下载↓
一键清除系统垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放,产品展示↓
首页 淘股吧 股票涨跌实时统计 涨停板选股 股票入门 股票书籍 股票问答 分时图选股 跌停板选股 K线图选股 成交量选股 [平安银行]
股市论谈 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事
商业财经 科技知识 汽车百科 工程技术 自然科学 家居生活 设计艺术 财经视频 游戏--
  天天财汇 -> 科技知识 -> GPT-6训练导致电网崩溃,AI为何如此费电?如果不能解决耗电问题,AI是不是将凉凉了? -> 正文阅读

[科技知识]GPT-6训练导致电网崩溃,AI为何如此费电?如果不能解决耗电问题,AI是不是将凉凉了?

[收藏本文] 【下载本文】
[图片]
提醒一句,有人算的70MW是按10W卡H100的最大功耗(700W)算的,实际不止这点。数据中心的能耗除了卡之外还有基座服务器,配套的IO设备,UPS,以及最大头的散热,杂七杂八实际算下来可能直接翻倍。
另外分布式系统基本原理决定,能集中尽量集中,分散部署会带来巨大的工程困难和效率损失。题图里没有提到,原推已经说到微软的工程团队在Infiniband级跨区互联方面遇到了很多工程麻烦。


力大飞砖的前提是集中堆数量这个策略本身没有瓶颈——就算昇腾的制程落后一代,利用国内电网的巨大优势,怼到美国州电网无法承载的单集群10W甚至20W数量的话,也是有可能实现有效算力压倒任意美国集群的。
纯粹是因为美国电力系统太垃圾了。
2023年全美的工业用电只有中国的五分之一,少了大半个数量级。
不管是电站建设还是电网建设,都比中国落后一个档次。
按一张H100 800W
10万张H100也就才80000000W=80MW
再加点CPU做调度,就算他增加25%能耗,到100MW
能耗效率PUE,国内比如北京的淘汰制是1.3,按美国遥遥落后计算,算它个1.5
那运行起来能耗也就是150MW。
150MW是什么水平呢?
在我国属于被淘汰的“小火电”


泥球现在电力主要标准都是中国的
截至2024年3月8日,中国是196个IEC技术委员会(TC)及小组委员会(SC)的参与成员,覆盖率达91%;在承担ISO秘书处方面,中国排名第六位(15个秘书处,占所有职位的7%左右),次于德国(38个)、美国(27个)、日本(23个)、法国(22个)和英国(19个)
我国在IEC中具备主导能力的委员会以电力系统为主。
我国秘书处主要包括如TC5(汽轮机)、TC7(架空输电线路)、TC85(电磁量测量设备)、SC32C(小型熔断器)、SC59A(电动洗碗机)、TC115(燃料电池技术)、PC118(智能电网用户界面)、SC8A(可再生能源发电的电网集成)、SC8B(分布式电力系统)、SC8C(电力系统互联)、PC127(配电低压辅助系统)、TC129(电网机器人)、PC130(医用冷藏设备)
除了核电/燃气发电与海外还存在半代到一代左右的代差以外,其他领域基本都是全球领先,甚至是遥遥领先的水平。
国内要是真发发狠想搞AI,下调一点碳中和的承诺就行。
光是我之前一个客户就说过,他们那还有俩660MW机组还没启用,我最近看新闻,这俩还没正式启用,只作为调峰电站用。
这俩加起来1320MW,够100万张H100用了。
而这种火电站,国内应该还有一大把。
刚道理,不要小看中国电网、南方电网、华能集团、国电投、大唐集团、国能投、华电集团、三峡集团、东方电气、哈尔滨电气、上海电气。
泥萌能在这愉快的玩手机刷知乎,都是他们在稳定供电。
比特币挖矿的年耗电量约为149.37太瓦时,超过许多国家的年用电量,包括马来西亚、乌克兰和瑞典。
ChatGPT 6每天消耗超过50,000千瓦时的电力,相当于一个典型美国家庭每天用电量的17,000倍。
但是ChatGPT 6的训练第一是捕风捉影,第二是训练不会持续很久,就算它持续很久,比起比特币等一众加密货币的用电来说也不值一提。
而后者明显是有更为积极的影响的,搞不好AGI出来了。
而比特币说破大天就是一个避险去处,它就是再有共识,也是不牢靠的共识。
还很早,要区分分布式电网的区域上限和整个电网的总耗电量这个关系。
GPT-6那个10万H单一机房对于一个区域来说耗电量太大,而US増强单一区域的供电能力并不如国内这么灵活。
现在AGI的发展还没有到被电力限制的阶段,don't worry。
国外媒体:据推测,一名参与GPT-6训练集群项目的微软工程师警告称,在单一状态下部署超过10万个H100 gpu可能会引发电网崩溃。
国内媒体:GPT-6训练导致电网崩溃。
高票答主
@刘延
已经说的很好了,本来是一个普通的基础设施建设,结果在美国那边硬生生成问题了。
就这这个话题,我想稍微再发散一下。
自从AI大模型浪潮席卷业界,知乎乃至全网都有不少悲观绝望的声音。
甚至还有些人冷嘲热讽,“又一次错失新兴产业革命”等言论甚嚣尘上。
后续百度研发的文心一言,更是被某些人各种嘲讽吊打。
当时我明确说过:类ChatGPT大模型产品研发上,国内我认为最有可能实现突破的就是百度。
如果ChatGPT商业模式能够跑通,很可能是第一个遭受计算卡限制影响的大众产品。
百度李彦宏称文心一言是「更适合中国市场的人工智能模型」,如何看待这个说法?87 赞同 · 15 评论回答
后续百度因为图片生成“中翻英”的问题被全网嘲讽甚至质疑套壳,我顶着逆风输出观点:
文心一言整体架构是百度自主研发的成果,绝非简单的套壳。
类ChatGPT大模型产品并没有特别高的技术门槛,技术扩散的速度会很快。
百度智能云相关「文心一言」应用产品发布会取消,释放出哪些信息?如何看待此事??www.zhihu.com/question/592102701/answer/2956179262?utm_psn=1720737449641439232


再后来英伟达股价暴涨,国内也有出台半导体相关产业政策,知乎高赞回答又是一片阴阳怪气冷嘲热讽,连“集权官僚主义已经扼杀了民族未来”这种话都说出来了。
说来说去,无非是全盘否定产业政策,无非是“游戏机禁令导致国内没显卡”那一套说辞。
然而,现在再看呢?
谷歌研发的大模型Gemini,被多方证据实锤清洗调用了百度文心一言的输出;
资金实力和研发实力雄厚如苹果,更是被爆出来要接入百度的大模型;
更进一步说,包括百度在内的数家国内大厂,都已经下了昇腾计算卡的大单。
倘若百度的文心一言确实是套壳是垃圾,何至于谷歌都要过来蹭呢?
如果百度的大模型确实一文不值,何至于苹果要主动寻求合作呢?
假如昇腾计算卡真是某些人口中的“工业垃圾”,何至于连业内粉丝庞大且经常跟菊厂不对付的友商都下了大单呢?
英伟达市值一夜暴涨约 2 万亿元,涨出了一个奈飞,黄仁勋升至彭博亿万富豪 21 位,哪些信息值得关注??www.zhihu.com/question/645479358/answer/3408785566?utm_psn=1755897557308342272


这还不算,对美国来说真正严峻的问题是:
美国乃至整个北约去工业化实在太狠,对国力根基的侵蚀实在太严重。
美国在半导体、AI大模型和商业航天领域仍占据先手优势,这些都值得重视。
但是说一千道一万,AI自动化和航天的优势总归需要地面上的能源和产能才能落地吧?
看看美国停滞不前的发电量和基础设施,看看连半导体制造这种妥妥的高端制造业都开始出问题的制造业人才供给……情况不需要我多说。
扭头再看某些神神的无脑吹捧,我是真的流汗黄豆。
以目前半导体产业的迭代速度,AI大模型的耗能有可能在短时间内大幅下降吗?
如果连最最基础的能源都保证不了,还谈什么“AI深度改造社会”呢?
前几天知乎有个问题,为什么说“美国把AI用来娱乐,中国把AI用于工业生产”?
高票回答简直一片狂欢,对着国内又是好一通批判。
然而事实上,国内将AI应用于实际工业生产,相关案例正在不断涌现。
质量检测、缺陷控制、产线监控等等环节,目前都有一些新兴企业提供AI优化方案。
甚至就连知乎连篇累牍批判的5G,如今工业端已经大批量落地,整套方案已经比较成熟。
比亚迪、宁德时代、三一重工、海澜、万凯等等企业都有建设5G工厂,覆盖各种不同行业。
美国直到最近才开始追赶,少数明星企业如特斯拉开始打造基于“私有5G基站”的工业互联网:


说白了,美国并非不想将AI应用于工业端,而是本土还剩下多少制造业能被AI/5G赋能。
总而言之,从超导到AI再到商业航天,某些人脑子里似乎总是紧绷着“产业革命”、“拉开代差”、“降维打击”的弦。
恕我直言,脱离产业基础空谈“毕其功于一役”,大概率是唯心主义的幼稚病。
回顾近几十年互联网、移动互联网、智能电动车等历次产业革命,哪一次中国不是借助产业革命的东风大幅缩短差距甚至实现反超?
过去我不止一次说过,对于后发新兴工业国而言,每次产业革命都是难得的历史机遇。
如今国内高科技高附加值产业仍在不断攻城掠地,可预见的未来内,任何新产业革命爆发中国都将是最大的受益国之一。
反倒是日本欧洲,既没有产业实体承接AI产业革命,又没有足够庞大的本土市场来喂养新兴产业,甚至连传统优势产业也在逐步丢失。
这种情况下,不对日本欧洲的前途命运担忧,反而对着中国的发展冷嘲热讽,我认为大概率是杞人忧天。
我不太懂,难道不是和GPT说一句“要有光”,明利坚的路灯(如果有的话)都能自动通电的么?
顺便说个明利坚笑话吧,2023年老钟给明利坚出口的变压器数量下降的情况下单价继续上涨,出口额增速继续高于平均增速(平均19,对美26)。
请问诸君导致这种局面的原因是:
A.明利坚“工业回流”大成功,电网建设大完备,对老钟变压器需求大跌,多付钱是因为心善。
B.明利坚“工业回流”大失败,电网建设大破产,对老钟变压器需求大跌,多付钱是因为心善。
C.变压器被老钟卡脖子,涨价了只能少买,如此而已。
D.明利坚货币开始金圆券化。
从电厂到变压器都不能自给自足且完全没打算自给自足的国家说工业回流,呵呵……
反正我还是那句话,星舰和GPT就算完全成功了,想效益最大化也只能拿到老钟这边来用。
留在明利坚,那它们就只有赛博畜牧业价值。
呵呵,原来这年头有人幻想没电还玩儿AI。
想的挺美啊。
很多人觉得这么点儿供电不是什么大问题,是因为身在中国,被惯坏了。
美国电力现在是个什么情况?
2023年,美国总净发电量41781亿度,
比2007年的净发电量41567亿度增加了0.5%。
与此同时,美国的总人口增加了从3.01亿增加到3.35亿,增加超过10%。
也就是说,别看这十六年美国的GDP和股市增长了不少,实际上作为经济活动社会活动重要衡量指标的发电量,基本没动。
人均值反而下跌超过10%。
现在美国面临的问题是,只要涉及大规模制造的东西,都在节节败退,迅速溃烂。
很多原来能做的事情,现在做不了了。
不光是美国的AI发展遇到了供电这样低级的问题,根子是整个美国制造业的底盘被掏空了。
苹果公司,很多人觉得他无所不能,想干啥那不都是对友商泰山压顶?
实际上,苹果在AI方面,从芯片到框架到终端应用,完全无所作为。
进入中国市场竟然需要求助于百度的AI。
造电动车,折腾了十年之后,放弃了。因为电动车产业链现在在中国手里。
microLED,中止研发——因为这玩意的生产线本来就在亚洲,中日韩手里。
造基带,也推迟到2028年以后。这个总算没有落在中国人手里,毕竟高通还有些积累,可以交巨额高通税,去买芯片和专利使用权。
库克和苹果寄予厚望的Vision Pro,推出没几天就凉了。
iPhone完全看不到什么创新。在中国市场被重新拿出麒麟芯片的华为手机打的节节败退。
英伟达的市场和市值都很火爆,但是也仅限于芯片设计和配套软件,硬件生产还是要放在台湾地区。
AMD也差不多,穷人版英伟达,硬件要由台湾代工。
特斯拉,憋四五年憋不出一个能量产交付的新车。semi于2022年底开启交付,cybertruck于2023年底开启交付,到现在这俩货卖了多少了,特斯拉敢吹不?
不要说新能源汽车销量被比亚迪甩开一大截,加上“纯电”定语之后,也比不过比亚迪了。
Intel,制程能力早就赶不上台积电了。
波音,事故频发,低级错误不断,基本的安全性越来越不可靠。
美国人现在敲敲键盘写个软件还不错,但是ChatGPT和sora真搓不出乌克兰前线需要的155炮弹。
只能去找韩国代工。
重返月球的阿尔忒弥斯计划,于2017年由川普签署批准,计划于七年之后的2024年完成载人登月。
然后,不出意外的出意外了。
宣布推迟到2025年。
喂,这可是你55年前也就是1969年就做过了的事情。过了55年,反而又要推迟。这么多年美国发展了什么?
大家瞧不起的钢铁产量,2023年美国排第四,8070万吨——不足中国钢铁产量的十二分之一(未计入唐山瞒报产量)。
2023年,全世界造船完工量8000万载重吨,其中中国独占4202万吨。
以修正吨计,2023年全球造船订单总量为4149万CGT,中国以2446万CGT的订单量保持世界第一,占59%的份额。
美国……没查到2023年的数字,反正2022年是60万吨。


电力产业的发展和应对能力,根源在于工业生产这个绝对大户。
中国正好是世界第一大工业国,所以电力工业正好也是中国的强项。
大工业生产这样复杂而有序的系统,自身会不停的熵增,需要大量的负熵持续注入和维护,不然会迅速溃散,腐烂。
这就是美国现在面临的困局。
平时不搞硬核的工业生产,不干苦活累活,自然电力系统发达不起来。
堂堂蓝星第一强国,一遇到新兴产业真的要大量用电的时候,就被这种低级问题绊住了脚。
美国的基建能力制造能力现在退的刹不住车,想在第四次工业革命中有所作为?想想就好。
美国真想发展第四次工业革命,需要掉头去补第三次工业革命的功课。
不然?
中国这边,华为在玩命做AI芯片呢,做出来就能用上,据说今年昇腾接单已经过百万片。
用电管够。
AI是不会凉的,起码中国的AI不会。
要凉,也是没电可用的美国AI。
训练大模型要消耗多少电


推上一个名为 kyle corbitt的老哥发的帖(内容真假不确定),大致内容如下:
“我和微软的一位工程师谈到了GPT-6训练集群项目。他抱怨说,他们在不同地区之间的GPUs上配置InfiniBand级别的连接时遇到了困难。 我:“为什么不直接将集群放在一个区域内?” 他:“哦,是的,我们首先尝试过。如果我们在一个州内放置超过10万个H100,就会导致电网瘫痪。”


根据英伟达的产品简介,每块H100 GPU可以消耗高达700瓦(W)的电力,这比美国普通家庭的平均用电量还要多。为了更直观地理解,一块H100 GPU可以为大约七个标准灯泡供电,或者为两台游戏笔记本电脑供电,或者为一个微波炉供电。现在想象一下,在全球各地的数据中心同时运行数百万个这样的GPU,那将消耗大量的电力。
我们可以简单的计算下:
10万张h100显卡,功率为700w
100,000 * 700W = 70,000,000W =7万 kw
一个小时就是7万度电,一年就是 365*24*70.000 = 6.12 亿千瓦时
网上搜了下2023年,上海全年全市的用电量:1848.81亿千瓦时。
十万张显卡的用电量就占了上海全年全市用电量的1/300,耗电量不小,上海电网应该能顶得住。


数据链接:https://baijiahao.baidu.com/s?id=1794098254596585360&wfr=spider&for=pc
还有一个有意思的推测报告,如果类似openai Sora的模型在市场上获得显著的份额,所需的推理计算资源。通过Sora模型的计算需求推算,文章估算了在全球范围内,为了在像TikTok和YouTube这样的流行视频平台上实现AI生成视频的显著市场渗透,需要多少英伟达H100 GPU。
最后作者给出结果,大约需要72万张H00卡,我们据此计算,一年的耗电量大概是 6.12*7 = 43亿千瓦时,约占上海全市全年电量的 1/43,这对电网来说绝对是一个很大的压力。 总之搞大模型,很费电!


链接:https://www.factorialfunds.com/blog/under-the-hood-how-openai-s-sora-model-works
之前有网友说美国电力数据和经济数据不符,神神们不是说搞AI不需要用电来着?
没关系的。
虽然支付你的人力资源成本比AI的电费要便宜一些,
但是你上班还会摸鱼,工作效率肯定比AI要差很多啊。
资本花这么多钱投资AI,肯定比你会算账。
前两天看到一个提问,什么企业一个月能用50万度电?
回答基本都是不屑一顾的,一个月50万度电,也好意思说出来?
二十年前,中国电力还是非常紧张的,我们企业经常被拉闸限电。
自然有人吹嘘人类灯塔如何电力澎湃,结果正赶上因为一个变电站爆了,连锁反应造成全国大停电。
对了,当时公司的装机是4200kva,一个月200万度电而已。为什么被拉闸,因为不重要,还有用电更离谱的且不能停的企业要保。
至于这么多显卡一起火力全开,其实也没多少电。
二十多年前,我东北一个客户,在一个地级市。
工厂停两个车间,就够它们用了。
一个车间确实不够。这要实事求是。
不过它还有另外的加工车间,一年大概20亿度电吧。
算力中心可没法用分布式能源解决问题,必须用上逆变器和变压器,而这两个玩意美国主导的自主产业链的生产能力基本是零。
其他哥们早就说过的话不想重复,继续奏乐继续舞吧,看老美还能撑多久?


乐把AI吹上了天 结果特么的电不够……
也没关系
美国人可以把计算中心放中国嘛
建电站多累啊
那可不是工业皇冠的明珠
这种落后产能交给中国就行了
以后把计算中心都放在中国
美国购买服务就好了
所谓造不如买 买不如租……
这点耗电量随便来个小电站就满足了,只是美国新建个电站会比较费劲而已。
太扯淡了,h100 单卡功耗 1kw,也就是 10 万块同时用,功耗是 10 万 kw。


这个数值有多小?
中国一般居民楼供电至少是 220v60a,也就是 13kw。
10 万kw 也就是一万户的供电量多一些。
一个普通的数据中心计划功耗,至少就是 1万 kw。


而胜得起 10 万个 h100 的数据中心,如果规划或者说建设连中国一个小数据中心的 10 倍规模都做不至,还干个毛线!
把 h100 拉到贵州或者内蒙,保你 100 万h100 都能同时干!
封锁的结果是自己连个数据中心供电都搞不定!真是人类进步的绊脚石!
怪不得黑客帝国里要用人类做电池!
矩阵那种级别的AI得多费电哇!
其实没多少电。
H100满载700瓦,10万张H100一小时不过耗电7万度,算上空调和其他服务器组件,我们就算能耗原地翻五倍好了。一小时35万度,一年大约30亿度电。其实我估计到不了这么多,因为总不能一直满载,空调也不见得占80%的能耗。
30亿度电
大约是中国现在每年数据中心耗电的百分之一
大概是三峡大坝10天的发电量
中国年发电量的千分之三。
中国去年发电量增长6.7%,也就是年增量的二十分之一就可以cover。
你只要付出这么点代价,就能拿到目前看上去最有希望的通往AGI的钥匙
这生意不是太划算了
项目刚起步的时候谁做优化?
配套只要不妥后腿,能用就行
力大砖飞才是现在的主题,毕竟堆算力目前看边际效用很弱,每次堆堆算力,模型总能进步
所以不管是做芯片的,做架构的,做训练数据的都想的是算力
现在谁敢ppt的时候重点讲自己大模型优化好,能耗低,那估计过不了多久它的大模型就被优化成零功耗了
因此,任何建立起大模型的基础都有很大的优化空间来降低能耗
从芯片制程,芯片,训练卡架构,服务器,机柜,机房,电路,电网都存在着优化的可能
除此之外,从开源入手,新能源,储能,核能都能开源
唯一决定AI凉凉的只有AI能力不行,不值得耗电
所以现在能力挖掘不完的时候,电只会掣肘
只能说明open ai 已经在搞gpt6了
另外这个结果是网友测算的结果
有网友算了一下,如果十万个H100同时开启,功耗将达到70兆瓦,电网肯定撑不住。
具体啥样不知道
不是这么理解的,这不是AI太费电的问题,只是功率太大的问题。
打个比方,你宿舍开四个暖风机,再搞个火锅,也得跳闸。但是你把这四台暖风机放在四个宿舍同时开就没事。
所以微软的意思就是集中运行这10万个GPU有难度,要分布式运行。
一个H100的功率是700W,10万个也就是7000万W,加上散热、存储等功能,大概算它10万kw。一个中型城市的功率大概在3000万kw。你觉得这个10万kw的耗电对一个国家来说算事?
这只是训练阶段,使用阶段的能耗是随着用户量增加而线性增加的,现有的数据中心全换成AI芯片,能耗至少x10,所以Altman在呼吁建电站,否则电力紧张会导致用不起AI。
以前一台电脑的功耗才200w,现在4090显卡的功耗轻松到300w,堆满GPGPU的服务器功耗更高,更高的功耗不但意味着本身电力需求大增,还意味着机房空调的功耗大增。
总之就是电不够用。
首先 AI 不会凉凉,能耗问题肯定会随着继续发展而得到解决。
一、AI为何如此费电
AI训练之所以会消耗大量电力,主要是由于以下几个方面的原因:
1. 高性能计算需求
AI训练,尤其是深度学习模型的训练,需要大量的计算资源。这些模型通常包含数百万甚至数十亿个参数,需要通过大量的数据进行训练以学习复杂的模式和关系。高性能计算设施,如超级计算机和数据中心,需要持续不断地运行以处理这些复杂的计算任务,从而消耗大量电力。
2. 数据中心的能源消耗
数据中心是AI训练的基础设施,它们存储和处理大量数据,并为AI模型提供必要的计算能力。数据中心中的服务器和网络设备需要持续运行,以支持AI模型的训练和部署。这些设备在运行过程中产生大量热量,需要有效的冷却系统来维持适宜的工作温度,而冷却系统往往是能源消耗的主要驱动因素之一。
3. 冷却系统的水力消耗
为了维持数据中心设备的正常运行,防止过热,通常采用水冷系统进行冷却。这些系统需要大量水资源来帮助散热,导致水力消耗巨大。例如,GPT-3在训练期间耗用了近700吨水,而数据中心每天平均必须耗费401吨水进行冷却。
4. 芯片制造的能源和水资源消耗
AI芯片的制造过程也是一个大量消耗能源和水资源的过程。特别是先进制程芯片的生产,需要大量电力和“超纯水”进行清洗。随着AI芯片朝着高算力、高集成方向发展,制程越来越先进,其功耗和水耗也随之增加。
5. 技术进步与能耗增长
随着AI技术的快速发展,模型的规模和复杂性也在不断增长。更大的模型需要更多的计算资源和能源来支持训练和运行。此外,随着AI应用的普及,对数据中心资源的需求急剧增加,进一步推高了能源消耗。
6. 能源供应的压力
大规模数据中心的增长可能会对能源供应造成压力,尤其是在传统能源依赖度较高的地区。这可能导致能源价格上涨和供应不稳定,同时也对环境产生影响,包括二氧化碳排放和能源消耗。
二、中美两国电力设施对比基础设施老化与投资美国:根据美国土木工程师协会(ASCE)的评估,美国能源系统的评级为“C-”,指出电网系统尤其脆弱。美国电网的许多部件已经使用了超过一个世纪,远远超过了它们的预期寿命。尽管近年来在输配电系统和电网可靠性上的投资有所增加,但仍不足以应对日益增长的电力需求和极端天气带来的挑战。中国:中国在电力基础设施建设方面投入巨大,建成了全球规模最大的电力系统,发电装机容量和输电线路长度均显著增长。中国政府加大了新型电力基础设施建设的力度,推动能源基础设施数字化智能化升级,以适应可再生能源的增长和电源的分散性。电力供应与可靠性美国:美国电网在应对恶劣天气和基础设施老化方面面临挑战。例如,得克萨斯州在2021年2月遭遇的极端天气导致了大规模停电。美国正在探索通过构建“宏电网”来提高电网的弹性和可靠性。中国:中国的电力供应相对稳定,通过加强省间余缺互济和实施负荷侧管理等措施,有效缓解了部分地区供电紧张的局面。中国电网的输配电能力不断增强,跨区输电能力显著提升。新能源发展美国:美国在新能源发展方面也取得了进展,但面临电网现代化和整合的挑战。美国正在研究如何通过技术升级和政策支持来提高电网的可再生能源接入和稳定性。中国:中国在新能源发电方面取得了显著成就,风电和太阳能发电装机容量增长迅速,新能源发电已成为新增发电量的主体。中国还在积极推进新能源基地和电力外送通道的建设。
AI 的提升是必要的不断的加强算力,算力高了能耗必然大,但这不是咱普通人应该担心的事情。
最后,祝大家在AI时代都能实现财务自由,记得给我一个赞同。



人脑已经实现了AGI,但消耗的功率只有几瓦。
所以GPT6一定是效率不高的方向。
事情永远不能单向思考。
训练AI是耗电,但AI投入使用后,在某些领域也会节电。
比如我现在使用AI后,搜索引擎的使用量大大减少。那么谷歌、百度等就可以缩小搜索服务器的用量,那是不是就减少耗电了呢?
还有程序员利用AI提高了编程效率,就可以减少电脑的使用时间,那也可以节电。
综合评估,我相信给AI训练多用些电是值得的,比挖矿打币有用多了。
话说,如果有一种数字货币的挖矿是以训练AI的计算量为标准的就好了,proof of training!
看到有评论说运行AI比普通搜索更费电的,其实是有办法解决的。现在的生成式AI,真正有用的部分就是那些训练出来的“参数”,参数可能有几百亿个,但运行这个AI,要的其实就是这些参数。
Facebook开源LLaMA AI,最大的模型的参数也就是240G容量。就算以后的AI,需要几个T的容量,就磁盘存储来说,并不是非常大的。现在就有人在Macbook上单机运行LLaMA。
但是单机运行的主要问题在于数据分发的问题,也不是每个公司都愿意把参数全部开源。所以比较好的方法是“分布式运行”,每个用户个人电脑上存储一部分参数,连上网后,与其他联机电脑协同,组成一个强大的以个人PC为运算主力的联网AI:


[收藏本文] 【下载本文】
   科技知识 最新文章
《消失的问界里》为什么网传华为选择大面积
特斯拉万人大裁员涉及中国市场,销售部门是
媒体报道「特斯拉一天内失去 2 个高管和 10
去年是「大模型元年」,今年会是「AI应用落
2024 年人工智能方向的就业前景怎么样?
如何评价小米汽车SU7全球首例无故抛锚?
如何评价比亚迪与大疆合作发布的车载无人机
如何看待波音「吹哨人」遗言曝光:如果我出
电动汽车为什么一下爆发了?
怎么看待华为太空宽带计划?
上一篇文章      下一篇文章      查看所有文章
加:2024-04-01 13:24:31  更:2024-04-01 13:48:51 
 
 
股票涨跌实时统计 涨停板选股 分时图选股 跌停板选股 K线图选股 成交量选股 均线选股 趋势线选股 筹码理论 波浪理论 缠论 MACD指标 KDJ指标 BOLL指标 RSI指标 炒股基础知识 炒股故事
网站联系: qq:121756557 email:121756557@qq.com  天天财汇