AI的能耗真相与未来

AI资讯2周前发布 admin
41.7K 0
 小易智创平台

小易智创xiaoyizc.com(不可错过的AI创业项目)观察:在当今时代,无论我们是否支持人工智能AI)的发展,AI的能耗问题都不容忽视。一方面,有人对AI的迅速崛起表示担忧,认为其可能会对能源市场及环境造成冲击;另一方面,也有人担心,能源产业的发展速度缓慢,将成为制约AI进一步发展的瓶颈。

随着AI技术的不断进步,预计其在能耗中的占比将逐年上升。为了满足未来日益增长的需求,AI研发企业纷纷加大对能源供应的投资。谷歌公司在10月14日宣布,将采购由核能初创公司Kairos Power建造的小型模块化反应堆所产生的电力。紧接着,微软在9月20日与星座能源公司达成协议,将重启三里岛核电站1号反应堆,并购买未来20年的电能。而OpenAI的首席执行官山姆·奥特曼也在年初大手笔投资核聚变。

与此同时,行业内正在涌现出一系列新趋势。多位专家指出,通过提升软硬件技术以及优化宏观布局,可以有效降低AI的能耗,提升能源使用效率。更值得关注的是,AI发展的方向并不一定是追求更大更强,一些小而精美的模型正在悄然崭露头角。

关于AI能耗的问题,一项引人注目的研究指出,ChatGPT每日耗电量可能超过50万千瓦时,相当于1.7万个美国家庭的总能耗。尽管如此,部分观点认为媒体和公众对这些数据的关注往往偏向于夸大的估算,反映出社会对新技术常有的警惕性。

虽然目前对AI能耗的讨论大多基于估算数据,但我们仍然可以进行一些定性分析。许多专家表示,在计算层面,AI训练阶段的能耗显著高于推理阶段,这意味着高能耗主要集中在大模型训练过程中,而非其应用阶段。

清华大学电子工程系主任汪玉及其团队对不同算力芯片进行了测试,结果显示推理阶段的功耗一般在300W-500W之间,而国产芯片则在150W-300W之间。相比之下,训练阶段的功耗则高达400W-700W。未来,推理阶段的功耗有望进一步降低至100W以下。这一趋势令人期待,预示着AI将朝着更加高效的方向发展。

综上所述,随着技术的不断演进,AI的能耗问题将迎来新的解决方案,并引领我们迈向可持续发展的未来。
AI的能耗真相与未来

© 版权声明
 小易智创平台

相关文章