Arm公司CEO雷内·哈斯告诫称,假如人工智能继承变得越发强大,而不提高能效,将来AI数据中心大概会耗损大量电力。
克日,Arm公司CEO雷内 哈斯告诫称,假如人工智能继承变得越发强大,而不提高能效,将来AI数据中心大概会耗损大量电力。
哈斯估量,固然今朝美国AI数据中心耗电量占电网比重仅为4%,可是估量到2030年,占比将到达20%~25%。他出格强调,ChatGPT这样的风行大语言模子耗电尤其严重。
据《纽约客》杂志引援海外研究机构陈诉,ChatGPT天天要响应约莫2亿个请求,在此进程中耗损高出50万度电力,,也就是说,ChatGPT天天用电量相当于1.7万个美国度庭的用电量。而跟着生成式AI的遍及应用,估量到2027年,整小我私家工智能行业每年将耗损85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
除了耗电,和ChatGPT或其他生成式AI谈天,也会耗损水资源。加州大学河畔分校研究显示,ChatGPT每与用户交换25-50个问题,就可耗损500毫升的水。
另外,AI大模子照旧碳排放大户。斯坦福大学陈诉显示,OpenAI的GPT-3模子在练习期间释放了502公吨碳,是今朝大模子中有据可查耗能最严重的,它的碳排放量是Gopher模子的1.4倍, 是BLOOM模子的20.1倍,约便是8辆普通汽油乘用车一生的碳排放量,人均91年的碳排放量。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。