AI狂欢背后“污染”来袭 到底是什么情况?
2024-11-20 08:27:47人工智能(AI)技术,特别是生成式大语言模型,正快速渗透到人们日常生活中。然而,一项最新研究提醒我们,生成式AI的电子废弃物问题不容忽视。据《自然·计算科学》发表的研究论文,2020年至2030年间,生成式AI带来的电子废弃物可能激增近1000倍,产生最高达500万吨的电子垃圾,这与约250亿部iPhone 16 Pro的重量相当。这些废弃物含有的有害材料,可能对环境造成严重影响。
隐忧浮出水面
在关注生成式AI带来的能耗和碳排放的同时,人们往往忽视了算力设施及硬件报废产生的电子废弃物问题。最近,中外科学家合作开展的一项最新研究让这一隐忧浮出水面。
生成式AI的底层是一个材料密集型行业,它依赖于数据中心等数字基建设施。而且,随着算力需求及技术发展,相关数据中心的电子芯片及硬件架构越发复杂,重量也不断增加,并在快速更新迭代。业内专家称,两年前,GPU(图形处理器)重0.0318吨,有35000个零件;现在GPU有60万个零件,重1.36吨。而且数据中心和服务器群中包含的多种高性能计算硬件比如GPU、内存模块、存储设备等,普遍寿命在3年左右,当其寿命结束后,必然会产生大量电子废弃物。
AI技术正快速渗透到人们日常生活中
就生成式AI而言,一方面,其迅猛发展带来了大规模计算需求,对计算硬件和基础设施的需求持续增长;另一方面,芯片制程工艺的进步带来芯片性能的快速提升,单个芯片性能越高,同样算力需求下所需的芯片数量越少。未来生成式AI的应用会如何发展?又会产生多少算力需求?具体到硬件层,需要多少芯片和服务器?为关联、量化生成式AI硬件需求,以及产生的电子废弃物数量,须对这些问题做出回应。
为获得更贴近实际的数据,中外科学家联合研究团队既考虑了未来算力需求的多样性,又兼顾了对芯片性能的考量。在预测未来大语言模型的算力需求时,他们广泛参考了产业界的各类预测及行业研究报告,精心预设了三种截然不同的发展情景:一种是广泛应用的“激进发展情景”,一种是有限应用的“中等发展情景”,还有一种则是少数特定应用的“保守发展情景”。通过全面评估大语言模型的参数规模、训练数据量、全球大语言模型数量,以及每日活跃用户数等关键因素,他们推导出不同发展情景下算力需求的复合年增长率,分别为136%、115%和85%。
对芯片性能的考量中,联合研究团队基于摩尔定律,结合2020年至2022年服务器增长数量的实际数据,推算出了2023年至2030年服务器算力水平的变化趋势。同时,他们还充分考虑了地缘上的复杂因素,对中国、美国及欧洲等国家和地区的芯片性能及发展水平进行了细致调整。此外,鉴于目前仅有少数企业具备生产先进GPU芯片的能力,他们还基于这些企业过往两年的产能及出货量情况,合理设置了未来GPU产能扩展率的限制条件,从而构建了一个更为贴近现实的产能约束发展情景。
基于较全面的分析和考量,联合研究团队创新性地开发了“算力物质流”模型。这一模型对人工智能的“需求—算法—算力—芯片”进行了清晰的分层解构及参数化建模,有效串联了人工智能终端服务需求与底层物理世界的紧密关联。
模型计算推演结果显示,如果不采取任何循环经济措施,在2023年到2030年期间,在激进、中等和保守三种发展情景下,产生的电子废弃物总量分别达到了500万吨、300万吨和180万吨。
亟待全球合作
根据2024年《全球电子垃圾监测报告》,目前仅有约22%的电子垃圾被正式收集和回收,大部分电子垃圾都是通过非正式渠道回收。
电子垃圾中包含铜、金、银、铝和稀土元素等贵重金属,这部分元素由于其经济价值往往能得到回收。然而,部分电子垃圾会被出口至环境监管相对宽松的国家和地区进行回收。在这些区域,电子垃圾中的铅、汞和铬等有害物质往往无法得到有效处理。
目前,仅有少部分电子垃圾被正式收集和回收
为应对电子垃圾可能造成的严重环境污染问题,联合研究团队基于“需求—算法—算力—芯片”框架,提出了全链条循环经济策略。从算法层面,设计更加高效的算法,可以减少算力消耗;从芯片层面,通过高效芯片开发,可以减少不必要的计算和存储,提高数据处理的性能和效率,较预期可减少约50%的电子废弃物;在运营层面,将寿命结束的服务器降级循环利用,额外使用一年,就能够避免约62%的电子废弃物;拆卸、翻新和重新制造已过时服务器的关键模块则能减少42%的电子垃圾。
但这些措施要想真正落地,还有很长的路要走。当前,生成式人工智能的发展仍在“跑马圈地”,快速增长的背后,潜藏着很多问题。此外,部分国家和企业对先进芯片出口的限制,可能会促使其他国家增加对上一代芯片的消费,从而在全球范围内加剧电子废弃物的产生。
为更好促进人类社会的可持续发展,全球范围内亟需加强合作,采取更加负责任的生成式人工智能使用与治理策略,并辅以积极的电子废弃物管理措施,以有效减轻人工智能对资源环境的负面影响。