碳讨论
到6月底,微软在碳贸易和清洁能源提取领域发布了重大公告。这些协议不是单独的步骤,而是其积极方法的关键要素 - 旨在提供由人工智能(AI)和云业务的快速扩张引起的排放增长。 6月27日,微软与ENEW气候解决方案解决方案和林业清除平台Aurora可持续土地达成了为期10年的协议,以获得480万个基于碳的碳信用量,这些碳信用额在美国通过改善的林业(IFM)森林(IFM)(IFM)在美国的42.5万公顷森林中形成。该协议在2024年扩大了两党之间的合作。6月30日,微软与挪威的Hafslund Celsio Tooslo签署了为期10年的协议,以购买110万吨的碳清除信用。积分将来自挪威最大的能量能量能量工厂Klemetsrud的Carbon Capter Project,该项目预计将于2029年运行。S不仅是“第一历史”垃圾,能量尤其是用于去除碳的垃圾,而且还为欧罗巴的其他欧罗巴植物提供了可复制的路线图。 6月30日,微软与该星座合作,重新启动了美国宾夕法尼亚州的三英里岛核反应堆,以重新创建大量新可靠的电力,而无需在PJM电力网上电力,这直接支持Microsoft成为负碳的整体目的。此步骤表明,微软的方法仅在Phasecredit碳去除信用中仅超出了排放量的抵消,而是积极地为操作获得了直接的碳能。 6月30日,微软和Agoro Carbon宣布了一项为期12年的协议,授予260万个碳清除信用额。这些学分是由美国农作物和牧场项目使用再生农业技能(包括农作物,减少收获和改善的谨慎)形成的。除了碳的依从性,这些技能还环协同的好处,例如改善土壤健康,改善水维持能力,提高生物多样性和改善天气弹性。通过总结这些协议的碳去除信用,我们将清楚地看到微软在短时间内实现负碳的负靶标的巨大努力。特别是,这些协议的总碳删除信用达到了令人惊讶的850万吨。尽管微软通过碳交易和清洁能源捕获在碳去除和维护方面取得了重大进展,但在数据中心室中,实践AI模型的GPU群集以每小时的每小时能源消耗而疯狂。 AI和Carbon Credit Carnival功耗之间看似相互矛盾的游戏是巨大技术在管理“碳盲点”方面的深刻问题。 AI的蓬松性和碳排放:令人难以置信的重大矛盾。巨型技术属于悖论悖论:人工智能的爆炸性增长不仅是Promot的数字变化使全球经济变化,但已成为碳释放的主要驱动力。尽管Microsoft,Google,Meta和其他公司已承诺“净零排放”,但由于对AI计算能力的需求,电力消耗量增加了。这一矛盾表明了一个苛刻的事实 - AI发展的扩展以及减少碳发行的条纹努力正在陷入令人难以置信的冲突。微软环境环境报告显示,与2020年相比,其总发行量增加了23.4%,而AI和云计算是主要驱动因素。 AI和云计算服务的快速发展需要大量数据中心的支持。使用了数据中心的SA Pathe构造和运行,使用了大量密集的碳材料,例如钢和混凝土; AI计算需要高性能的计算机芯片,芯片制造使用具有高潜在世界供暖的化学品,例如六边形Luoroethane,其温室作用为二氧化碳的9,200倍。此外,数据中心的操作需要大量电力,并且当前电网的全球脱碳过程并不能完全由微软的能源生长能量完全维护。根据Google的最新数据,Microsoft不仅是Google的总碳相关性达到了1,150万吨二氧化碳在2024年,比2023年增长了11%,比2019年增加了11%。AI的快速发展也是Google碳增长的主要原因。 AI业务的能源需求急剧增加将能源消耗推向了数据中心。 6月,国际电信联盟(ITU)的一份报告指出,人工智能的迅速增长正在推动全球电力需求的急剧增加,数据的电力消耗以四倍的速度增长,高于总体电力增长率的四倍。亚马逊运营排放量增长最大,达到与2020年相比,2023年的182%;微软增长了155%;元和字母分别增长了145%和138%。但是,AI产业链的碳足迹超过了操作阶段,诸如半导体制造和建筑材料之类的流链路产生了不兼容的障碍,可以减少Turnabas。微软案特别典型,其中97%的碳泄漏来自供应链(范围3),在过去五年中,碳泄漏量增加了26%。 Microsoft不仅最新的Google报告指出,到2024年Google的总碳发行的增加很大程度上是由于供应链发行的增加,当年3次排放量增加了22%。这引发了关键问题:技术变化,控制和碳中立目标的速度似乎形成了“不可能的三角形”,并且减少巨人巨人释放的希望成为与时间的绝望竞赛。通往僵局的道路:从快速发展对重建碳信用的责任的NT并不是“沉迷”。破坏僵局的真正道路可能不会购买Morethere,这是许多碳信贷,而是重建基本的AI开发逻辑。现在该问:AI模型效率的革命是否可以超过能源增长?巨型技术能否在商业利益与世界安全之间平衡?中国的探索似乎已经找到了探索的答案 - 通过能源革命为计算能力的革命提供了答案。 DeepSeek在今年年初变得很流行,诸如Hybrid(MOE)专家(MOE)等技术在理解过程中改变某些参数的活跃,这可以显着减少与传统密集型模型(例如GPT-3)相比的计算量。 DEPSEEK-MOE模型仅需要少数参数即可完成相同的任务。例如,DeepSeek-V3是5月6710亿个参数,但只有370亿杆根据识别量激活进展。这种稀疏的激活机制极大地提高了计算效率,与传统密集型模型(例如GPT-3)相比,该计算量大大减少了计算量,并且这种“神经开关”设计大大降低了单小时识别的能源消耗。 Openai创始人Sam Altman曾经断言:“ AI的最终瓶颈是能量。”而且中国的实践表明,真正的突破可以是“电力是计算的力量” - 当可以将宁克风力发电发送到深圳的AI服务器(例如数据包)时,全球计算功率环境将导致重大变化。将来,真正的赢家可能不是误解计算最强大力量的公司,但是该公司可以找到现代技术和可持续发展之间的最佳解决方案。否则,当气候的临界点被打破时,无论AI多么强大,它都无法为HU写下可行的未来元旦。研究人员陶叶,编辑陈丽,校对wu Xingfa