最近科技媒体在认真讨论一件事华为某旗舰手机加了一颗风扇。不是散热夹、不是液冷背夹是一颗永久内置的、物理旋转的离心风扇——装在镜头模组底下为此牺牲了一个长焦镜头的位置。有文章把这件事写了两千字给它起了个名字叫「从被动防御到主动出击的范式转变」说这是「旗舰机放下偶像包袱实用才是硬道理」。我看完沉默了一会儿。不是因为文章说错了。是因为一台手机靠一颗小风扇勉强压住芯片的热在 2026 年被包装成「散热哲学的胜利」实在是……没什么可说的。这就好比一栋大楼的空调坏了物业在窗台上放了三台电风扇然后发了一篇推文「我们选择了一条更务实的道路。」那就让我们来看看真正在认真对待「热」这件事的人在做什么。你每问 ChatGPT 一个问题它的服务器烧掉的电相当于同时点亮 14 个 LED 灯泡整整一小时。这些热去哪了绝大多数情况下的答案是白白散进空气里。全球 AI 数据中心的能耗讨论基本上停留在同一个框架里电从哪来碳怎么算绿电够不够。但有一个问题几乎从未被正面回答那些热到底怎么处理的数据中心消耗的电高达 90% 最终以热量的形式释放出来。IEA 预计 2026 年全球数据中心电力消耗将达到 1,100 TWh相当于日本全国的用电量。九成变热。每年。这是一座巨大的、被白白扔掉的矿。问题比你想象的更物理如果你以为「散热」只是服务器机房里的风扇问题那你低估了这件事的规模。最新研究发现AI 数据中心正在制造「热岛效应」让周边土地温度上升最高 16 华氏度影响超过 3.4 亿人。而且这种温度升高不仅仅发生在数据中心门口——温度影响可以辐射到 10 公里以外的地区。这不是某一个数据中心的问题。全球数据中心的资本开支预计在 2026 年达到 7,600 亿美元是 2025 年的 1.7 倍。这个规模在未来五年只会加速不会刹车。所以这个问题的本质不是「AI 太热了」而是我们在大规模制造热量却完全没有把它当作一种资源来对待。已经有人在用这些热了转折点在于这个问题其实有解。只是解法在地球的另一头。欧洲已经把数据中心废热变成了基础设施。在瑞典「斯德哥尔摩数据园区」计划的目标是让数据中心产生的热量一点都不浪费。在芬兰Nebius 的一个数据中心每年回收约 20,000 MWh 的能量足够供暖 2,500 户芬兰家庭。更大的案例在芬兰赫尔辛基附近微软新建的数据中心预计将为当地提供约 40% 的区域供热需求——这个规模被描述为「全球前所未有」。在爱尔兰一个连接亚马逊数据中心废热的供暖项目第一年就节省了 1,100 吨 CO₂。这不是科幻。这是已经在运转的管道和热泵。在斯德哥尔摩废热甚至是有偿出售的。数据中心不再为散热付钱而是把热卖给城市供暖系统「成本变收入」。更激进的未来废热不只是取暖如果你觉得「用废热给房子供暖」还不够让人兴奋那下面这个方向值得认真看一眼。最新研究提出一度算力消耗的电可以同时移除约 0.5 公斤 CO₂、并产出约 0.5 公斤可饮用水。具体路径是用数据中心的废热驱动直接空气捕碳DAC装置以及热力水净化系统。这意味着AI 数据中心理论上可以从碳排放者变成碳捕获者——研究者估算这条路线每年可以产生高达 1,000 亿美元的经济价值同时大幅贡献净零目标。废热不再只是需要处理掉的麻烦而是一种可以叠加多种用途的资源。那么更前沿的人在做什么如果上面说的还不够科幻这里有一张从现实到轨道的完整谱系。散热的本质逻辑只有一个找一个更大、更稳定、更冷的地方把热扔进去。第一层把服务器泡进液体传统数据中心靠冷风吹但 AI 机架的功耗密度已经达到每柜 40–100 千瓦冷风根本带不走这些热。于是浸没式液冷开始从实验走向主流把整块服务器板直接泡进不导电的介电液体里热量直接从芯片传入液体散热效率比传统空冷提升高达 1,000 倍。更激进的版本叫两相浸没冷却——液体接触芯片时直接沸腾蒸发蒸汽在顶部冷凝还原为液体后循环回来整个过程不需要泵芯片表面可承受的热通量是手机小风扇处理量的几千倍。第二层把微流道刻进芯片内部这个方向接近生物工程的思维——模仿毛细血管。2025 年 9 月微软与瑞士初创公司 Corintis 联合发布了原型将冷却液通道直接蚀刻进硅芯片内部仿照树叶叶脉和蝴蝶翅膀的纹路设计流道散热效率提升 3 倍GPU 峰值温度下降约 65%。HP 和英伟达也在合作开发直接焊接在 GPU 表面的硅基微流道冷板。这不是给机器加水管——是给芯片长出了循环系统。第三层把数据中心沉进海底这件事已经不是概念了。2025 年全球第一座商业水下数据中心在海南陵水县正式运营。整个设施重达 1,300 吨沉在 35 米深的海底用海水直接冷却服务器机架能耗比陆地数据中心低 40–60%。海南省的十四五规划还包括建设 100 个这样的海底数据舱。微软更早做过这件事——2018 年Project Natick 把 864 台服务器封进氮气舱沉入苏格兰奥克尼群岛海底两年后取出时发现水下服务器的故障率只有陆地同类设备的八分之一。原因是氮气环境排除了氧化腐蚀而且没有人员走动带来的振动。技术验证是成功的。微软最终放弃是因为封闭的舱体无法升级 GPU——在 AI 算力迭代如此之快的时代一个五年不能开盖的数据中心等于废了。第四层把数据中心送上太空逻辑很简单太空是真空宇宙背景温度接近绝对零度-270°C。只要把热辐射出去就有一个无限大的冷源可用。2025 年 11 月初创公司 Starcloud 发射了第一颗搭载英伟达 H100 GPU 的卫星在轨道上运行第一台商用 AI 计算节点2026 年 1 月Axiom Space 发射了两个轨道数据中心测试节点正在验证一种「热力砖」技术设计上能直接向宇宙微波背景辐射散热。但物理限制在这里在太空中散掉 1 兆瓦的热量需要约 1,200 平方米的辐射散热板——相当于四个网球场。算力规模越大散热板面积越大发射成本越天文。Starcloud 的愿景是用宇宙真空作为「无限散热池」把数据中心能耗降低十倍。Sam Altman 说过这个方向「现在还很荒谬」但他也没有说它永远荒谬。第五层把废热变成光再把光变成电这个方向叫热光伏ThermophotovoltaicsTPV——逻辑上有点绕但物理上成立。原理是废热先把一块特殊材料加热到发光这束光被旁边的光伏电池吸收转化成电。全程固态没有蒸汽机、没有涡轮、没有任何旋转部件。2025 年 2 月科罗拉多大学博尔德分校的工程师团队造出了一种新型热光伏装置用「零真空间隙」设计突破了普朗克热辐射定律设定的功率密度上限——这是 200 年来热力学的基础约束之一他们绕过去了。密歇根大学 2024 年孵化的初创公司 Heat2Power目标是从数据中心这类相对低温的废热源中高效发电。创始人说「我们现在接到的客户需求已经超过我们能供应的产能。」这意味着什么数据中心不只是把热散掉——而是把热转化为电重新喂给自己。散热和发电从两件事变成同一件事。第六层把数据中心埋进月球熔岩管这不是科幻小说。这是已经发射了硬件的公司的路线图。Lonestar Data Holdings 计划把数据中心部署在月球熔岩管内部——这些洞穴是数十亿年前岩浆流动冲出的地下隧道内部温度常年稳定在约 -20°C同时提供天然的宇宙辐射屏蔽。怎么把设备送进去「机器人——很多机器人。」月球熔岩管的散热逻辑是不需要主动散热系统岩石本身就是巨大的恒温热沉直接把热传导走。2025 年 2 月Lonestar 已将一个搭载 8TB 存储的数据中心随 SpaceX 猎鹰 9 号发射升空并在月球表面完成了基本数据传输测试。这是人类历史上第一次在地球之外运行商用数据存储节点。Lonestar 的远期目标是在月球熔岩管里建设 EBExabyte到 YBYottabyte级别的设施。这家公司的 CEO 把它比作斯瓦尔巴全球种子库——不是因为近而是因为安全。最后从液体到微流道从海底到轨道从月球岩石到热力学定律的边界——这条线的终点是让「热」这个概念本身消失进来的是算力出来的是电散掉的是零。而那颗装在华为旗舰镜头下面的小风扇处理的是同一个物理问题。只是量级不同。问题从来不是 AI 产生了太多热。问题是我们到现在还没想好怎么接住它。数据来源IEA、欧盟委员会环境科学通讯2026.3、CNN2026.3.30、World Economic Forum2025.6、Toms Hardware2025.12、South China Morning Post2025.10、SatNews2026.3、CU Boulder / TechXplore2025.2、IEEE Spectrum2026.1