要说讲故事的能力,还得看硅谷的创投圈。最近,英伟达支持的太空计算初创公司 Starcloud 就创造了历史,首次在太空轨道上成功训练并运行了人工智能模型。

根据 CNBC 的相关报道显示,基于 H100 加持的 Starcloud-1 卫星,Starcloud 方面成功在太空运行了谷歌的开源模型 Gemma,并用莎士比亚全集训练的 NanoGPT,向地球发送了一段莎士比亚风格的消息," 地球人,你们好!或者用我更喜欢的方式来说——你们是一组由蓝色和绿色构成的迷人集合体。让我们看看,从这个角度观察你们的世界,会发现哪些奇妙之处。"
Starcloud CEO Philip Johnston 表示," 太空 AI" 并非噱头,该公司的目标是实现轨道数据中心能源成本比地面数据中心低 10 倍。据称,Starcloud-1 在轨运行旨在验证构建太空数据中心的可行性,特别是那些需要大型计算集群的模型。

其实在太空部署 AI 这件事,Starcloud 只是率先行动的那一个。谷歌 CEO 桑达尔 · 皮查伊此前在接受福克斯新闻的采访时就曾表示,谷歌即将开始建设太空人工智能数据中心,计划于 2027 年初迈出建设的第一步,并且他表示," 我们的远大目标之一是有朝一日在太空建立数据中心,以便更好地利用太阳能。太阳的能量是当今地球全部产能的 100 万亿倍。"
拥有 SpaceX 的马斯克同样也对太空 AI 数据中心情有独钟,他曾明确表示,将扩大了高速激光链路的星链 V3 卫星规模,并在 4 到 5 年内通过星舰完成每年 100 吉瓦(GW)的数据中心部署。
那么问题就来了,为什么这些硅谷的公司会将视线投向太空呢?

事实上,这些硅谷初创企业、科技巨头仰望星空的原因很简单,那就是为了解决能源问题。在这一轮的 AI 竞赛中,太平洋两岸所面临的挑战截然不同。国内的情况想必大家都知道,半导体产业、特别是先进制程和 GPU 设计的落后,使得国内 AI 厂商被算力卡了脖子,而在大洋彼岸则是由于基础设施投入不足,因为美国缺电。
" 如果你无法提供足够的电力,那么即使拥有大量芯片,也只能让它们闲置在仓库里 ",桑达尔 · 皮查伊此前在播客节目中,是这样解释建设太空数据中心的必要性。如果以为 AI 只是代码、算法、模型那就大错特错,因为它其实还是一个名副其实的 " 电老虎 "。
ChatGPT 每天响应 2 亿次的请求,就需要消耗 50 万千瓦时电力,相当于一座美国小城一天的用电量。根据美国能源信息署(EIA)的测算,2030 年全球 AIDC(AI 数据中心)的电力需求将达 347GW。一旦没电,这些科技巨头花费万亿美元训练的 AI 模型、建设的 AI 数据中心,就只能成为一堆废铁。

关注科技行业动向的朋友想必对今年春季一众美国科技巨头投资建设核电站有印象,此事的根源就是美国的电网还是上个世纪的 " 老古董 ",所以他们不得不盯上核电。可无论是建设新的核电站,还是重启已经关闭的旧核电站,都需要面临环保这个难题。
因此这些科技巨头就将目光投向了太空。由于没有云层的遮挡,部署在太阳同步轨道上的太阳能电池板单位面积发电量是地面的 5 倍,比如一平方米的砷化镓太阳能电池在太空中可输出 300W 电力,可在地面最多就只有 60W。
看到这里,可能有的朋友就会产生一个疑问,那就是太空 AI 数据中心如此之好,为何国内厂商没有跟进呢?其实这不是因为国内的航天实力不足,而是太空 AI 数据中心存在散热和抗辐射这两大几乎无解的难题。
其中,地球轨道附近的太空平均温度是零下 120 ℃,可太空接近完美真空,但热量主要通过辐射传递,而不是空气对流或介质传导。

因为传热效率低下,就使得太空中的卫星不仅有太阳能电池板,还有用于散热的专用辐冷板。1GW 水平的太空数据中心,辐冷板面积就将达 20 万平方米,重量超过 1000 吨,即便按照 SpaceX 星舰单次发射载重 150 吨计算,就意味着需要 10 次发射才能凑齐这一套散热系统。
而太空 AI 数据中心最致命的挑战,则是高能粒子带来的单粒子翻转,也就是受到宇宙射线照射所引起电子元器件的电位状态跳变,将 "0" 变成 "1" 或是 "1" 变成 "0"。虽然单粒子翻转不会让芯片在物理层面造成损害,却会引发以二进制存储的数据变化,进而导致计算错误。
尽管在个人电脑和手机上单粒子翻转无伤大雅,可对于进行矩阵乘法的 GPU 而言,微小的错误就足以让计算结果谬以千里,这也是为什么宇航级芯片使用的是并非 2nm 这种先进制程,而往往是 90nm、130nm 这样的 " 落后制程 "。

总而言之,在散热与电磁防护这两大难关被攻克前,类似 Starcloud 这样的太空 AI 数据中心更多还只是作秀,并没有太多实际意义。
【本文图片来自网络】


登录后才可以发布评论哦
打开小程序可以发布评论哦