人工智能(AI)的算法、算力和数据,作为驱动该行业发展的“三驾马车”,发力的时间点(也即瓶颈期)不是同步的,有着明显的次序。当前,全球顶级AI大模型已经度过了技术瓶颈期和算力瓶颈期,正处于数据瓶颈期。未来,AI的发展还将迈向下一个新的瓶颈期,即应对“电力荒”的挑战。
技术瓶颈期出现在2018年前。彼时,符号主义、连接主义、行为主义三大流派长期争鸣,整个行业缺乏统一框架。深度学习虽然在2006年就已提出,但却因为计算资源不足和训练方法低效而陷入停滞。
2017年,Transformer架构的提出彻底改变了这一局面。从此,关于AI技术路线的分歧逐渐消除,整个行业进入了全新的“大模型时代”。这一转变,类似于互联网发展历史上TCP/IP的提出,让网际互联的技术路线从百花齐放走向了步调统一,催生了后来的WWW技术等。
算力瓶颈期始于2023年。伴随着深度学习模型参数从百万级飙升至千亿级,传统CPU的串行计算模式已无法满足需求。高昂的能耗与成本让算力成为限制大模型规模扩张与迭代速度的核心因素。在这一阶段,AI芯片的进步(尤其是GPU)成为解决问题的关键。例如,英伟达通过CUDA生态垄断高端市场,谷歌TPU等定制芯片进一步提升特定任务效率。值得一提的是,从2023年到2025年,智能算力迎来了发展的黄金期。
数据瓶颈期会从2024年延续到2030年。由于互联网公开数据已被充分挖掘,再加上企业私域数据和行业专用数据的获取难度高,大模型训练遇到了“数据墙”。对此,行业也在积极寻求破解之道。例如,联邦学习、隐私计算等技术部分缓解了数据孤岛情况,合成数据降低了对真实数据的依赖,可信数据空间、数据交易所、高质量数据集建设等创新拉动了私域和专用数据的价值释放。与此相应,“Data for AI”的黄金期将从现在延续到2030年。
“电力荒”很有可能出现在2030年之后。大模型能耗呈指数级增长,数据中心电力成本占到运营支出的40%以上,能源成本、能源供应与电网老化问题将进一步加剧。有效的应对措施,包括电网的优化、AIDC配电技术的进步以及“东数西算”战略的进一步实施。而光伏太阳能、风力发电以及绿电直供、源网荷储等措施,也将有助于问题的解决。“电力荒”也将驱动产业的变革,模型轻量化、算效提升成为方向。
目前,我国AI大模型所处发展阶段有所不同,技术领域涌现出大量的工程性创新,高端算力依然短缺,数据问题突出且差异巨大,短期电力供给问题不大但要做好长期准备。
下一篇:为千年凉州史立言