8年内英伟达算力
在8年内,英伟达的AI算力增加了 1000倍。这种算力的显著提升意味着可以以更低的成本去训练大模型。例如,训练一个1.8万亿参数、8万亿token的GPT-4模型,所需的能耗从8年前Pascal架构的1000GWh减少到Blackwell架构的3GWh,能耗降低了足足350倍。同时,Blackwell架构将生成token的能耗降至8年前的1/45000。
此外,英伟达在AI芯片的算力方面也取得了显著进展,例如DGX的AI算力提升到上一代的45倍,达到了1440PFLOPS,而能耗仅为上一代的10倍。这些进步不仅展示了英伟达在AI算力方面的强大实力,也预示着AI时代摩尔定律(算力快速增长,算力成本快速下降)正在形成。