当我在DeepSeek上发问AI大模型每天要耗费多少电?时,它的答复让我对技能背面的动力本钱有了全新认知。经过模型参数、硬件装备和职业比照的推演,咱们得以窥见这个智能体系背面的电力暗码——
依据查找出来的成果中的信息,DeepSeek的单日访问量已超越1亿,但其详细的电力耗费数据并未直接发表。不过可以终究靠相关技能参数和职业剖析进行预算:
DeepSeek的算力需求与其用户访问量和模型推理复杂度严密相关。依据国泰君安证券的剖析师测算,若假定DeepSeek日均访问量为1亿次,每次发问10次,每次回复耗费1000个token(约750个英文字母),则每秒的推理算力需求约为\(1.6 \times 10^{19}\) TOPs(每秒万亿次操作)。
若选用FP8精度的英伟达H100显卡进行推理(每卡算力约1979 TOPs,功耗约700瓦),在50%利用率下需约16,177张H100显卡,对应总功耗约**11.3兆瓦**(继续运转)。按此核算,单日电力耗费约为**271.2兆瓦时**(11.3 MW × 24小时)。若选用A100显卡(算力更低,功耗约400瓦),电力耗费或许更高。
实践电力耗费还需考虑服务器冷却、存储、网络传输等额定能耗。一般,数据中心的全体功耗是IT设备功耗的1.5倍左右,因而总日耗电量或许挨近**406.8兆瓦时**(271.2 × 1.5)。
不过,DeepSeek选用了低本钱推理模型规划,其参数规划(如370亿参数)仅为ChatGPT(1.8万亿参数)的约2%,硬件本钱下降至1/5,这或许经过模型紧缩和算法优化直接下降单位能耗。
比照ChatGPT:若以ChatGPT的日访问量(1.3-1.4亿次)为参阅,其单日耗电量估量在500-700兆瓦时之间。DeepSeek经过轻量化模型和区域性服务器布置,或许将能耗操控在此数值的60%-80%。
增加压力:跟着用户量继续增加(如日活打破2000万),算力需求或许成倍增加,进一步推高电力耗费。例如,若访问量翻倍,电力耗费或到达800兆瓦时/日以上。
AI职业的高耗能问题已引发重视。DeepSeek若需长时间开展,或许需选用更高效的芯片架构(如国产算力芯片)、绿色动力(如风电/光伏)或分布式核算,以缓解动力压力。
根据现有数据预算,DeepSeek单日电力耗费约在**400-700兆瓦时**之间,详细取决于实践算力装备和能效优化办法。跟着用户规划扩大和技能迭代,这一数值或许动态改变。
总的来说,这个成果应该是比较科学的,400兆瓦时到700兆瓦时,换算成千瓦时也便是40万千瓦时到70万千瓦时,相当于每天耗费40万到70万度电。按此计算,DeepSeek的年耗电量将达1.46亿度(40万×365天)至2.555亿度(70万×365天)。假定每度电0.8元,仅电费开销一项就高达1.168亿元到2.044亿元。这还没有算上硬件折旧、散热保护等直接本钱。
更值得沉思的是,当AI使用逐步浸透日子每个旮旯时,其动力需求或许以超线性速度增加。DeepSeek展示的能耗图谱,既是当时AI工业高质量开展的缩影,也是未来技能迭代的考题——如安在提高智能水平的一起打破能耗咒骂,或许将决议人类与AI共生的终极形状。回来搜狐,检查更加多