AI芯片的两大“升级方向”——FP8精度和多芯互联,到底牛在哪?(第1/2页)
提到ai芯片,不少人可能觉得“离自己很远”,但其实咱们平时用的ai聊天、刷的短视频推荐,背后都靠ai芯片“算”出来的。现在ai芯片正在快速升级,其中有两个方向特别关键:fp8精度和多芯互联。这俩词听着挺专业,其实用大白话拆解开特别好懂——简单说,fp8精度是让芯片“算得又快又省电”,多芯互联是让芯片“组队干活,力大无穷”。今天就从这两个方向入手,跟大家聊明白ai芯片是怎么升级的,以及对咱们用ai、对国产芯片发展有啥影响。
一、先搞懂基础:ai芯片为啥要“升级”?核心是解决“算力不够、电费太贵”的问题
在聊具体技术之前,得先弄明白一个事儿:ai芯片为啥非得升级?答案很简单——现在的ai越来越“能吃算力”了。
比如训练一个像gpt-4这样的大模型,需要处理几十万亿条数据,要是芯片算得慢,可能得花好几个月才能训练完;而且芯片算的时候特别费电,一个大模型训练一次,电费可能就好几百万。以前的芯片技术,要么算得慢、要么电费高,根本跟不上现在ai的“胃口”。
就像咱们做饭,以前用小煤炉,做一大锅饭又慢又费煤;现在换成大燃气灶,又快又省气。ai芯片的升级,就相当于从“小煤炉”换成“大燃气灶”,核心是解决“算力不够用、能耗太高”这两个痛点。而fp8精度和多芯互联,就是解决这两个痛点的“两把钥匙”。
二、第一个升级方向:fp8精度——让芯片“算得准、跑得快、省电费”,大模型训练直接受益
先来说第一个关键技术:fp8精度。这里的“精度”不是指芯片的制造精度,而是指芯片“计算数据时的精细程度”。咱们可以把芯片计算想象成“用尺子量东西”:以前的芯片用“厘米尺”量,现在fp8精度相当于用“毫米尺”量,既能量得更准,还能更快量完,同时还不费“力气”(也就是省电)。
1.
先拆“fp8精度”:不是“精度降低”,而是“精准控耗”,该细的地方细,该省的地方省
可能有人看到“fp8”里的“8”会疑惑:以前不是有fp16、fp32吗?数字变小了,是不是精度变低了?其实不是这么回事。
简单说,“fp+数字”代表芯片存储和计算数据的“格式”,数字越大,能存储的数据越精细,但需要的存储空间和计算资源也越多。比如fp32就像“高清电影”,画面特别细,但占内存大、播放时费电;fp16像“标清电影”,画面稍粗一点,但占内存小、播放快;而fp8是“优化后的标清”——在保证画面(计算精度)够用的前提下,把没用的“像素”(冗余数据)去掉,既不影响观看(计算结果),还能省内存、省电费。
举个例子:比如计算“1.
+
2.”,用fp32能算出“3.”,精确到小数点后8位;用fp8算,能算出“3.5802”,精确到小数点后4位。对咱们日常用的ai来说,小数点后4位的精度完全够用——比如ai推荐短视频,不用精确到小数点后8位,只要能判断“你喜欢这个视频的概率是85%”就行,没必要算成“85.%”。
所以fp8精度不是“降低精度”,而是“精准控耗”——把算力和电量用在“刀刃上”,该精细的地方不马虎,没必要精细的地方省资源。
2.
fp8精度的核心好处:算力密度翻2倍、能耗降30%,大模型训练直接“提速又省钱”
搞懂了fp8精度的原理,再来看它的实际好处,主要有两个:一是“算力密度提升2倍”,二是“能耗降低30%”。这俩好处对大模型训练来说,简直是“及时雨”。
更多内容加载中...请稍候...
本站只支持手机浏览器访问,若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!
本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!