【速報】Meta(旧Facebook)、AIチップを独自開発「GPUの3倍高速」 [557891193]
■ このスレッドは過去ログ倉庫に格納されています
>>10
ふと思ったけどGPUに普通に積和算回路乗ってね? ここに限らずシリコンバレーではAI用のチップ開発してるところいっぱいあるじゃん >>12
積和算回路の行列版作って演算回数を1回にするイメージ
例えば行列のn乗をlogn回の行列の掛け算ではなく1回の掛け算で済むようにする的な ARMやろ?
別に100%自社開発してるわけでもねえくせに大袈裟やろが。 >>10
AIの学習は演算回数が膨大に必要だけれど精度は低くて良いと言われている。
googleのTPUは8bitの整数演算で学習させるらしい。
一方で科学技術計算では64bit浮動小数点演算ないと使い物にならないと言われたり。
GPUのグラフィックの三次元の座標計算は16bit浮動小数点で足りるとか。
浮動小数点演算の回路は複雑でbitする増えればさらに大規模になるからそんな複雑で大規模な回路はAIの学習用には無駄になるらしい >>13
グーグルやアップルがやってるのはクライアント向けじゃなかった?
NVIDIAのシマ取りに行くようなのはあんま聞かない気がする と思ったらグーグルもずっと前からやってんのね
無知だったわ 特定条件下ねぇ…
実用化時期にも触れないしいつものメタやな
とりあえず風呂敷だけ広げる 靴磨きも独自AIチップの開発始めたらAIバブルは終わり >>16
はえー
初耳だった
AIにとっては粗いデータが大量にある方が嬉しいのね 謎の半導体メーカーのグラボ需要が低くなってグラフィック用途の値段が落ち着いてくれるなら大歓迎なんだが そら今のビデボはおまけでAIやってんだから専用であるAIチップくんにはむしろもっと頑張ってもらわんと >>21
まだ研究中の分野だから常識ひっくり返るかもしれないけれどこのチップも
"DRAMはオフチップの64GBだ。演算処理性能は、FP16(半精度浮動小数点演算)による学習で51.2T(テラ)FLOPS、
INT8(8ビット整数演算)による推論で102.4TOPSという。"
と精度の低い浮動小数点演算と8bit整数の演算がウリみたい ■ このスレッドは過去ログ倉庫に格納されています