【速報】Meta(旧Facebook)、AIチップを独自開発「GPUの3倍高速」 [557891193]
■ このスレッドは過去ログ倉庫に格納されています
米Meta(メタ、旧Facebook)は米国時間2023年5月18日、独自のAI(人工知能)用チップを発表した。かねて同社を巡ってはAI用チップの独自開発の観測があり、米一部メディアが開発中止を報じていたものの、同社はこれまで沈黙を保ってきた経緯がある。米Google(グーグル)や米Amazon.com(アマゾン・ドット・コム)などが既に独自チップを実用化しており、生成AIのブームは、その性能を最大限に発揮できる半導体開発競争に飛び火している
同社が開いたAIインフラ技術に関するカンファレンスで、独自チップ「MTIA(Meta Training and Inference Accelerator)」の詳細を発表した。実用化の時期は示さなかった。
ベースとなるのは台湾TSMCの7nmプロセス技術で、熱設計電力(TDP)は25Wだ。64個のプロセッサーをグリッド状に配置。その周囲に合計128MBのSRAMを置く。DRAMはオフチップの64GBだ。演算処理性能は、FP16(半精度浮動小数点演算)による学習で51.2T(テラ)FLOPS、INT8(8ビット整数演算)による推論で102.4TOPSという。
Metaが実際に運用している深層学習モデルで推論のパフォーマンスをテストしたところ、同社が「低い複雑度」と定義したモデルの計算では、米NVIDIA(エヌビディア)のGPU(画像処理半導体)と比較して消費電力当たり約3倍の性能を発揮した。 特定条件下の
比較して消費電力当たり約3倍
何か引っかかる書き方だけど一長一短ってこと? H100に比べて低消費電力だなでも数百万なんだろ? googleはIBMのPOWER CPU搭載したサーバーを開発したことあったしサーバー側で色々と処理する必要がある超巨大インフラ企業は外販しないで自社サーバーに使うためだけに専用チップやサーバーを開発出来るのかも まあGPUだってレンダリングの抽象化から汎用化したわけでいくつか拡張アイデア乗っけただけでしょ知らんけど Meta社すごすぎ!自前でAI用チップ作っちゃうんだからさ。俺もAIエンジニアだけどさ、こんなチップ使ってみたいよね。性能も凄いし消費電力も低いし最高じゃん。GoogleやAmazonもビビってるんじゃない?NVIDIAも負けちゃうかもね。Meta社は生成AIでも強いからさ、これからもっと面白いことしそうだよね。みんなはMeta社やAI用チップについてどう思う? ふと思ったけど特定用途に強いチップ作るより
行列の掛け算を高速で行うだけのアクセラレーター作る方が良くね?
それじゃダメなん? >>10
ふと思ったけどGPUに普通に積和算回路乗ってね? ここに限らずシリコンバレーではAI用のチップ開発してるところいっぱいあるじゃん >>12
積和算回路の行列版作って演算回数を1回にするイメージ
例えば行列のn乗をlogn回の行列の掛け算ではなく1回の掛け算で済むようにする的な ARMやろ?
別に100%自社開発してるわけでもねえくせに大袈裟やろが。 >>10
AIの学習は演算回数が膨大に必要だけれど精度は低くて良いと言われている。
googleのTPUは8bitの整数演算で学習させるらしい。
一方で科学技術計算では64bit浮動小数点演算ないと使い物にならないと言われたり。
GPUのグラフィックの三次元の座標計算は16bit浮動小数点で足りるとか。
浮動小数点演算の回路は複雑でbitする増えればさらに大規模になるからそんな複雑で大規模な回路はAIの学習用には無駄になるらしい >>13
グーグルやアップルがやってるのはクライアント向けじゃなかった?
NVIDIAのシマ取りに行くようなのはあんま聞かない気がする と思ったらグーグルもずっと前からやってんのね
無知だったわ 特定条件下ねぇ…
実用化時期にも触れないしいつものメタやな
とりあえず風呂敷だけ広げる 靴磨きも独自AIチップの開発始めたらAIバブルは終わり >>16
はえー
初耳だった
AIにとっては粗いデータが大量にある方が嬉しいのね 謎の半導体メーカーのグラボ需要が低くなってグラフィック用途の値段が落ち着いてくれるなら大歓迎なんだが そら今のビデボはおまけでAIやってんだから専用であるAIチップくんにはむしろもっと頑張ってもらわんと >>21
まだ研究中の分野だから常識ひっくり返るかもしれないけれどこのチップも
"DRAMはオフチップの64GBだ。演算処理性能は、FP16(半精度浮動小数点演算)による学習で51.2T(テラ)FLOPS、
INT8(8ビット整数演算)による推論で102.4TOPSという。"
と精度の低い浮動小数点演算と8bit整数の演算がウリみたい ■ このスレッドは過去ログ倉庫に格納されています