米Meta(メタ、旧Facebook)は米国時間2023年5月18日、独自のAI(人工知能)用チップを発表した。かねて同社を巡ってはAI用チップの独自開発の観測があり、米一部メディアが開発中止を報じていたものの、同社はこれまで沈黙を保ってきた経緯がある。米Google(グーグル)や米Amazon.com(アマゾン・ドット・コム)などが既に独自チップを実用化しており、生成AIのブームは、その性能を最大限に発揮できる半導体開発競争に飛び火している
同社が開いたAIインフラ技術に関するカンファレンスで、独自チップ「MTIA(Meta Training and Inference Accelerator)」の詳細を発表した。実用化の時期は示さなかった。
ベースとなるのは台湾TSMCの7nmプロセス技術で、熱設計電力(TDP)は25Wだ。64個のプロセッサーをグリッド状に配置。その周囲に合計128MBのSRAMを置く。DRAMはオフチップの64GBだ。演算処理性能は、FP16(半精度浮動小数点演算)による学習で51.2T(テラ)FLOPS、INT8(8ビット整数演算)による推論で102.4TOPSという。
Metaが実際に運用している深層学習モデルで推論のパフォーマンスをテストしたところ、同社が「低い複雑度」と定義したモデルの計算では、米NVIDIA(エヌビディア)のGPU(画像処理半導体)と比較して消費電力当たり約3倍の性能を発揮した。 0004番組の途中ですがアフィサイトへの転載は禁止です (JPW 0H67-8wbf)2023/05/19(金) 14:01:25.84ID:oinb4MfuH
特定条件下の
比較して消費電力当たり約3倍
何か引っかかる書き方だけど一長一短ってこと?
0005番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイ 23a6-ZkZz)2023/05/19(金) 14:02:13.36ID:h1OSJSWQ0
H100に比べて低消費電力だなでも数百万なんだろ?
0006番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 6fa2-Dzu7)2023/05/19(金) 14:04:05.24ID:IRN+L8Xj0
voodooみたいな専用カードになってくの
googleはIBMのPOWER CPU搭載したサーバーを開発したことあったしサーバー側で色々と処理する必要がある超巨大インフラ企業は外販しないで自社サーバーに使うためだけに専用チップやサーバーを開発出来るのかも
まあGPUだってレンダリングの抽象化から汎用化したわけでいくつか拡張アイデア乗っけただけでしょ知らんけど
0009番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW b387-/xsw)2023/05/19(金) 14:11:09.96ID:Yzz/QTec0
Meta社すごすぎ!自前でAI用チップ作っちゃうんだからさ。俺もAIエンジニアだけどさ、こんなチップ使ってみたいよね。性能も凄いし消費電力も低いし最高じゃん。GoogleやAmazonもビビってるんじゃない?NVIDIAも負けちゃうかもね。Meta社は生成AIでも強いからさ、これからもっと面白いことしそうだよね。みんなはMeta社やAI用チップについてどう思う?
0010番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 0356-xSXk)2023/05/19(金) 14:12:54.64ID:yzfDordS0
ふと思ったけど特定用途に強いチップ作るより
行列の掛け算を高速で行うだけのアクセラレーター作る方が良くね?
それじゃダメなん?
0012番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイ 23a6-ZkZz)2023/05/19(金) 14:15:10.76ID:h1OSJSWQ0
>>10
ふと思ったけどGPUに普通に積和算回路乗ってね? 0013番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイ 034e-ZkZz)2023/05/19(金) 14:16:09.52ID:O0+QPYgp0
ここに限らずシリコンバレーではAI用のチップ開発してるところいっぱいあるじゃん
0014番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 0356-xSXk)2023/05/19(金) 14:18:32.75ID:yzfDordS0
>>12
積和算回路の行列版作って演算回数を1回にするイメージ
例えば行列のn乗をlogn回の行列の掛け算ではなく1回の掛け算で済むようにする的な 0015番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW cf9a-+JH3)2023/05/19(金) 14:20:19.36ID:8Qg1eI450
ARMやろ?
別に100%自社開発してるわけでもねえくせに大袈裟やろが。
>>10
AIの学習は演算回数が膨大に必要だけれど精度は低くて良いと言われている。
googleのTPUは8bitの整数演算で学習させるらしい。
一方で科学技術計算では64bit浮動小数点演算ないと使い物にならないと言われたり。
GPUのグラフィックの三次元の座標計算は16bit浮動小数点で足りるとか。
浮動小数点演算の回路は複雑でbitする増えればさらに大規模になるからそんな複雑で大規模な回路はAIの学習用には無駄になるらしい >>13
グーグルやアップルがやってるのはクライアント向けじゃなかった?
NVIDIAのシマ取りに行くようなのはあんま聞かない気がする と思ったらグーグルもずっと前からやってんのね
無知だったわ
0019番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW a364-IB/M)2023/05/19(金) 15:12:02.19ID:3xAnjPlS0
特定条件下ねぇ…
実用化時期にも触れないしいつものメタやな
とりあえず風呂敷だけ広げる
0020番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW cf8f-sYRq)2023/05/19(金) 15:16:45.48ID:5CDAFxA20
靴磨きも独自AIチップの開発始めたらAIバブルは終わり
0021番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 0356-xSXk)2023/05/19(金) 15:16:47.31ID:yzfDordS0
>>16
はえー
初耳だった
AIにとっては粗いデータが大量にある方が嬉しいのね 0022番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 33d2-mc/S)2023/05/19(金) 15:19:59.24ID:OIkND7850
謎の半導体メーカーのグラボ需要が低くなってグラフィック用途の値段が落ち着いてくれるなら大歓迎なんだが
そら今のビデボはおまけでAIやってんだから専用であるAIチップくんにはむしろもっと頑張ってもらわんと
>>21
まだ研究中の分野だから常識ひっくり返るかもしれないけれどこのチップも
"DRAMはオフチップの64GBだ。演算処理性能は、FP16(半精度浮動小数点演算)による学習で51.2T(テラ)FLOPS、
INT8(8ビット整数演算)による推論で102.4TOPSという。"
と精度の低い浮動小数点演算と8bit整数の演算がウリみたい