X



【速報】Meta(旧Facebook)、AIチップを独自開発「GPUの3倍高速」 [557891193]

■ このスレッドは過去ログ倉庫に格納されています
0012番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイ 23a6-ZkZz)
垢版 |
2023/05/19(金) 14:15:10.76ID:h1OSJSWQ0
>>10
ふと思ったけどGPUに普通に積和算回路乗ってね?
0013番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイ 034e-ZkZz)
垢版 |
2023/05/19(金) 14:16:09.52ID:O0+QPYgp0
ここに限らずシリコンバレーではAI用のチップ開発してるところいっぱいあるじゃん
0014番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 0356-xSXk)
垢版 |
2023/05/19(金) 14:18:32.75ID:yzfDordS0
>>12
積和算回路の行列版作って演算回数を1回にするイメージ
例えば行列のn乗をlogn回の行列の掛け算ではなく1回の掛け算で済むようにする的な
0015番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW cf9a-+JH3)
垢版 |
2023/05/19(金) 14:20:19.36ID:8Qg1eI450
ARMやろ?
別に100%自社開発してるわけでもねえくせに大袈裟やろが。
0016番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 63d0-clVn)
垢版 |
2023/05/19(金) 14:34:18.53ID:2i95rTyP0
>>10
AIの学習は演算回数が膨大に必要だけれど精度は低くて良いと言われている。
googleのTPUは8bitの整数演算で学習させるらしい。
一方で科学技術計算では64bit浮動小数点演算ないと使い物にならないと言われたり。
GPUのグラフィックの三次元の座標計算は16bit浮動小数点で足りるとか。
浮動小数点演算の回路は複雑でbitする増えればさらに大規模になるからそんな複雑で大規模な回路はAIの学習用には無駄になるらしい
0019番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW a364-IB/M)
垢版 |
2023/05/19(金) 15:12:02.19ID:3xAnjPlS0
特定条件下ねぇ…
実用化時期にも触れないしいつものメタやな
とりあえず風呂敷だけ広げる
0020番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW cf8f-sYRq)
垢版 |
2023/05/19(金) 15:16:45.48ID:5CDAFxA20
靴磨きも独自AIチップの開発始めたらAIバブルは終わり
0021番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 0356-xSXk)
垢版 |
2023/05/19(金) 15:16:47.31ID:yzfDordS0
>>16
はえー
初耳だった

AIにとっては粗いデータが大量にある方が嬉しいのね
0022番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 33d2-mc/S)
垢版 |
2023/05/19(金) 15:19:59.24ID:OIkND7850
謎の半導体メーカーのグラボ需要が低くなってグラフィック用途の値段が落ち着いてくれるなら大歓迎なんだが
0024番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 63d0-clVn)
垢版 |
2023/05/19(金) 15:22:56.99ID:2i95rTyP0
>>21
まだ研究中の分野だから常識ひっくり返るかもしれないけれどこのチップも
"DRAMはオフチップの64GBだ。演算処理性能は、FP16(半精度浮動小数点演算)による学習で51.2T(テラ)FLOPS、
INT8(8ビット整数演算)による推論で102.4TOPSという。"

と精度の低い浮動小数点演算と8bit整数の演算がウリみたい
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況