X

【悲報】Nvidiaバブル、終了か。加算演算だけで高速・高性能を実現するAIモデル「BitNet」をMicrosoftが発表し、ハードウェア革命到来 [666250534]

■ このスレッドは過去ログ倉庫に格納されています
1安倍晋三🏺 ◆ABeSHInzoo (ワッチョイW 0656-fwA/)
垢版 |
2024/02/28(水) 21:03:49.07ID:jm46InH00?2BP(1000)

WirelessWire News
『1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も』
https://wirelesswire.jp/2024/02/86094/

Microsoftの中国チームがとてつもないLLMをリリースした。それが「BitNet 1.58Bits」だ。

もともとMicrosoftはかねてから「1ビット量子化」の研究を続けて来た。しかし、32ビット浮動小数点での計算が主流な時代にはあまりに野心的で荒唐無稽なプロジェクトに見えていたのは否めない。しかし、現在、大規模言語モデル(LLM;Large Language Model)は8ビット、4ビットで量子化されるのが当たり前になり、量子化しても性能劣化はある程度まで抑えられることも知られるようになった。

昨年10月に発表した「BitNet」は、多くの人々が他のことに気を取られていてほとんど話題にならなかった。
そんな中、満を持して発表された1ビットLLMの性能に関するレポートは、衝撃的と言っていい内容だ。論文のタイトルも堂々と「The Era of 1-bit LLM(1ビットLLMの時代)」としている。

彼らが発表したグラフを引用しよう。
https://i.imgur.com/VMD8HyS.png

まず、最近主流になっている70B(700億)パラメータモデルでの比較である。Llamaの70BとBitNetの70Bモデルを比較すると、BitNetは8.9倍のスループットを誇るという。

「速いだけで回答が微妙なのでは」と心配するのが普通だろう。
そこでLlamaモデルとの比較が載っている。
https://i.imgur.com/zmgoo1X.png

この表によると、BitNetはLlamaよりも3倍高速でしかも高精度ということになる。
PPLは「困惑」の度合いを意味する数値で、低いほど「困惑してない」ことになる。Llamaよりも性能劣化してないどころか性能は上がっている。

また、各種ベンチマークにおいても平均点は同規模のBitNetがLlamaを上回っている。しかもBitNetは規模が大きくなるほどLlamaに対して優位に立つようになっている。

この圧倒的なスピードの秘密は、BitNetが文字通り「1ビットで処理している」からだ。

https://i.imgur.com/1tcsItA.png
2024/02/29(木) 23:08:47.51ID:PKASaZ7z0NIKU
>>475
驚き屋が騒いでるだけだぞ
量子化なんて前から取り組まれてる分野なのに
481番組の途中ですがアフィサイトへの転載は禁止です (ニククエW aafc-KPVc)
垢版 |
2024/02/29(木) 23:12:39.72ID:LFoO4+jb0NIKU
結局NVDAは伸びるってことだな。よかったよかった
2024/02/29(木) 23:59:04.89ID:aM1X9ngU0NIKU
>>479
高速メモリ積めばいいって言葉で言うだけなら簡単だよな
実際はそれを一から製品化すると販売価格5000万とかになる

ノウハウあってGPUの規格流用して超大規模に量産してるNVIDIAだから1000万以下で作れてるだけ
483番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイ 9f0d-EVRh)
垢版 |
2024/03/01(金) 00:14:34.62ID:9RL2We4+0
今日のNVDAの株価+2%超、MSFTは+0.2%弱
これが現実である
2024/03/01(金) 05:13:27.28ID:OqGj4VB7d
一部のユーザーが熱烈に持ち上げてるamdさんは・・・・・・・・ww
485安倍晋三🏺 ◆.abeshinZo (ワッチョイW 864d-XXT3)
垢版 |
2024/03/01(金) 05:30:41.03ID:S8iZuF1z0
>>471
加算はCPUの方が得意だからね
グラフィック処理が必要なGPUはダイの大部分を加算回路に割り当てるようなわけにはいかない
またAIをCPUで高速処理できればサーバからデータセンターGPUを排除する事で全体のパフォーマンスはよくなる
486番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW e7fd-B7K3)
垢版 |
2024/03/01(金) 09:24:51.28ID:IB2m3fO30
CPUベンダー各社は、CPUにAI処理部を付けようとしているので、
これを実装するならそっちで処理をするのかな?
ただ、メモリアクセス速度はGPUの方が上だから
GPU側にそれを付けるのは理に合ってるし

ローエンドだとCPU、ハイエンドだとGPUそういう事になりそう
487番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 5a20-B8xX)
垢版 |
2024/03/01(金) 09:30:11.95ID:mOVbSJds0
APUやらNPUに関しての技術資産はAMDの方がありそうだけどな、どうなることやら
2024/03/01(金) 10:16:46.53ID:hfQxa4O2d
>>486
メモリアクセスやその帯域に関してはCPUはこれから先XEON maxみたいにメインメモリを内部外部両方に持って
CPUタイルの隣の内部メインメモリをL4キャッシュみたいに使うようになると思う
こうすれば非常に速くできる
2024/03/01(金) 10:54:47.24ID:RpQRmuSdM
これで
実は大したことありませんでしたとなると、MSの権威は地の底に落ちる。
490安倍晋三🏺 (ワッチョイ 46f8-w3el)
垢版 |
2024/03/01(金) 11:33:24.80ID:+RKEJhUb0
日本人だけが騒いでるな
驚き屋さんが有料解説記事を売りたくて頑張ってるのかな
491番組の途中ですがアフィサイトへの転載は禁止です (JPW 0H86-U9dJ)
垢版 |
2024/03/01(金) 12:28:59.66ID:C0zJrAqlH
エヌビディア株は1日の変動が大きいから稼ぎ易いわ
492番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 4afd-B7K3)
垢版 |
2024/03/01(金) 14:25:21.44ID:Crk0cun+0
>>488
そういや新しいXEONはHBMメモリが中に入っているんだったっけか
だとするとメモリアクセスは爆速だろうな
インテルは強力な数値計算ライブラリがあるから
CUDAからの移行も楽そうだしな
2024/03/01(金) 15:28:03.39ID:DDyRchRy0
なおIntelの2023年市場のAIサーバ出荷シェア…0%
現実は話にならないですね
妄想するだけなら自由ですが…

AMDは1.2%
2024/03/01(金) 15:32:51.97ID:t6y//Hzf0
そもそも周回遅れの話で妄想たくましくしてるの日本人だけだよ
495番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 4afd-B7K3)
垢版 |
2024/03/01(金) 16:26:18.23ID:Crk0cun+0
>>493
何でAMDの話が...
まあいいけど
496番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイ e774-nqG4)
垢版 |
2024/03/01(金) 17:00:01.02ID:ox0tzrmT0
コレAppleが最初にプロダクト化するんだろな
2024/03/01(金) 17:02:38.14ID:O0VA95yN0
するわけねーだろ
そんな無駄な事
あ、でもVisionProとか結構無駄なことしてたわapple
498番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイ 5a5a-0MUJ)
垢版 |
2024/03/01(金) 17:13:37.04ID:FM4R4igV0
>>485
そんな話はない。CPUが得意なのは分岐命令とその予測だよ。
2024/03/01(金) 17:43:26.35ID:BRMR5DGt0
1bit整数(実インプリでは2bit?)演算って今のハードウェアだと8bit整数演算に詰め込むことになり、
AI向けを考慮して8bit整数演算も出来る今時のGPUなら、結局現時点ではGPUが速いってことになるのでは?
2024/03/01(金) 19:29:04.71ID:FXpXo8Cl0
何を今更 重要なのは将来の話でしょ
BitNetで充分なら今のgpuの大部分の機能が要らないからgpgpu製品から
AIアクセラレータ製品群が完全に分岐するよねって

同じダイに加算器たくさん詰め込めるから爆速になるし
参入障壁低くなるから競合増えて安くなる
riva128の時みたいに新参メーカーが颯爽とトップ取るかもだし

当然nVidiaもしばらくは優位性続くだろうけど安いも製品出すだろうし
でもごっそり中国韓国に持っていかれそう

なにはともあれBitNetの効能メリデメ裏付け次第 話はそれからだ
2024/03/01(金) 19:29:47.78ID:FXpXo8Cl0
そもそも現行のFPGAでも良いものできるんじゃ?
と思ったらそう言えばインテル間が悪いw
502番組の途中ですがアフィサイトへの転載は禁止です (ワッチョイW 4afd-B7K3)
垢版 |
2024/03/01(金) 19:46:12.96ID:Crk0cun+0
まあ地味に重要なのは電力効率だろうな、それぐらいAIの計算では電力を食ってるし
広く使おうと思ったら必須だしな
2024/03/01(金) 20:54:05.75ID:FXpXo8Cl0
たしかにー🦀
エコ大事
2024/03/01(金) 21:27:06.38ID:nhttUq4T0
素人がありもしないことを将来はだの妄想してるあいだにプレマーケット今日もNVDA上げ上げです
MSFT下がってる。AMDは昨日もめっちゃ上がったし頑張ってるよ!
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況