謎のAI半導体企業「Groq」爆速でAIチャットが使えるデモを公開 [163661708]
■ このスレッドは過去ログ倉庫に格納されています
大規模言語モデル(LLM)を爆速で動作させる「言語処理ユニット(LPU)」を開発する「Groq」が爆速アルファデモを公開
大規模言語モデル(LLM)などを実行するために設計されたカスタムハードウェアである言語処理ユニット(LPU)を開発するGroqが、既存のLLMを爆速で動作させることができるアルファ版デモンストレーションを公開しました。
Groqはアメリカのマウンテンビューに本拠地を置くAI関連企業で、これまでにAI、機械学習、ハイパフォーマンスコンピューティングアプリケーション向けの高性能プロセッサやソフトウェアソリューションなどを開発してきました。なお、名前がイーロン・マスク氏のAI企業であるxAIが開発するAIチャットボットであるGrokと非常に似ていますが、これとは全くの別物です。
通常、AIツールは並列グラフィックス処理用に最適化されたGPUを用いて計算処理を行います。これはGPUが計算処理を迅速に実行可能で、一般的には非常に効率的にこれをこなすためです。例えばLLMのひとつであるGPT-3では、GPUを用いてプロンプトを分析し、その前後にどのような単語が続くかについて一連の予測を行い機能します。
これに対して、Groqが開発しているLPUは既存のLLMを爆速で動作させるために設計されたチップとなっており、一連のデータ(DNA、音楽、コード、自然言語など)を処理するべく特別設計されているため、GPUよりもはるかに優れたパフォーマンスを発揮可能です。
Groqは独自のLLMを開発しているわけではありませんが、既存のLLMを用いてGPUベースの処理よりも最大10倍高速にLLMを実行できるアルファ版のデモンストレーションを公開しています。
Groq
https://groq.com/
参考(過去ニュース)
元グーグル社員が設立のAIチップ企業「Groq」が320億円を調達
https://forbesjapan.com/articles/detail/40985
参考(一般人ブログ)
GroqのLLM Inferenceが超絶速い件に対する感想
https://vengineer.haten
ablog.com/entry/2024/02/20/173000 CMで今田美桜が出演してるし日本でも有名な会社だろ >>8
このチップでは学習はできない
学習したモデルを動かすだけ
なのでNVIDIAの牙城は崩せない
ただ似たようなチップを作っているスタートアップが他にもワラワラある中でいち早くデモを出せたのはプラス要素か エロビデ屋はほどなくこういう企業にボコられるんやろなぁ NVIDIAのように家庭のPCで使えるようなチップではないけどチャットボットビジネスが一般化したらデータセンター用にある程度需要はあるかもしれないな またアメリカか
なぜジャップからは何も生まれないのか >>10
https://www.semianalysis.com/p/groq-inference-tokenomics-speed-but
> Groq’s chip has a fully deterministic VLIW architecture, with no buffers, and it reaches ~725mm2 die size on Global Foundries 14nm process node. It has no external memory, and it keeps weights, KVCache, and activations, etc all on-chip during processing. Because each chip only has 230MB of SRAM, no useful models can actually fit on a single chip. Instead, they must utilize many chips to fit the model and network them together.
昨今のVRAMバカ食いモデルに適応するには厳しそうとしてもできはするみたいだけど >>16
学習には推論の3~4倍はメモリが必要だからちょっと厳しいと思う
SRAMだけで学習できるチップを作っているスタートアップもあるようだが、この会社は現状そういう方針ではないっぽいね >>16
Groqがより多くの資金を得て、2025年~H2に発売予定の次世代4nmチップの生産を増強できれば、経済状況は大きく変わり始める可能性があります。
Nvidiaは、1か月以内に次世代のB100を発表すると考えているため、座っているカモとはほど遠いことに注意してください。
ソース元の文を一部日本語翻訳した文だけどまたいつもの聞いたようなNVIDIAのネタが出ているよため息が出るね
置き去りにして新製品を出す見込みが強いってよ 倫理規制ないやつ出したら勝ちなのにクソつまらん世の中やな😡 現状はGPUの汎用的な使い方をしてるだけで
AI専用で設計すれば速いチップを作れると俺は前から言ってた ■ このスレッドは過去ログ倉庫に格納されています