謎のプログラム『言語モデル』、これめっちゃメモリ消費が多いらしいな [193050788]
■ このスレッドは過去ログ倉庫に格納されています
https://internet.watch.impress.co.jp/docs/column/shimizu/1503707.html
自宅PCで「rinna」の日本語言語モデルを試用、メモリ32GBあればCPUだけでも動くぞ!
最終的に、CPUのみでも動くようにできたが、処理速度は「激遅」で、実用性としてはかなり厳しい。質問から回答まで長いと1分ほど待たなければならない。
今は、発表されたばかりのRTX4060ti 16GBを待つか、中古でRTX3090 24GBを買うか、真剣に悩んでいる。いずれにせよ、こんなに切実にビデオカード、いや、VRAMが欲しいと思ったのは初めてだ。 データをメモリ上に展開するだけで別にやろうと思えばHDDとかSSDでも代用できんじゃないの? >ただし、実行時に、float16(半精度の浮動小数点)のパラメーターを設定すれば、使用メモリを約半分にできるため、実質的には12GBクラスのGPUでも利用可能となる。RTX 3060(12GB版)、RTX3080あたりでも動作可能だ。
デフォでfp32とか無駄過ぎんだろ メモリ上に数十GBのモデルファイルやらpython関連のライブリ読み込まないと動かないからな
仮想メモリも増やさないとまともにAI関係のプログラムをローカル実行するのは困難 メインメモリは今安いからどうにでもなるんだよな
俺でも64GB積んでる ■ このスレッドは過去ログ倉庫に格納されています