>>186
言語モデルはGPUメモリの大きさが勝負だぞ
LLaMaの7Bモデル+LoRA(現状最もメモリを食わない構成)でも9GBは必要らしい
https://github.com/tloen/alpaca-lora