スタフォ大、ChatGPTレベルのAIを6万円で作ったと発表 [723997461]
■ このスレッドは過去ログ倉庫に格納されています
それに比べ日本の大学はほんと情けないな
存在価値あるのか スタンフォード大学のCenter for Research on Foundation Models(CRFM)は、
OpenAIのGPT APIを使ってMetaの大規模言語モデル「LLaMA」の7Bモデルに「微調整」を行った、「Alpaca 7B」をオープンソースで公開した。
オープンソースじゃんはよとってこい >OpenAIのGPT APIを使って
スレタイ詐欺じゃん ラズパイで動く言うても1トークン数秒って書いてあったような?
とりあえずギリギリ動くって話なんでしょこれ? 言語を理解できるとこまで多次元化できとんのか
俺たちってAIと一緒の構造だったの?いやなんだけど
接続を増やしたら超えちゃうじゃん
どうすんべこれ
勉強とか学歴に傾倒した人ほど不利だぜ GPT-3.5に動かしてるサーバーがどのくらいの規模か尋ねたら
>350TBのトレーニングデータを含む数十億個のパラメータを持つモデルを数千台のGPUで並列処理してます
って答えが返ってきたよ GPT3はパラメタ175億個だから16ビット小数ならだいたい35GB
データは一度に1000個食わせるなら1000x2048x4バイトくらい?として10MBくらいか
一人用でいいなら4090が3台あれば十分なのか >>17
お前はAI未満だよ
「俺たち」とか他人を巻き添えにはするなよ >>22
マジレスするのもなんだけど脳の構造に個人差なんてほとんどないぞ ■ このスレッドは過去ログ倉庫に格納されています