FNN「日本がスパコン富岳でAIを作ります!ChatGPTより優れた点は何ですか!」研究者「本家が相手にしてない日本語に強いことです」 [296617208]
■ このスレッドは過去ログ倉庫に格納されています
国産生成AIをスパコン「富岳」を活用し開発へ…
ChatGPTより優れた点は?国産のメリットを研究者に聞いた
https://www.fnn.jp/articles/-/534465?display=full 衰退国だからローカライズも自分でやらな対応してくれんのよ🥺 信じないぞ
ポートピアと一緒で日本語の認識もとんでもなくポンコツなんだろ 邪鬼ペディアを食わせるんだって?
やめなよ( ´△`) >>5
大東亜戦争は防衛戦争
アジア解放の聖戦
とか答えてくれるのか 世界に通用するものを作ろう!じゃなくて内需をアテにするしかないってのが物悲しいな🥲 平均的な日本人がいよいよ日本語を捨てる
タイミングが迫ってきてるな 日本語AI「調べてみましたが、今回はわかりませんでした。いかがでしたか?」 英語の情報量のほうが何百倍も多いわけじゃんウェブって
日本語で学習させたら単に偏ったポンコツになるだけじゃねえの chat gptって日本語分析にSimejiを今でも使ってるんだろか?
使ってる説と使ってない説が入れ乱れとる >>14
まあゴミクズ2ちゃんねらーでオタクのネトウヨみたいなAIになるのは間違いないな NvidiaのGPU買ってきて組み立てるだけじゃん ジャップAI「世界でもまれなマイナー言語にくわしい😤」 完成いつぐらいになるのかと無料でどの位使わせてくれるのかだな
gpt5出てから出して性能がchatgptレベルなら影が薄くなりそう
chatgptも使いこなしてる人少ないし全然いけるか? なお学習はジャップがさせます
つかLLMから作るつもりなの? >>25
間違ってるかもしれんが3.5相当の性能目指すって見た気がする AIが更に高度(AGI)化し
本格普及し出した時点で
例えば外務省や防衛省や
経済省は他国製のAI使えない
その時に自国製AGI持たない国は
独立性保てなく可能性すらある
まあでも日本は今でも
独立性保ててないから意味ないかもだし
富嶽を使うのは数千億円の
GPUスパコンが日本に無いからで
富嶽が優れてる訳じゃない付け焼き刃な選択 ポートピアのAIってもうなかった事にしたいのかな?
アプデも全くなしtwitterも放置
何がしたかったんだ?w >>28
あれも海外が日本語対応してるから日本人がちゃんとしたらどうなるか
bardレベル出されたら残念になるけど
規制だな何処までやるかエロ会話できるか ニューラルネットワーク学習モデルの萌芽期
米国勢はワークステーション(かつ分散コンピューティング)の
潤沢な計算リソースを使っていた
一方、日本ではワークステーション(及びスパコン)の計算リソースは
「確実に成果が出る」シミュレーション系が独占的に使っており
東工大を含む日本勢は最新のDOS-Vを使って研究していた >>34
畜生!最新技術もジャップの手に渡れば中抜き道具にしかならないのか! 今アプリで使えるChatGPTでも日本語に関して必要十分だと思うけどそんなところに特化させて何がしたいねん >>1
>――「ChatGPT」より優れている点はどんなところになりそう?
>
>日本語中心の大規模言語モデルができて、初めて「ChatGPT」との客観的な性能比較が可能になります。
>現時点では優れている点についてはっきりとしたことを述べることはできませんが、日本語中心のデータを
>用いることで、日本語に関して処理効率の良いモデルになることを期待しています。
優れているところは無さそうw AIはパターン学習なんだから何を読み込ませるかが重要で味付けにそんなマシンパワーが必要とは思えない、データ転送速度くらいじゃないかな気を付けることは >>39
日本語でbingやbardに負けたら流石に愕然とするわw
ただエロ規制緩和してくれたら使います! この感じだとまず日本語という言語自体にアドバンテージが無いという事実を認識することから始めなきゃいけないのか…
尾張屋根 むしろopenAI社は日本でやるとしきりに言ってたのでは
まあ日本がAIに対して少しでも規制掛けたら撤退するだろうが aiは元データ量の勝負だもんなぁ、マイナー言語は不利だわな Hentaiポルノでも学習させとけ
もうそれしかジャップが世界に誇るものないだろ 富岳を使うのはコスパ悪いみたいに聞いたぞ
でも日本語バリアーで利権を守りたいだけやからね
日本語ネイティブ用は多分日本人と発想が似てくるはずやからね あえて国産のメリットを言うならデータが国外に流出しないことだろ もちょっと進化したら言語自体学習するじゃねえの?
もうしてるのかもしれんけど AIの機械学習させる計算には
正確性は欠けるけど
小数点以下を無視する
整数演算のGPUスパコンが効率的
ただそれ以外に余り使い道がない
それに対して
富嶽のように浮動小数点演算する
スパコンは正確性が求められる
シミュレーションには向いてるけど
機械学習の演算作業では非効率で
演算速度で勝てない
因みに富嶽は研究者の見込みだと
世界最新最速のGPUスパコンに対して
1/5程度の性能になるらしい
まあこれでも遅くはないんだけど
あるもの使えば
一からGPUスパコン建設するより
時間もコストも節約出来るか言うほど悪い選択じゃない >>46
規制方面での話で行けば
現状の著作権法のAI関連周りが整備された当時の議員先生方の議論を見ても
今ギャーギャー問題だ無断だ喚いてる奴らの言ってることはほぼ想定出来てたし
当時でも珍しく議論され尽くして立法したのが分かるんよね
今の国内での運用もあの議論内で出た結論をベースに推進をしてるのが
今出てる行政文書でも分かるしな
だからEUみたいな規制はほぼないと思うよ
あるとすればわーくにの飼い主様のアメリカの現地の議論と世論の結果が影響してくると思う Google翻訳をGPTに学習させて我々が作りました!ドヤァ、すればええんやない でもそもそも参照できる日本語でネットにある情報すくなすぎるから意味ないのでは? AIは色んなとこが名乗り上げてるけど実際にマネタイズの絵を描けてるとこがMSくらいしか無いっていう
半年もしたらお手上げになるとこ多そう 使い道がないから非効率なスパコンでなにかやってみたくなったのかな >>60
MSも全く出来てない
今のところAIは超高コスト運用だから
赤字無視でやるチキンレース >>63
私は大規模言語モデルとしてまだ学習中です。そちらについては、理解して対応できる機能がないため、すみませんがお手伝いできません。 例えば
現在日本最高峰GPUスパコンは
去年NECが立ち上げた
NvidiaGPUを928個積んでるスパコン
これに対し
Metaが去年立ち上げたGPUスパコンは
NvidiaGPUを約16000個積んでて
比べくもなく今のままでは全く勝負にならない
それを考えれば演算効率悪くても
富嶽で学習演算させる方がマシなのは間違いない >>8
GPUより一台あたりや電気代あたりの性能低いけど金じゃぶじゃぶ注ぎ込んだ分台数はあるので良い勝負ができるって記事に書いてある >>60
まぁそもそもビッグデータを持ってるけど
ほとんどの企業がビッグデータを全く活用出来てないっていう事実が既にあるしな…
ビッグデータ持ってるくせに何も出来ないぐらいならAIに食わせて何か形になったほうがマシとか考えてるとこもあると思う
メタバースよりは何か資産にはなるだろうね… おそらく電気を馬鹿みたいに使うから、作り続けてるとそこが批判の対象になるだろ 日本語LLMを富嶽で作るのと
作った日本語LLMを運用するのは別の話だから
この辺混同してる奴がいるね 日本語に執着しなくてもジャップは学校で何年もやってるんだし英語使えるじゃん >>72
運用に足る日本語LLMが出てくるとは誰も思ってないでしょう
一連のレスは作ってノウハウ貯めるって言いたいのはみんなわかってると思うよ 一般公開したら、野獣先輩とかタクヤさんの学習データで汚染されるところまでは予想できるな >>55
学習は浮動小数点じゃなかたっけ
推論は半精度とか整数だけど こう言う最新GPUスパコン性能って
技術革新真っ最中で今幾ら投資しても
数年すればゴミ当然になるから
今目的もなく巨額投資するのはリスクあるんだよね
だから取り敢えずあるもので賄うのは間違ってはない >>70
一応批判はされてるけど仮想通貨という聳え立つゴミが既にあるからなwwwww >>8
ニューラルネットワーク専用のボード積んでるんだぞ
GPUはニューラルネットワーク向けだとかなりのオーバースペックなんだよ
倍精度浮動小数点もでか過ぎるし
シェーダーの細かな演算も必要ない
かなり簡素化してもっとメモリも増やせるから
シリコンバレーのベンチャーがAI向けにGPUより何倍も効率良いのを開発してる
これから多分それが主流になってnVidia は価値が落ちるだろう😾 LLMを理解できてない奴多すぎ
GPTで言語処理の能力は完成してるから
お前らが求めるくだらない日本語情報なんて、ベクトル埋め込み済のデータベースから引っ張ってきて、それをGPTに言語処理させりゃいいだけだろ
あのね?言語処理自体はすでにOpenAIが完成させてんの
バカのために分かりやすく言うと「人間の言葉を自在に操れるロボットはOpenAIが完成させました。」以上。
日本が作った劣化版LLMとか誰が使うんだよ
世界はとっくに次のフェーズに進んでんだよマヌケども >>60
一日一億円コスト垂れ流しだからな
LLMは効率悪すぎる
無駄パラメーターが多いんじゃないかな
だから効率良くする研究が盛んなようだ😾 その昔、漢字ロム内蔵が売りのPC-9801ってパソコンがあったな >>81
一日1億ってどんな所にコストかかってんだろ? ■ このスレッドは過去ログ倉庫に格納されています