日本人のAI研究者たち、Macが主流に「NVIDIAは科研費が足りず買えない」😭 [249548894]
■ このスレッドは過去ログ倉庫に格納されています
>>188 なんで何の成果も出せないのにクソ高いCUDA使うんだ?
CUDA使って驚きたいだけだろ
そんなもんに税金を使うな
嫌儲気狂い婆は身バレ確定すると
発狂連投が始まるから答え合わせが完璧過ぎるわ
普通はそんな知恵遅れの廃人の話はさっさと終わらせるからな
>>195 なんか被害妄想壁のキチガイがいるな
大丈夫かお前
M1Mac miniでエロ画像作ろうとしてたけどマジでゴミだったわ
AIのためにwindowsPC買ったもん
>>188 学習はCUDA必要だけど推論ならMacのCPUで十分
>>196 天羽優子=NATROM名義共同ライター
って話があったなぁ
NATROMってめちゃくちゃ評判悪い上に
なかのひとたちの身元もけっこうバレていて
いまさらそんな名前を出してくるのはなかのひとしかいないよな
しかも天羽とNATROMが同じイマジナリーフレンドの話を共有とか、身バレして当然の振る舞いだわな
天羽の話は虚言と妄想とイマジナリーフレンドの話ばかりで
2008年以前から有名ネット統失として有名だったもんな
ほんと天羽スレはくだらない
>>199 さっきから1人で自己紹介をしてるけど誰も興味ないから、事象の地平線ブログcml-office.orgでヤレ気狂い馬場
>>197 クラスタネットワーク構築するならCUDA環境だとすげえ楽だから
天羽の病気は健常者なら誰でも一瞬で気づくよね
ひたすら同じ話を何時間も続ける認知症常同障害が
天羽の病名
何を見てもそのおばさんの事を考えてしまうの、それもう恋では?
>>204 構築してどうすんだ?
研究者の自己満のために税金使うなという話
他の書き込みを見たら
CUDAクラスターガーの話しかしていなくて草
科研費Cの3年間500万円未満の研究費しか取れない泡沫教員にはCUDAのサーバーなんて構築できないし、産総研のサーバレンタルで研究費枯渇するレベルの貧しさだもんな
そもそもそ研究テーマがロクにないから研究計画も立てられず、予算申請もしょうがなく、ただ毎日匿名掲示板で暴れて朽ちていく
それが嫌儲統失婆の人生
>>139 2位じゃ駄目なんですか?
(話聞いてると1位になる事が目的で、想定した活用事例とか出てこないんですけど?)
もともとそうじゃなかった?90年代でも理化学研究所でMac使ってたぞ
>>206 天羽のセクシャルハラスメント癖については2020年段階で山形大学長他に警告済み
まあでも、deepseekみるに計算力ぶん回しのタイプはもうオワコンでしょ
真面目に計算資源大きくする型はモバイル端末に採用する道が無かったりデメリットでかいもん
天羽は勝手に加害行動をとった末に
被害者主張をし始める諫言癖が顕著だから
加害癖が始まった瞬間に職場と関係官庁に通報して
被害者仕草ができないようにピン留めしておくのが重要だよね
・ストーキングハラスメント癖
・セクシャルハラスメント癖
の2点を.第三者の認識する時系列上で既成事実化しておけば、接近禁止命令も出してもらえるわけでw
初期研究においては、機能が限定されてる高価なGPUより汎用性の高いパソコンクラスタの方が有利ってだけの話。
成果が出てきたらnVのシステムを導入するなり、クラウドにカネ払うなりして次のステップに進めばいいわけで。
CUDAの話題の次はDeepserkでワロタ
ただ名前を追ってるだけの知恵遅れ老婆は
話題が単純かつ鮮度が低くてわかりやすいねw
>>217 妄想ベースのエビデンスワロタ
ほんとガチで素朴で頭がバカ
>>219 このクラスタを構築した
>>116 の奴すらも同じようなこと言ってるんだけど、バカは英語が読めないのか笑
>>151 ウイイレかeFootballかなんかでキャラクター当ててRMTするためのリグね、これ
🤣
気狂い婆の幼稚な妄想書き込みしかない
精神病院閉鎖病棟スレ
🤣
>>194 これ本当?
Pythonで書かれてはいるけどライブラリがCUDAに依存しまくってね?
だからこそllamaみたいなのが出て来たわけで完全に依存取れてなくない?
最近はできるようになったの?
>>225 新規研究開発ならCUDA依存のライブラリを使わなきゃいいだけだが?
他人の研究成果に安易に乗っかりたいやつがCUDA CUDA言ってるだけであって、
そうじゃない研究は別にCUDAじゃないと絶対にダメなんて事はないんですよ。
>>196 何歳か知らないけど実生活で
何事もなければ後40年くらい稼働して
そこでやっとこ永久停止か…長いな
愚民「計算量の少ないAI開発が今後の本命だー」
愚民「だから基礎研究はパチョコンでやって目星がついたらCUDAクラスターを確保するのが正しいんだー」
AI研究者「それ予算確保に年単位の時間が掛かることを考慮してないでしょ。まさかその計画を10年単位でゆっくり進めるつもりかと。相手する価値ないなコイツ」
>>225 pytorchの事なら別にCPUだけでも動くぞ(オフィシャルビルドが公開されてる)
Radeonで動かないってのはAMDの怠慢
>>231 俺に完全論破されて顔真っ赤にして逃げたガイジが負け犬の遠吠吠えてて笑うw
論点で何一つ反論できない負け犬のテンプレお疲れさまですw
悔しかったら一度でも俺に論点で勝ってみましょうね〜笑
AI冬の90年代ならその戦略もアリだとは思うけど、
その時代ですら、最終的に計算量を削減したいから
計算能力の低いパソコンで十分だなんて言い出す人は居ないよね
基本的な理解が欠落している人は、何を言っても頓珍漢
>>227 これよくわかんないんだけどライブラリから自作するみたいな話?
確かにそれで一からやるならできるか?
半導体とAI関連のスレは今まで俺がバカの主張を全て完全論破して、実際にその後の世界の流れも俺が言った通りになってるからなw
悔しかったら俺が間違ったこと言ってたレスの一つでもコピペしてみればいいんだよw
>>232 じゃあllamaの存在意義って何なの?
あれはモデルがCUDAに依存してるって話なのかな
>>235 いや、appleやAMDやintelだって寝てるわけじゃないんだからCUDAに対抗するようなライブラリは作ってるわけだよ。
nVidia一社依存は危ないなって感じで汎用性のあるものを作る人がいたりで、AIの世界も一枚岩ではないんですよね。
>>235 ライブラリからっつーかCUDAの特性考えたらアセンブリックな部分からやらないかんのちゃう
では、仕事するのでまた暇があったら相手してあげるよ笑
ではね〜
>>229 そこなかのひと=天羽優子は1966年生まれで今年59歳の定年間際の人だから
平均余命で20年、各種疾患の複合状態を考慮すると心臓発作や脳溢血で明日死んでも不思議はない人じゃないかな
公開写真を見ると2000年代後半からでっぷり太って未だに肥満の話をしているね
メンタルの方は30年前から病んでいて、まともな話は一個も聞こえてこない
イマジナリーフレンドの話が頻繁に出るのは孤立している証拠だから、認知症の進行も早いだろう
30年前から終わってる人だね
でも還暦間際まで、英語論文も読みこなせず中高数学もできないまま、バカのまま終わるとは想像しなかったわ
いくらバカでも30年あれば何かしら成果を出して終わるだろうと想像していたけど、いつまで経っても発達障害メンヘラのまま
>>238 CUDA依存は良くないよねでllamaとかdeepseekみたいなのが現れてきてると思うんだけど現実問題Pytorchとかのライブラリじゃどうにもならんから自前で書き直してるんじゃないの?
Pythonで具体的にどういうライブラリを使えばいいのかな
天羽の話は酸っぱい葡萄話でしかないから
誰も相手にしない
貧困自称研究者が、研究をしているフリをするために空虚な話題を口にするだけで
10年経っても何も成果など出ないね、既に実証済み
nvidiaの方がハードもソフトも性能いいんだからみんな使いたがるのは当たり前
別に機械学習だけじゃなくて、ゲームだってnvidiaの方が性能いい
nvidiaのdlssに他社は勝てない
AI研究ってもはや中国の天才人材とアメリカのマネーには絶対敵わないだろうけど
どういうモチベーションでやってるんだ?
>>244 pytorchだってmipsには対応してるよ
>>250 じゃあllamaの存在意義って何?
あの人達はなぜ意味のないコードを書き続けているの?
Deepseekの場合
CUDA依存性を減らす基礎ライブラリ層として
①ハードウェア依存性の少ない外部仕様と
②それを個別ハードウェアで実行する実装層に分けて
①に関してはnVidiaソフト体系でCUDAの下層で動く低階層命令をモデル化して、CUDAハードでCUDAより効率の良いコード実行ができるように最適化したり
②に関してはCUDA以外のGPUやマルチCPUでも実行可能にしている話だね
でもATI Radeon環境で①が必ずしも効率的に実行できるとは限らないし
GPU前提の性能比較で圧倒的に計算性能の低いマルチCPUでは、動きはすれど高い性能が出るという保証はなく
あくまでCUDA環境依存は減らす事に成功しても
CUDA以外の環境でCUDAより効率よく高速実行できる話にはならないね
他の環境での高速実行は、別の課題
ここまでテクニカルな情報読み取りができない人間には自力での学位取得は無理だと思う
あくまで指導教官がおんぶに抱っこで論文海外投稿までしてやっとこさ、名目だけの学位を与えて追い出すレベルの劣等生だね
>>253 ②の部分って何で必要なの?
他の人が言うにはPythonで書けばCUDA依存しないとのことだけど
既製のCUDA環境で作成したAIモデルが依存してるからなのかそもそもPythonで利用するライブラリの一部がCUDA依存してるのかどっちなんだろう
バカな人が建てたデタラメスレの末路は
バカな人の人生の末路のように荒涼としていて
笑えるね
ダメなやつは何をやってもダメ
このスレで分かったのは、バカの実名のみ
巨額の予算ついてるはずなのに
一体どこに消えてるんだ
>>256 いやコード書くとき最初に宣言するでしょ「今からCUDAのライブラリ呼び出します!」って
B200やH100っていくらで提示されてんだろうな
>>259 じゃあdeepseekの存在意義は何なの?????
>>260 今は言い値なんじゃないの?ずっと順番待ちなんでしょ?
>>261 知らんw
アセンブラレベルでゴリゴリチューニングしたら推論はそんなに負荷強くないこと暴いたとか?知らんけど
むしろデータセンターの排熱の利用方法でも考えようや
>>258 このマイクラサーバーにどこから巨額の予算が出てるんだ?
>>139 二位になれたらスゲーよ
多分五位になれてもものすごくすごい
>>252 llamaはllmモデルの一つでしかないが
meta社は会社の方針でオープンなモデル公開してるだけだよ
llama.cppのことを言いたいならより軽量なllm動作環境の需要があるというだけ
海外の自作ゲーム鯖の人の画像じゃん嘘でスレ立てやめろ
>>269 その理屈だと実質的にCUDA以外の実行環境だとPythonで速度出ないから使い物にならないってことなのかな
だからこそllama.cpp的なものがあると
>>137 なんだ?誰と間違えたんだ?
アンカーミスか?
>>273 十年単位でインターネットで暴れてる有名な糖質患者
触れない方が良い
ユニファイドメモリなんてただのぼったくりやろとか思っててすみませんでした
こういう使い方が発表されるとアップルは売れると踏めるから、次回はしっかり値上げしてくるんやろうな
CUDA握ってるnvidiaとHBMの先頭に立ってるSKハイニクスのフォースが強すぎる
ファーウェイとSMICさんなんとかしてくだせえよゲヒゲヒ
というより、これのコスパがめちゃくちゃ良いんじゃなかったか
なんでマックだよへんてこチップだろたしかMなんとかって
ていうかnvidiaも買えない研究なんてやめちまえ!
>>59 OSじゃなくチップの問題だからどうにもならん
ただGB10でもうすぐ実現されると思うよ
あれは基本Linuxベースじゃないかな
こっちのスレで暴れてるバカは
「ハードウェア依存性の吸収層」というOSやライブラリの存在意義すら認識していないいつもの統失だね
基本知識の習得と応用ができないのは、学習障害
あ、この人、過去の学習内容を独自誤解した概念/キーワードと一言一句合っていないとパターンマッチできず理解もできないルシファタイプのアレだから
基本的に話など通じないよね
他の人は、コイツを初学者レベルのアホだと理解して
基本の基本に戻して説明を試みるのだけど
コイツはどの分野でも基本理解が大誤解だから
コイツの頭の中はどんどん話が捻くれていく
本人曰く複雑性PTSDだと言ってるようだけど
先天的な脳の障害や、幼児期の情緒発達の障害だろうね
いわば、CPUでCUDAシミュレーションをするような頭の悪さ
>>273-274 そこに天羽優子の病名を書くのは残酷だなw
①大規模で高速な機械学習実行環境としての
CUDAもしくはその下層のPTXは、
CUDA環境選択時のソフトウェア階層の最下層の話
②PythonでAIしましょうはスクリプト言語つまり
ソフトウェア階層の上の階層の話で
その下層でCUDAを使うか否かはライブラリ次第
③
>>253のDeepseekの基盤実行環境としての
CUDA PTX互換ライブラリは①の代替となる基盤の話
>>253の話に、直接関係ない②の話を持ち出すのは
「ハードウェア依存性吸収層」という概念を知らない人特有のマッチング話なんだろうね
そんな基本的な概念がわからずに②を持ち出すのは
学部卒業も怪しい学習障害者の言動だから
周りの人は皆困っている
■ このスレッドは過去ログ倉庫に格納されています