日本人のAI研究者たち、Macが主流に「NVIDIAは科研費が足りず買えない」😭 [249548894]
■ このスレッドは過去ログ倉庫に格納されています
AppleってNVIDIAと仲悪いからAMDのグラボしか使えないの?
マックより圧倒的にコスパのいいlinuxマシンでクラスタ作らないのはなんで?
>>53 NVIDIA B200なんかで
この規模だと10億円は必要になる
こんな並べ方しても排熱できるんだ
付属ファンすごいな
こういう工夫を強いられる環境からアイデアが産まれる場合も
>>59 m4 maxのメモリ帯域が546GB/s
同等の性能出せるlinux機はない
トランプより小泉純一郎の方が効率的に一国の大学研究破壊したんだよね
ビットコインの採掘もグラボからASICが主流になったようにAI学習もそうなるんじゃ?
入手困難なはずの中国がめっちゃ買ってるのに日本はこれ(涙
つまり逆神が働いてIntelとタッグを組んだnVidiaの次世代Xboxは売れる、と
そう言うことですね
Macのクラスタで研究できるようにしてくれた中国父さんには感謝しきれない
リセールで高く売れるからいいよな
遅さは台数でカバー出来る
まあ金ない個人や中小企業がmac使うのはわかるんだけど第一線の研究者がこれは泣ける
>>60 NVIDIA A100前提のAIなんかは
GeForce RTX 5090なんかだとメモリ不足で起動すらしない。
Macは遅いけど、とりあえず起動はするから人気沸騰している。
あと写真みたいに並べてThunderboltで連結すれば速くなる。
AI研究ってすっかり企業主導になっちゃったけど主流の生成AI以外はまだ大学主導なのかな
Twitterに流れてきたけどどう見ても日本じゃないだろこれ…
トランプよりも大学つぶしが進んでいる日本の文科省はサタニズム
1000GBくらいでぶん回してみたい
あー浪漫あるわ
NVIDIAに依存しない体制をライバル企業らで作れよ
現状が酷すぎて見てらんないわ
金が無いのにAI開発も研究も出来るわけないじゃん…
日本のAI絡みはやってる感案件
MacのユニファイドメモリがVRAMの代わりになるんだっけ?
クソデカい行列演算をするから、アクセスが速い大量のメモリが必要
メモリ特盛りのGPUは超高額だから、代わりにメモリとCPUが一体化してるapple silliconを使う、って感じ?
>>84 だから
アレ出てきたとき東大の松尾とかハシャイデタのかなあ?
>>59 Linux+NVIDIA H100あたりが理想だけど
売っていてもボッタクリ価格だし
そもそも品薄すぎて手に入らない。
>>61 1100万×128台×1.2[/PC]≒17億円規模だね
Mac Studioもメモリ積んでMax選ぶと100万円近いオーダーなのに
>>104 電気的特性から無理
配線長が長くなる程信号劣化する
>>54 研究レベルだから中小実用サイト以上のパワーが大前提
>>101 スピードはだいぶ落ちるけど、それでもまだマシって考えなんだろうな
>>65 東南アジア経由で買い集めてるから
タァンプおこなのな
>>2 これみたことある!deepseekerだ!
>>67 伊藤智義 著の
「スーパーコンピューターを20万円で創る」
に出て来るぐらいだからこういうの好きなのかも
伊藤智義さんは漫画「栄光なき天才たち」の原作者
>>116 何かまた偽計業務妨害をしたのか天羽@apj
この手の話は海外で盛んに出てくる話だから
天羽がいくら虚言を書いても誰も読まないぞ
なおコレと似たような事ができる物をNvidiaさんが販売する模様(アメリカ国内にいないと買えません)
>>55 昔のパワーマックゲフォ載ったりしてたんだけどね
ってかAI研究に関してはもう日本はいいでしょ…
AIに関しては他国のソレと比べて周回遅れ過ぎて今さら研究した所でここから日本がAI分野で台頭できる未来が全くもって見えない
AI作るのはめっちゃむずかしいだろうから日本向きではないか
NVIDIAのAI向けチップを積んだ
ワークステーションとか普通に1000万クラスやろしな…
M4 Mac mini×128台ってピンキリだよな
廉価モデルは安いけど単にシリーズが同じだけだし
メモリ帯域の広い高額モデルのメモリフル搭載は数百万だっけ?
AIって中国の大学がいま世界一なんでしょ?
日本がこっから追いつける分野とかもう何もないんじゃないの?
ワイもmacminiには電源とNTTのONUルーターへのLANケーブルだけ刺して使ってるわ🤗
使いたいときはmacbookとかからリモートデスクトップする
>>124 言うてローカルでLLM走らせるみたいな
需要も結構あるしこれからは
用途別に細分化しそうな感もあるから
研究についても一定の需要はありそう
微生物学分野で研究してるけど2010年代はmacを解析PCにするのがコスパ高かった
最近はWSLでLinuxをシームレスに扱えるようになってmac買わなくて良くなった嬉しい
>>124 ある程度やってる感は出しておかないと「反AIガー」という脱落の言い訳使えないからね
周回遅れどころか走り出してすらいないレベルだから必要なのは理由作りなンだわ
>>133 それ婆が貧乏で数億円単位の研究費を使えないだけじゃね
>>130 Linux+NVIDIAが最高峰
それを買えない人々のMac
Windowsは論外
なにも出来ない
>>128 miniは最大64Gまでだし一番盛っても70万円ぐらいだよ
本気勢は512G積めるStudioの方
>>135 WSLの原型相当のcoLinuxは90年代からあるわけで
HPC狙いでなければ昔からある環境だな
あれが出たから、Cygwinは予備環境、BSD on Windowsは伸びしろなし判定して人に譲った
windows copilotのお陰でLinuxでのエラーもコマンドも対処できるようになって年10万20万かかるクソみたいな解析ソフト買わなくて良くなったから最高だわ
研究費は消費増税とインフレで目減りしてるこれもまたクソみたいな状況だけど
>>139 今思うと二位でも万々歳だよな
一億総土下座案件だろこれ
>>116 Minecraft サーバーだとさ
真面目にレスしてた馬鹿どもしゅうりょーwww
>>140 そんなもんだっけ
10台規模で1000万レベルで個人環境としては諦めた
>>138 windowsサーバーメジャーなAIプラットフォーム大体対応してるやろ、俺はイジったことないけど
>>107 mac miniだと5000万程度で出来ちゃうのか
世界中にいる金のない研究者達は大歓喜だな
coLinuxの話を出したら
copilotの話を出した末に
「10万20万かかるクソみたいな解析ソフト」が不要とかしょうもない話をし出してワロタ
10万20万かそこらの解析ソフトでできる事を
わざわざ手作りするのって
高度でも効率的でもない仕事だね
たいした研究してないんだし貴重なgpuは民間が使うべきやろ
Windowsはもう古いから色々不具合が出たりするかもしれないけどWindows使ってる人や機器は多いからIT企業のプログラマはほぼWindows使ってて無理難題をやらされたりする感じだろか
>>147 なんでお前の話って簡単な計算を丸め込むの
70万×128台(このスレのクラスタ台数)=8960万
ただし128台クラスタリングの理由は不明だから
大雑把なミニマムラインで10台700万の話をしている
例えば大学研究者が約2年前研究室に最低限必要な機材として用意したNVIDIA A100 80GBx8で組んだVRAM640GBのAIサーバーは約2000万円掛かってる
これがたった2年でできる事自体は変わらないMacStudio512GBが約150万円で買えてしまい最初に必要な最低導入コストが1/10まで下がってしまったのが今の現実
Macが優れてるんでなくて、UNIXがいいらしい
Macは昔は爆弾マークがよく出てたようだ
こういうのってmac OSで動かしてんの?インテル時代はLinuxを入れられたけど
>>151 何の元祖の話をしてるんだよw
超並列自体は1980年代半ばアメリカで盛んにベンチャーが出してたジャンルだけど
Linux版PCクラスタは1990年代半ば以降の世界的流行
日本だと産総研やTurbo Linuxが割と有名かな
AI利用者 世界平均70%
ジャの者 9%
もうね諦めちゃったんだよ
>>154 それベンチマーク一切なしの嫌儲の狂人婆の妄想話やん
嫌儲は自信たっぷりに嘘を並べる婆が虚言連投しているから誰も相手にしていないぞ
macの方が安くて性能いいからmac使ってるだけだぞ。
気狂いだよね
ベンチマークもなくひたすら妄想でNvidia不要論を繰り返す
嫌儲統失婆59歳
>>148 石は潰せって中共から命令されて居座ってる半島華僑だからね。
m4mini買ったけどstable diffusionは3060のWinのがずっと早かったわ
どうせジャップ研究者の技術力じゃ中国みたいなフロントランナーになんてなれないんだから、Macすら無駄遣いやわ
AI驚き屋しかおらんやん
今のAIはどこまでいっても生成AIに過ぎないんだから日本人は諦めるなよ
根本的に改良する新理論が出ないとAGIなんて無理なわけだし
政府関係者もテレビ関係者もアホしかいないから
本気でITだのAIだのやるなら日本に居てはダメ
特にテレビ関係者に理系が皆無なので
何も取材出来ず何も記事も書けずマジ終わってて笑える
結局天羽のスレって
100年以上前からあるモンタージュ技法でファンタジーを作る古臭い虚言癖だから
誰にも通用しないよね
出所不明の写真を貼って
写真とは無関係なスレタイを付けて
全然関係ない国際賞7回受賞でMac mini環境使うわけない人の写真を貼ったり
出鱈目な性能見積もりを書いたり
それって偽計業務妨害と呼ぶ刑事犯罪だぞ天羽
ジャップ研究者は国民の税金でカタログスペックだけ高い自作パソコン作ってるだけ
スパコンと同じや
驚き屋しかいないんだから、税金の無駄遣い
今の予算で今研究しないといけないんだからそらMac買うよな
メモリは大事やねw
中国に納入予定だったH20だかを安くの売ってもらえよ
天羽が己の虚言目的で
牧野淳一郎氏の写真を貼ったのは重大だな
天羽なんて2012年段階で「科学者ではない」と切り捨てられているのに
それ以降13年間もしがみついて罵声を吐き、挙げ句の果てに自分の嘘の信頼性を高めようと牧野氏の写真を貼る
こんなとんでもない気狂いがFJ時代から総スカンを喰らっていたのは当たり前だね
自分も一目でとんでもない気狂いが来たと悟った
>>170はいはい釣れた
本人確認できたから、お前は薬飲んで寝れ
明日は専門病院で精密検査して入院治療だぞ
もう薬すら効かなくなってそうなやつがクスリクスリ言ってるのは笑う
天羽はキーワードで簡単に釣れるからつまらないよね
まともな人は嫌儲に滅多に来ないし
来て身元を当てられても決して答え合わせしないし
後から他所で話が出て、あの時来てたのはあの人だったのかと気付く程度の身バレしかない
正直、windowsがゴミカスに成り果てたからMac批判する気にもなれない
>>177 自己紹介の話は誰も興味ないから
事象の地平線でやれやカス
身バレするたびにメンタル疾患自己紹介が始まるのは
天羽の特徴だよね
大規模システムだとパーツの購入費だけではなく
設置場所やシステム設計や電気代とか別の問題が出てくると思うのだが
パーツ掛け算する意味がないくらいに後者の費用が高い
ネトウヨは日本の技術力は凄いんだぁぁってホルホルしてて
それをケンモメンがすかさず論破しまくって論パレード状態にしちゃうから頭チギュワアァって感じなんだろうな
だからこのツイートに一部誤りがあると聞いてココぞとばかりに日本の科研費が世界最低レベルという事実からも逃避しようとしてる
多少誇張はあったかもだけど、これが説得力を持ってしまってる日本の現象を憂うべきだわべきだわ
ネトウヨは日本の技術力は凄いんだぁぁってホルホルしてて
それをケンモメンがすかさず論破しまくって論パレード状態にしちゃうから頭チギュワアァって感じなんだろうな
だからこのツイートに一部誤りがあると聞いてココぞとばかりに日本の科研費が世界最低レベルという事実からも逃避しようとしてる
多少誇張はあったかもだけど、これが説得力を持ってしまってる日本の現象を憂うべきだわべきだわ
>>187 科研費が世界最低レベルなんじゃなくて、技術力と成果が世界最低レベルなんだろw
ジャップ理系なんて欧米の猿真似しかできない暗記野郎しかおらず、自分で考える能力なんて皆無だったとAIが喝破したわけで
2017年2月に嫌儲で、専門領域外の世代交代話として
ホログラフィック宇宙論のニュースを出したのが誰だったのか割と長い間わからなくて
見当がついたのは2〜3年前かな
意外と昔から名前を存じ上げている興味の範囲内の方だったっぽい
>>188 そもそも論において新規に研究開発するのにCUDAに拘る理由なんて無いから。
>>128 Mac studioの512GBメモリーでも160万だよ
>>188 いまどき素でCUDAで書かれたAIはない
今はPythonで書かれたAIしかない
>>193 単発IDで、誰でも調べられる価格情報を何度も書くのは
天羽レベルの構ってちゃんしかいないから
お前はさっさと消えろよ
ほんと知能の低い婆だなコイツ
なんだ?安価先が見えないと思ったら a_watcher が涌いてるのか
a_watcherさんとの関わりについてのまとめ
https://natrom.h%61tenablog.com/entry/00110704/p1 a_watcher対策スレ 2
https://egg.5ch.net/test/read.cgi/dtm/1601117283/1 1: 名無しサンプリング@48kHz (ワッチョイ be06-eXiC) sage 2020/09/26(土) 19:48:03.32 ID:c4AWiAnQ0 IP:111.171.131.254
ミキサー、モニター、アナログシンセあたりのスレで
山形大学だの天羽某だの意味不明な妄想書き込みで荒らしまくる奴なんとかならない?
↓こいつのTwitter
https://x.com/a_watcher >>188 なんで何の成果も出せないのにクソ高いCUDA使うんだ?
CUDA使って驚きたいだけだろ
そんなもんに税金を使うな
嫌儲気狂い婆は身バレ確定すると
発狂連投が始まるから答え合わせが完璧過ぎるわ
普通はそんな知恵遅れの廃人の話はさっさと終わらせるからな
>>195 なんか被害妄想壁のキチガイがいるな
大丈夫かお前
M1Mac miniでエロ画像作ろうとしてたけどマジでゴミだったわ
AIのためにwindowsPC買ったもん
>>188 学習はCUDA必要だけど推論ならMacのCPUで十分
>>196 天羽優子=NATROM名義共同ライター
って話があったなぁ
NATROMってめちゃくちゃ評判悪い上に
なかのひとたちの身元もけっこうバレていて
いまさらそんな名前を出してくるのはなかのひとしかいないよな
しかも天羽とNATROMが同じイマジナリーフレンドの話を共有とか、身バレして当然の振る舞いだわな
天羽の話は虚言と妄想とイマジナリーフレンドの話ばかりで
2008年以前から有名ネット統失として有名だったもんな
ほんと天羽スレはくだらない
>>199 さっきから1人で自己紹介をしてるけど誰も興味ないから、事象の地平線ブログcml-office.orgでヤレ気狂い馬場
>>197 クラスタネットワーク構築するならCUDA環境だとすげえ楽だから
天羽の病気は健常者なら誰でも一瞬で気づくよね
ひたすら同じ話を何時間も続ける認知症常同障害が
天羽の病名
何を見てもそのおばさんの事を考えてしまうの、それもう恋では?
>>204 構築してどうすんだ?
研究者の自己満のために税金使うなという話
他の書き込みを見たら
CUDAクラスターガーの話しかしていなくて草
科研費Cの3年間500万円未満の研究費しか取れない泡沫教員にはCUDAのサーバーなんて構築できないし、産総研のサーバレンタルで研究費枯渇するレベルの貧しさだもんな
そもそもそ研究テーマがロクにないから研究計画も立てられず、予算申請もしょうがなく、ただ毎日匿名掲示板で暴れて朽ちていく
それが嫌儲統失婆の人生
>>139 2位じゃ駄目なんですか?
(話聞いてると1位になる事が目的で、想定した活用事例とか出てこないんですけど?)
もともとそうじゃなかった?90年代でも理化学研究所でMac使ってたぞ
>>206 天羽のセクシャルハラスメント癖については2020年段階で山形大学長他に警告済み
まあでも、deepseekみるに計算力ぶん回しのタイプはもうオワコンでしょ
真面目に計算資源大きくする型はモバイル端末に採用する道が無かったりデメリットでかいもん
天羽は勝手に加害行動をとった末に
被害者主張をし始める諫言癖が顕著だから
加害癖が始まった瞬間に職場と関係官庁に通報して
被害者仕草ができないようにピン留めしておくのが重要だよね
・ストーキングハラスメント癖
・セクシャルハラスメント癖
の2点を.第三者の認識する時系列上で既成事実化しておけば、接近禁止命令も出してもらえるわけでw
初期研究においては、機能が限定されてる高価なGPUより汎用性の高いパソコンクラスタの方が有利ってだけの話。
成果が出てきたらnVのシステムを導入するなり、クラウドにカネ払うなりして次のステップに進めばいいわけで。
CUDAの話題の次はDeepserkでワロタ
ただ名前を追ってるだけの知恵遅れ老婆は
話題が単純かつ鮮度が低くてわかりやすいねw
>>217 妄想ベースのエビデンスワロタ
ほんとガチで素朴で頭がバカ
>>219 このクラスタを構築した
>>116 の奴すらも同じようなこと言ってるんだけど、バカは英語が読めないのか笑
>>151 ウイイレかeFootballかなんかでキャラクター当ててRMTするためのリグね、これ
🤣
気狂い婆の幼稚な妄想書き込みしかない
精神病院閉鎖病棟スレ
🤣
>>194 これ本当?
Pythonで書かれてはいるけどライブラリがCUDAに依存しまくってね?
だからこそllamaみたいなのが出て来たわけで完全に依存取れてなくない?
最近はできるようになったの?
>>225 新規研究開発ならCUDA依存のライブラリを使わなきゃいいだけだが?
他人の研究成果に安易に乗っかりたいやつがCUDA CUDA言ってるだけであって、
そうじゃない研究は別にCUDAじゃないと絶対にダメなんて事はないんですよ。
>>196 何歳か知らないけど実生活で
何事もなければ後40年くらい稼働して
そこでやっとこ永久停止か…長いな
愚民「計算量の少ないAI開発が今後の本命だー」
愚民「だから基礎研究はパチョコンでやって目星がついたらCUDAクラスターを確保するのが正しいんだー」
AI研究者「それ予算確保に年単位の時間が掛かることを考慮してないでしょ。まさかその計画を10年単位でゆっくり進めるつもりかと。相手する価値ないなコイツ」
>>225 pytorchの事なら別にCPUだけでも動くぞ(オフィシャルビルドが公開されてる)
Radeonで動かないってのはAMDの怠慢
>>231 俺に完全論破されて顔真っ赤にして逃げたガイジが負け犬の遠吠吠えてて笑うw
論点で何一つ反論できない負け犬のテンプレお疲れさまですw
悔しかったら一度でも俺に論点で勝ってみましょうね〜笑
AI冬の90年代ならその戦略もアリだとは思うけど、
その時代ですら、最終的に計算量を削減したいから
計算能力の低いパソコンで十分だなんて言い出す人は居ないよね
基本的な理解が欠落している人は、何を言っても頓珍漢
>>227 これよくわかんないんだけどライブラリから自作するみたいな話?
確かにそれで一からやるならできるか?
半導体とAI関連のスレは今まで俺がバカの主張を全て完全論破して、実際にその後の世界の流れも俺が言った通りになってるからなw
悔しかったら俺が間違ったこと言ってたレスの一つでもコピペしてみればいいんだよw
>>232 じゃあllamaの存在意義って何なの?
あれはモデルがCUDAに依存してるって話なのかな
>>235 いや、appleやAMDやintelだって寝てるわけじゃないんだからCUDAに対抗するようなライブラリは作ってるわけだよ。
nVidia一社依存は危ないなって感じで汎用性のあるものを作る人がいたりで、AIの世界も一枚岩ではないんですよね。
>>235 ライブラリからっつーかCUDAの特性考えたらアセンブリックな部分からやらないかんのちゃう
では、仕事するのでまた暇があったら相手してあげるよ笑
ではね〜
>>229 そこなかのひと=天羽優子は1966年生まれで今年59歳の定年間際の人だから
平均余命で20年、各種疾患の複合状態を考慮すると心臓発作や脳溢血で明日死んでも不思議はない人じゃないかな
公開写真を見ると2000年代後半からでっぷり太って未だに肥満の話をしているね
メンタルの方は30年前から病んでいて、まともな話は一個も聞こえてこない
イマジナリーフレンドの話が頻繁に出るのは孤立している証拠だから、認知症の進行も早いだろう
30年前から終わってる人だね
でも還暦間際まで、英語論文も読みこなせず中高数学もできないまま、バカのまま終わるとは想像しなかったわ
いくらバカでも30年あれば何かしら成果を出して終わるだろうと想像していたけど、いつまで経っても発達障害メンヘラのまま
>>238 CUDA依存は良くないよねでllamaとかdeepseekみたいなのが現れてきてると思うんだけど現実問題Pytorchとかのライブラリじゃどうにもならんから自前で書き直してるんじゃないの?
Pythonで具体的にどういうライブラリを使えばいいのかな
天羽の話は酸っぱい葡萄話でしかないから
誰も相手にしない
貧困自称研究者が、研究をしているフリをするために空虚な話題を口にするだけで
10年経っても何も成果など出ないね、既に実証済み
nvidiaの方がハードもソフトも性能いいんだからみんな使いたがるのは当たり前
別に機械学習だけじゃなくて、ゲームだってnvidiaの方が性能いい
nvidiaのdlssに他社は勝てない
AI研究ってもはや中国の天才人材とアメリカのマネーには絶対敵わないだろうけど
どういうモチベーションでやってるんだ?
>>244 pytorchだってmipsには対応してるよ
>>250 じゃあllamaの存在意義って何?
あの人達はなぜ意味のないコードを書き続けているの?
Deepseekの場合
CUDA依存性を減らす基礎ライブラリ層として
①ハードウェア依存性の少ない外部仕様と
②それを個別ハードウェアで実行する実装層に分けて
①に関してはnVidiaソフト体系でCUDAの下層で動く低階層命令をモデル化して、CUDAハードでCUDAより効率の良いコード実行ができるように最適化したり
②に関してはCUDA以外のGPUやマルチCPUでも実行可能にしている話だね
でもATI Radeon環境で①が必ずしも効率的に実行できるとは限らないし
GPU前提の性能比較で圧倒的に計算性能の低いマルチCPUでは、動きはすれど高い性能が出るという保証はなく
あくまでCUDA環境依存は減らす事に成功しても
CUDA以外の環境でCUDAより効率よく高速実行できる話にはならないね
他の環境での高速実行は、別の課題
ここまでテクニカルな情報読み取りができない人間には自力での学位取得は無理だと思う
あくまで指導教官がおんぶに抱っこで論文海外投稿までしてやっとこさ、名目だけの学位を与えて追い出すレベルの劣等生だね
>>253 ②の部分って何で必要なの?
他の人が言うにはPythonで書けばCUDA依存しないとのことだけど
既製のCUDA環境で作成したAIモデルが依存してるからなのかそもそもPythonで利用するライブラリの一部がCUDA依存してるのかどっちなんだろう
バカな人が建てたデタラメスレの末路は
バカな人の人生の末路のように荒涼としていて
笑えるね
ダメなやつは何をやってもダメ
このスレで分かったのは、バカの実名のみ
巨額の予算ついてるはずなのに
一体どこに消えてるんだ
>>256 いやコード書くとき最初に宣言するでしょ「今からCUDAのライブラリ呼び出します!」って
B200やH100っていくらで提示されてんだろうな
>>259 じゃあdeepseekの存在意義は何なの?????
>>260 今は言い値なんじゃないの?ずっと順番待ちなんでしょ?
>>261 知らんw
アセンブラレベルでゴリゴリチューニングしたら推論はそんなに負荷強くないこと暴いたとか?知らんけど
むしろデータセンターの排熱の利用方法でも考えようや
>>258 このマイクラサーバーにどこから巨額の予算が出てるんだ?
>>139 二位になれたらスゲーよ
多分五位になれてもものすごくすごい
>>252 llamaはllmモデルの一つでしかないが
meta社は会社の方針でオープンなモデル公開してるだけだよ
llama.cppのことを言いたいならより軽量なllm動作環境の需要があるというだけ
海外の自作ゲーム鯖の人の画像じゃん嘘でスレ立てやめろ
>>269 その理屈だと実質的にCUDA以外の実行環境だとPythonで速度出ないから使い物にならないってことなのかな
だからこそllama.cpp的なものがあると
>>137 なんだ?誰と間違えたんだ?
アンカーミスか?
>>273 十年単位でインターネットで暴れてる有名な糖質患者
触れない方が良い
ユニファイドメモリなんてただのぼったくりやろとか思っててすみませんでした
こういう使い方が発表されるとアップルは売れると踏めるから、次回はしっかり値上げしてくるんやろうな
CUDA握ってるnvidiaとHBMの先頭に立ってるSKハイニクスのフォースが強すぎる
ファーウェイとSMICさんなんとかしてくだせえよゲヒゲヒ
というより、これのコスパがめちゃくちゃ良いんじゃなかったか
なんでマックだよへんてこチップだろたしかMなんとかって
ていうかnvidiaも買えない研究なんてやめちまえ!
>>59 OSじゃなくチップの問題だからどうにもならん
ただGB10でもうすぐ実現されると思うよ
あれは基本Linuxベースじゃないかな
こっちのスレで暴れてるバカは
「ハードウェア依存性の吸収層」というOSやライブラリの存在意義すら認識していないいつもの統失だね
基本知識の習得と応用ができないのは、学習障害
あ、この人、過去の学習内容を独自誤解した概念/キーワードと一言一句合っていないとパターンマッチできず理解もできないルシファタイプのアレだから
基本的に話など通じないよね
他の人は、コイツを初学者レベルのアホだと理解して
基本の基本に戻して説明を試みるのだけど
コイツはどの分野でも基本理解が大誤解だから
コイツの頭の中はどんどん話が捻くれていく
本人曰く複雑性PTSDだと言ってるようだけど
先天的な脳の障害や、幼児期の情緒発達の障害だろうね
いわば、CPUでCUDAシミュレーションをするような頭の悪さ
>>273-274 そこに天羽優子の病名を書くのは残酷だなw
①大規模で高速な機械学習実行環境としての
CUDAもしくはその下層のPTXは、
CUDA環境選択時のソフトウェア階層の最下層の話
②PythonでAIしましょうはスクリプト言語つまり
ソフトウェア階層の上の階層の話で
その下層でCUDAを使うか否かはライブラリ次第
③
>>253のDeepseekの基盤実行環境としての
CUDA PTX互換ライブラリは①の代替となる基盤の話
>>253の話に、直接関係ない②の話を持ち出すのは
「ハードウェア依存性吸収層」という概念を知らない人特有のマッチング話なんだろうね
そんな基本的な概念がわからずに②を持ち出すのは
学部卒業も怪しい学習障害者の言動だから
周りの人は皆困っている
この人の話が毎回混乱している原因は
特定の話題の議論の前提条件となる基礎知識が
仮に10あるとして
健常者は少なくとも5とか8理解してから議論をするのに
この人は2か3の理解しかできずに、全ての話をその2〜3の断片的概念で理解しようとするから話が縮退して
知恵遅れ特有の混乱した話になる
特定の話題の基底となる概念が何なのか把握できない人には、DNNのような基底概念抽出型の知的情報処理の理解は無理だと思う
なぜなら、普段自分の頭の中ですら実行できていない事柄をイメージして理解を進めプログラミングするのは群盲象を撫でる状態でしかないから無理
そろそろRyzenAIMax+395版も出てきたりしないかな
128GBメモリでVRAMに96GB割り当てられるならこういう用途にはよさそうなもんだけど
>>296 すごい詳しそうやね
じゃあなぜ①の状態が発生するのか教えてくれ
②で依存しないコードがかけるはずなのに①でCUDA環境を選択する必要がなぜあるのか
これが全くわからない
インテルのCPUでもAMDのCPUでも同じゲームが動くけど
特定の機能はインテルじゃないと動かないから性能差が出ることがあるとか
そういうことを理解出来るならそんな難しい話じゃないやろ
>>301 それはゲームがintel CPUに依存しているという話で全く同じゲームを依存性なくAMD CPUで動くように一から作り直すことは可能ということ?
ゲームがintel CPUに依存しているというのはつまりdeepseekでいうところの既製のLLMがCUDAに依存しているということでいいの?
それとも作り直したところでAMD CPUは特定の処理に対して弱みがあり依存性は無いが速度の面で使い物にならないから全く別のコードを用意して速度を上げてるという話?
それとも今はもうCUDA依存しないし速度も問題ないけど今までみんなCUDAが便利でCUDA依存なコード資産を使い回してたからそれらを全て置き換えるのが面倒なだけ?
>>302 何故何故続けるくらいなら自分で調べてみなよ、そこまで知らんよ
少なくともnvidiaが自分らのcudaで速くなるように自分らのgpuを設計してるし
自分らのgpuで速くなるようにcudaの更新をしてる
努力と根性で特定gpuでcuda以上の性能を持つライブラリが作れたとしても
次のgpuでは細かい差異で逆に遅くなることもあるんだったら
特定環境に合わせてそこにリソースをぶち込む人は少ない
少なくともそういうハードウェア直結部分のケアを避けるためにcudaがあるんでしょ
>>303 難しい話じゃないはずなのに調べても分からないから聞いてるんだよね
結局速度の問題の話で依存性は無いってことなのかな
ただ速度面でハードに振り回されるのも面倒なので実質的にCUDAしか使われてこなかった歴史があると
ただこれだとなぜCUDAに依存するのか?の疑問が解けないんだよな
なぜなら今はPythonはCUDAに依存しないらしいので
これを理屈的に成立させるには依存しないが速度が圧倒的に遅いので実質使い物にならないというロジックじゃないと通らない気がする
この説明を上手くできる人はいないかな
単純になぜそうなのか知りたいんだよね
これが解消されるならハード依存しないわけで便利なはずなのに
嫌儲の頭お菓子な人の頭の中では
CUDAはとっくにCPUに敗北し廃れている事になっていて
単に過去の資産があるからCUDAをしょうがなく使う
って謎ストーリーで話をしていて爆笑した
GPUクラスターサーバーの主力はnVidiaだし
ATI Radeonはその分野のシェアをほとんど獲得していないし
脱nVidiaの象徴のように言われるDeepseekですら
CUDA下層のPTX命令をモデル化したハードウェア非互換性吸収層となるライブラリを作って、移植性とCUDA上の高い実行効率を確保しているし
PythonでAIプログラミングと言ってもCUDAを使う方法もあるし
なんでこの頭のお菓子な人の脳内では常に
洗濯が択一で選べなかったソリューションは滅びた事になるのか、IT分野の急速な発展を身近に感じる体験の少なかった人だから
個人の思い込みによる選択が絶対に成功する的な素朴な言動をしちゃうんだろうね
その手の恣意的選択など決して成功しないのが現実のIT分野の歴史なのに、バカだよね
CUDA依存性の話は単に、bitCoinハイプ以前から
AI用途のスケーラブルなソリューションを早期提供して
他社(ATIや後発チャイナ企業)が太刀打ちできない供給実績と成果を出したからってだけだよね
そんな単純な話を理解できないのは
市場の現実よりも
脳内の思い込みを優先する
ドリーミーで研究開発に向かないポエマーだからだよ
この嫌儲のなぜなぜ質問責めのバカは
中高大学大学院まで自分で勉強せずに他人に質問して答えを得る単純作業をひたすら続けてきた学習障害者だろ
理系で大学院出た事になっていながら
中高数学の基礎すら理解できずに
1年単位で暴れる狂気は
知的障害者枠で卒業認定と単位取得をしてきた廃人の特徴
>>305 >嫌儲の頭お菓子な人の頭の中では
>CUDAはとっくにCPUに敗北し廃れている事になっていて
>単に過去の資産があるからCUDAをしょうがなく使う
>って謎ストーリーで話をしていて爆笑した
これは全くそう書いてないしむしろCUDAでなくてはいけない依存性があるから使っていないとおかしいのではないかと書いている
それを覆すにはそうならないと矛盾すると思うと書いているだけ
読解力が低過ぎて本当に社会でやっていけてるのか不安
>GPUクラスターサーバーの主力はnVidiaだし
>ATI Radeonはその分野のシェアをほとんど獲得していないし
これは書いてないけど今までの文脈を見ればそう思ってると理解できるはず
>脱nVidiaの象徴のように言われるDeepseekですら
>CUDA下層のPTX命令をモデル化したハードウェア非互換性吸収層となるライブラリを作って、移植性とCUDA上の高い実行効率を確保しているし
これも現状CUDAが優位性あるからそう思ってると書いてる
>PythonでAIプログラミングと言ってもCUDAを使う方法もあるし
これはそもそもの発端でCUDA依存せずにPythonで書けるというレスを見つけて現状どうなのか気になって質問が始まっただけで何かに優劣を決めようとしたわけではない
>なんでこの頭のお菓子な人の脳内では常に
>洗濯が択一で選べなかったソリューションは滅びた事になるのか、IT分野の急速な発展を身近に感じる体験の少なかった人だから
>個人の思い込みによる選択が絶対に成功する的な素朴な言動をしちゃうんだろうね
>その手の恣意的選択など決して成功しないのが現実のIT分野の歴史なのに、バカだよね
この文章は何もそんなこと書いてないのに妄想だけで書かれていて全く意味不明
そもそもの発端がPythonで AI書けばCUDA依存しないから始まっているわけで何の関連性があるのか全く分からない
一体AI驚き屋さんの頭の中はどうなっているんだ
>>306 じゃあ実質的に依存しててそれ以外は使い物にならないってこと!?
先にそれいってくれたらすぐ終わったのに
俺もそう思ってると最初から言い続けてるのに
考えは同じだったんだ
>>307 自分で学んだことをアウトプットもできないバカでワロタ
勉強してきたことを答えられないんかい
もうだいぶ前から日本人はついていけてない。
トレーニング回すだけでも金足りねーんだわ。
techengines.github.io/2021/05/24/deep-learning-ai-money-is-all-you-need/
>>308,309,310
個人ブログ事象の地平線cml-office.orgでヤレ狂人
幼稚な学習障害だから
匿名掲示板にひたすら質問スレを立てたり
自演質問回答で愚劣な質疑応答をしたり
chatGPTに質問してデタラメ回答を信じ込んだり
およそ理系の学問の自主学習が一個もできない
嫌儲障害者の問題だね
結局この人がバカなのは
回答を示されてもその回答を受け入れる事ができないレベルの底抜けのバカだから
幼稚な問題を10年でも20年でも未解決のまま引きずるんだよな
基礎ちしきの積み重ねができずに
デタラメ知識のハリボテで世間に害毒を流すタイプの
学習障害犯罪者、それが嫌儲学習障害者
>>315 1+1=3であるこれが答えなんだって言われてもそれ違くねとはなるだろ
もしかすると1+1=2ですよって答えてるかもしれないけどじゃあなぜ2になるのかを深ぼるのも間違いじゃなくね
俺は一言も1+1=2じゃないんだ1+1=4になるはずなんだとは書いてないよ
1+1=3になるなら1+2=4だし1+1=2になるなら1+2=3にならないと変だよねとしか書いてない
うんそうだよ1+2=3だよってなれば確かにそうだねとなるけど
1+2=3だよね?に対して説明したのになあ笑みたいな返しばかりで何が間違えてるのかを一向に説明しないよな
俺が1+2=10!みたいなことを言ってるの?
PC自作派のコスパ廚どこ行ったの?🥹
Mac高い高い連呼してたのに
あと付け加えるなら
AIプラットフォームのベンチ比較やスケーラビリティ比較のデータを読めないのもこの素人廃人の特徴
ベンチ比較と指摘されると、全然関係ないGPUのベンチマークコピペを貼って、何かに答えたかのような幼稚極まりないプロレスを始める
Deepseekの蒸留モデル提供でメモリ帯域とメモリ搭載量の制限が緩くなったという記事を妄想解釈して、GPUよりCPUの方が高速実行できる系の妄想を何週間も撒き散らす
Microsoft bitNetの1.58bit表現で、CPU上の推論速度が原理的に向上するという記事を妄想解釈して、Apple M4一個でAIデータセンター全体の処理を賄えるとか妄想スレを立てる
こんな狂人を受け入れる学会はないし、物理学会ならトンデモセッションに抜擢されるレベルの狂人
それが嫌儲統失婆
>>316 お前の話は共有NGがかかっていて誰も読まないから
続きは個人ブログでやれ
>>319 うーんやっぱり1+2=10!みたいなことを言ってるということじゃないと成り立たないよな
どこが間違えているのかさっぱりわからん
それとも全部冗談なのか?
まず共有NGとかいいながら読んでるし嘘つきなのか?
物理学会でも、この狂人が誰なのか皆気付いているから相手にしないし、化学、生物と専攻を転々と変えても
実績もなくネットでトンデモ発言をしては大トラブルを起こすトラブルメーカーとして日本一有名になっているから
誰も相手にしないよね
それがコイツの現状
>>318 全くそうは思わないから今時PythonならCUDAなんていらないんだというレスに本当にそうなのか!?と思って期待したのに結局意見同じってことだよな
17年前、2008年6月段階のコイツの職場のあだ名が
「うんちのしみ」
だった件は爆笑したよ
普通そんなあだ名付かないし
仮に付けられたら職場を変える
うんちのしみというあだ名が真実を反映しているから
否定できず職場を変える能力もなくひたすらうんちのしみを職場とネットに撒き散らす人生は
とても哀れだ
■ このスレッドは過去ログ倉庫に格納されています