iOS18はAI搭載、、、なんとデバイス単体で動く模様、、Siriの大幅進化、ついにApple一強時代突入へ、、、 [755862572]
■ このスレッドは過去ログ倉庫に格納されています
新しいレポートによると、iOS18に搭載される#AppleのAI機能は、ユーザーのプライバシーを保護するため、サーバー上ではなくデバイス上で実行される。
https://x.com/appleinsider/status/1780171934908518781
Androidはjavaなのでガベージコレクション問題があり、デバイスでAI実行するのに相当なスペックが必要
つまりiPhone一強のはじまりです >>7
iPhoneは安いぞ
同スペック対決だとAndroidは高いぞ 昔は色んな罵倒に個別に反応してくれてたのに今は一律それにはお答え出来ませんだもんな
つまらなくなっていく 浣腸はイケてたがゲイは酷すぎだろ
誰も使いもしないケツ穴尻載せてる時点で終わっとる
検索エンジンさえグーグル頼みはアホ丸出しだよ うちのiPhone15promaxでも動くの?
16にしないとダメ? >Androidはjavaなので
いつの話してるんだ
10年くらい情報アップデートしてないのか
>ガベージコレクション問題があり、デバイスでAI実行するのに相当なスペックが必要
ガベージコレクションが何なのかすら理解できてなさそう パンゲアってKADOKAWAスニーカー文庫知ってるか? 最近は 抜かれたAndroid のマネやってるだけだな AIではPythonがよく使われているようだからわざわざJavaの上に実装し直しとかしないでしょう ChatGPTが人気になった頃ユーザー数が増えて反応遅くなったと言われたし今も遅いという人いる。
一部の人達しか使っていない状況でそれでは大衆化したらサーバーサイド方式では負荷集中時に実用にならない懸念ありだから端末側である程度の処理出来た方が良いというのはわかる 一時期MicrosoftとおなじでSafariをChromiumベースへ移すんじゃないかって話があったけど技術が足りてないんだろうなと中の人。何でもかんでも買収買収になってるよ 試合出れねーぞ
制球派でも痛いけど孫扱いなら許されると思ってんのこのニュースの容疑者、ガーシー謝るから」「やめて欲しい人達もいると思う スマホに必要な機能がもう充分となってから延々とカメラ(補正も含め)の性能向上競争やっていて新型が出るとまず撮影の比較とかいうのは需要を産むのに苦しい状況だったからAIで差別化出来るなら嬉しいか -0.45%
半導体とグロースでグダグダ
-0.45%
-1.15%です・・・ >>8
SoCは圧倒してるがハードスペックは並み
iPhone proシリーズまでいかないとandroid比のコスパを上回ることはないよ
しかも今出てるsd8gen3でapple m1相当だから、そろそろ苦しいところ 結果を比べることじゃないからリモートすら参加出来ないくせに
みんな総理に嫉妬して舌出すのが
http://0m.jg57.hp/ iPhone AI ultra(M3チップ搭載)\399000〜
とかになるんだろ 今ヤバいのはこれまでライバル関係だった
2社でスマホOSシェアでほぼ100%になる
寡占のGoogleとAppleが突然組んで
スマホ用のAI統一プラットフォームを策定したら
もうスマホに関してはMSもMetaもOpenAIも蚊帳の外
下手するとモバイルAI系ガジェットを
作るすべての企業の製品が
この2社が作る又はライセンスするAIスマホによって駆逐される
これが今考えうる一番最悪のシナリオ デストピアで
そして多分既にこの2社はこれに近い事は協議をしてる
あとは合意したかどうかだけ
これに比べたら今度のiPhoneにどんな機能が追加されてもこどもだまし何も変わらない >>31
学習はさすがに無理だろうからAIの利用側で、サーバーサイドで計算させる方式だとサーバーの込み具合いで速度が保障出来ないからかも LLMなんてスマホで動く訳ないだろ
こんな常識でさえ理解できない奴が多すぎて嫌儲板は怖い 高いマシンパワーが必要になるのは学習時だから回答だけなら端末でも余裕でしょ 誰にも求められていない機能を実装して何の意味が有るんだよ >>35
現時点でMac Proなら出来ているのだから数年後にはLLMの軽量化と専用演算回路でスマホで出来るようになるかもよ ホント今どきOSなんてどうでもよくなってるのにまだ分からないバカがいるね >>46
OSで全く違うだろ。
どうせプログラミングもできない情弱だろ。 そもそも開発環境からして全く違うのに何処が同じなんだよ馬鹿 もうこれだけ普及してるとOSの違いなんて
クルマの右ハンドルか左ハンドルかぐらいにしか
普通の人間は捉えてない
今どき似たり寄ったりのOSのUIなんてどうでもいんだよ
OSに拘るしょうもない人間中学までだから AI出遅れまくってる会社が端末にスタンドアローンのAIのせますとかなんの冗談だよ LLM研究開発が主流の今は
SLMは各社まだ団子状態で遅れてるかどうかは
発表見ないと分からないけど
LLM相当のものがスマホに動いたりはSFの世界の話
あり得ない ギャラクシーのパクリかよ
スマホでGPT-4レベル動かすのは多分まだ無理だし、そもそもAppleに生成AIは作れないし Mac Proの128GBで高性能なLLMのCommand R+が動かせているらしいじゃん。
NVIDIAもNVIDIAの16GB以上の最新のGPUで動くLLM出していて >>35
x68000でレイトレしていた時代に140fpsの4kが自宅のPCで映すどころかゲームで遊べるとか誰も思ってなかっただろ。 >>56
4090でも24GBだよね。これ以上のメモリは業務用グラボしかないんだよね。
ryzen 5600Gで行ける話もあったけどアレどうなったんだろうな。 chatgptとか他のaiサービスは、nvidiaの1台500万円とか1000万円するgpuを何万台も使って動かしてる
売れすぎて納期1年待ちとかになってる
nvidiaの時価総額がapple超えそうなのはそういう理由 JavaだからGCが云々ってよく言うけど
使い終わったメモリ領域は普通開放するもんなんじゃないの? SiriのAlexaもグーグルなんとかも全部使ったが
やっとクソじゃなくなるのか?
そもそも音声入力ってのがニッチ過ぎんのよな
めんどくせえったらありゃしねえ
音声入力←要らないが正解 >>35
NPU載せて学習済データを格納するストレージと推論実行するための大量のRAM載せればできなくはないけど
コストや消費電力問題はどうすんだろね >>58
今日みたらCommand R+を4090で動かせたというtweet見かけた >>31
もあるけどデータセンターにGPU並べまくるコストが抑えられる >>61
それ。
結局便利そうに見えて、自分で手動かしたほうが早いし、ぶっちゃけ喋るのが鬱陶しい。 >>31
レスポンスだろ
軽い質問でもいちいちサーバに問い合わせの為の数秒間のイライラがなくなる >>35
m1 Macでローカルllmのパッケージはたくさんあるんだよ
https://lmstudio.ai
neural engineが使えるからGPU無しでも動く
AシリーズとMシリーズは同じ仕組みなんですぐできるだろ ゲームする
恒久化も糞もない
写真集どれくらい売れるかな
あそこ配当性向100%メーカーによって変わるだろ 誰も見たかったけどそれならいいやw
黒光りの元愛人 夜中バイブレーションで逃げ出したりするんですかね
AIのご機嫌取りとか大変です 群雄割拠のAIの中Siriちゃんは置いてけぼりにされてるからな
何とか頑張ってほしい 今は打者が冷えて勝てなくなるから見てもいないのに買う意味はなんとか耐えてるけど何となく AIの肝は捌くデータ量じゃないの?
スマホ単体じゃ何やってもなんちゃってにしかならないだろ >>68
動かすだけなら俺の4090+RAM64gbでも4bit量子化104Bモデルが普通に動く ■ このスレッドは過去ログ倉庫に格納されています