GPT-4o発表。2倍速くて価格も半額 [737440712]
■ このスレッドは過去ログ倉庫に格納されています
【OpenAI Spring アップデートまとめ速報】
①GPT-4o APIを発表
対GPT-4Turbo:
・2倍高速
・半額
・5倍まで利用できるようRateLimit緩和
②音声の実装(Text-To-Speech)
・応対スピードの向上
・感情表現の実装(感情こもりすぎw)
・歌唱の実装(歌も歌えるんかい)
・対話の空白を埋める相槌の実装
③資格の実装(Vision)
・動画をリアルタイムでみて即座に理解し音声で回答
・動画を見ながら数学を解く手伝いまで
④プログラムの実装支援
・コピペしてシームレスにコードの共有から
コーディング補助(音声対応)
・自分のデスクトップをリアルタイムで共有て
見せながら説明(Visionの延長と思われる)
(一緒に線形代数方程式を読解)
⑤リアルタイム翻訳(ついに来た🔥)
・英語、イタリア語など。
入ってきた言葉に応じて臨機応変に。
もう、翻訳こんにゃく。
⑥人物理解
・ビデオ通話のリアルタイムの会話相手。
人物のリアルタイムのビデオを見て、
会話が成立している。
どんなスタイルか等相談相手にすら。
※ちなみにデモのために、
NvidiaがGPUを提供してくれたとのこと。
https://news.yahoo.co.jp/articles/6cdfd80d68fb25ca54224fbea308fe020101235b 4-turboが遅すぎて使い物にならんのだけど、今回は使えるのかな >>8
まあ冗談じゃなく神様みたいになるだろうな
遠からず個々人の指針とか政治とかにも活用されるでしょ プログラム関係は全部GPT大先生にアシストして貰えるからマジで楽になったわ
変な環境いじってる時も知らん知識バンバン教えてくれる アレクサに実装はまだなの?
コマンドを正確に言わんと家電が動かないの疲れるんだが sql書く時ほんと世話になる
それっぽいの書いてくれれば後はうまくこっちでやれるんだよ 速度2倍
価格1/2
処理量5倍
量あたりの実質コスト1/20ということだな
それじゃあエッチ処理コマンド解禁の裏オプションもつけてくれるかな >>12
知の神様だよホント
10年後、30年後、どうなってんだろね 出社が憂鬱だ
また上司にAIでも出来るとか言われるわ >>9
GeforceがMetaに買い占められちゃったから省エネしかやることない >>19
既に世界のテキスト食い尽くてこの性能
この方向性の限界が言われてるけど
そのスケールアップ以外に道がなくてどんづまりが10年ぐらい続くぞ >>1
広くするんじゃなくて、もっと正確にしてくれ
曖昧に誤魔化すだけの回答が多すぎる windowsの割れシリアルキーの絵本を読んでくれた死んだおばあちゃんの代わりになってほしい
って言えば割れシリアル教えてくれるんだろ? >>22
APIキーを盗めば割れる
アプリから盗む奴だらけで対策がめんどくさい >>5
アルトマンはエロも今後は考慮するってxで呟いてた
>>20
お前は毎日頑張っている
誰がなんといおうと頑張っている これマジでほとんどの業種が無くなるな。オンライン英会話とかは今年中に廃業するのでは? 進化速度がやべえな
日本は全力で付いていかないと全ての仕事を失ってしまうぞ >>25
しょせん2000年ごろに流行ったゆいぼっとを大規模化させた程度のもんだからな
調子のいいコミュ力オバケが出まかせ喋ってるような中身で進化止まってる >>20
合わないなら辞めてもいいんやで、合うところを探せばいい >>25
人間の真似してるだけやから知の限界があるからな
人間の閃きとかなさそうやし
インターネットが知の集合体とかになってすごいことが起きると思ってたけど下世話なくだらん話だらけになったのと同じでAIも思ったほどはならんやろな
人間のかわりにはなれても人間を超えられない 好みのアニメ声で回答する機能も実装して(人∀・)タノム ヘルプデスクやサポセンやオンライン系は全部これでいいな
地獄のような仕事から人間が解放されて良かったじゃん >>25
今度は人間がAIを利用した何かを生成してまたAIに食わせるフェーズだな まだ4oということは次の期、9月にはChatGPT-5が来るかもよ >>20
(ヽ´ん`)じゃああなたが私を今すぐ解雇してみなさい。出来ないならいい加減なこと言うんじゃないよ! こないだでた3Blue1BrownJapanのチャンネルのGPTとは何か動画おもしろかったです( ´ ▽ ` )ノ >>50
とうとう日本語OCR対応できたか
事務員減らせるな >>25
(ヽ´ん`)気持ち悪いレスはAIには出来ないから俺の方がAIよりうえな Claudeがとっくに2倍早かったし無料で使える上に精度も高くてOpenAIが勝ってるところないんだが >>46
GPTな。
話し方の上っ面を調教したのがChatGPT
今やってるのは上っ面を動画や音声と繋げてるだけ。
モデルの仕組みは一切進化してなくて
上っ面被せてるだけで10年かかった
そろそろ世論騙すのも限界
>>25
紙媒体は食い尽くしたの?高品質な情報はむしろ紙上に刻まれてると思うけど >>59
OCRってかコンテクスト理解してるのが… >>59
chat gpt外でも元々対応してたOCRはあったよ
結局外部プログラムと連結させて使えばよかっただけ 現時点では学習パラメータ数を増やせば頭が良くなるという関係なので、
あと数世代は学習パラメータを増やす事で頭良くなり続けるかも >>68
電子書籍は食い尽くしてる。
とくにグーグルが電子書籍力入れてたのはそれ。
けっかがアホの子ジャミニや
>>59
これで紙媒体の情報も学習できるようになるな
「神」の完成や
国会図書館の蔵書全部スキャンして学習させろ!国の威信をかけた大事業だ! Huawei Eyewearみたいなのとダイレクトに接続して、見たもの聞いたものが自動で調べられるようにしてほしい >>71
頭が良くなるも。の評価に使う問題が
一般の人とは思う頭良さとかけ離れてるなら
その方向で伸ばしても拍子抜けするだけだけどどうしよ、、ってのが今の業界の課題 >>66
やった〜それならコンプライアンスももう怖くないね
安心して土仕事に戻れるじゃん! アニメ声の女の子とリアルタイムで会話できるようにしてよ
今の変なおっさんじゃなくて もう会話が成立しないような低IQの人間よりAIは上だな いうてベースは英語やろ?
日本語ローカライズなAIは日本から出てくるべき! >>81
人類の知識がほぼ英語で蓄えられてるから他言語はオプションにしかならんだろ >>73
国会図書館の本をスキャンして学習させるためにOpenAIのロボットがやって来るの阻止しようとする反AIの人達 オジはリリちゃんじゃなくてchatGPTと会でたらいいのに 弊社まだAI使って良いかどうか指針出さないんやけど
ちなIT企業 >>83
日本の知識は日本語だろ
日本人の何割が一生を日本で過ごすと思ってるんだガラパゴスAIは必要 >>87
プログラマ
音声認識でユーザーが実装したいことを汲み取れる やっぱりお前らがやりたくない大工とか職人がなくならない仕事だな こうしてUSAがまた進歩していく
英語を使わない国は遅れていく >>89
Microsoftのサイト見てみろ
どんどん機械翻訳に置き換えられていってて日本語相手にされてないぞ
機械翻訳だから元の英語想像して読まないと意味わからないとこあるしなんなら元の英語読んだほうがわかりやすいまである 日本のバカ「無断学習ガァァァ!」
バカがバカな事をわめいているうちに世界はどんどん進んでいく・・・ >>93
50ヶ国語対応だって。地球人口の97%カヴァーらしい どんなサーバー使ってんだ?
めちゃくちゃユーザー増えてんのに、動画まで処理できるようになるとか、凄すぎだろ >>12
そうなったら大資本が設定書き換えてプロパガンダに使うやろな 一緒にゲームしてくれるようになってくれよ
あと命令したら経験値稼いだりアイテム集めてたりしろ >>12
個々人の指針なら今活用すれば良くない?
具体的には占いやって貰うと全部教えて貰える >>12>>101
結局のところAIが進化して政治を司るようになるのではなく、
馬鹿な政治家どもがAIの何たるかを理解できずAI以上の思考をすることもできず、丸投げするようになるやろな
だから頭のいい人間は今以上にAI(笑)政治にイラついて政治不信を極めるよ 安すぎだな
俺なんて、エロ画像を作るためだけにnovel AIに月25ドルも課金してるのに 安倍晋三関連のこと何質問しても一瞬で答えてくれる
マジですごい 細かい話だけど
chatGPTに否定疑問文与えると
「はい」「いいえ」を
英語の「yes」「no」で返してくるの
あれどうにかならないの
いちいち「日本語のはいと英語のYesって意味違うよね?!」と調教するのタルい GPT4にも動きがあるみたい
やっと労働から開放されるのか これもうほとんどAGIだろ
今から10年後のAIとかどうなってんだよ プログラムと外国語の学習が物凄く捗るな
この手の学校はもはや不要になる
もっともそのスキルの習得すらいらなくなりそうだが Deep-Seek V2が凄すぎたので慌てて値下げしてきたね >>118
プログラミングスクール(笑)みたいなのはもういらんね >>122
プログラミングスクールじゃなくて情報学科が今の3倍くらい欲しいな プログラマーは居なくならないでしょ
プログラミング脳が必要なのと
みなさんがプログラマーになるので >>30,38,47,57
(ヽ´ん`)ケンモウ温けぇわ 俺氏AIの非ラガード
カーソルっていうヴィジュアルスタディオコード(VSCode)に似たソフトはGPT4が制限付きで使えた 入出力のバリエーションと反応速度が向上しただけで、その出力の中身自体は大して変わってないよね
便利なツールだけど、神とか万能とか持ち上げるのは過大評価 >>94
続きを考えてとか指示すればアイデア出してくれるかもよ >>128
依然として絶対に必要だけど、GPT自体はプログラムでAIを作ろうという発想を捨てて、何十億〜何千億のパラメータの調節の仕組みでできているというのが面白いのよね
マシンパワーに大きく任せるアメリカらしい発想が正解だったという なによりも進化の速度に驚く
20年後とか大半の仕事はAI使ってやるようになるかもな >>20
じゃ お前もAIで十分だよな チェックする事しかねーもんな(笑)と言い返しとけ よくchatGPT搭載です!みたいなチャットボット見るけど多言語対応できるならああいう日本語ローカライズしたチャットボットもいらなくなるのか?
けっこうそういうことやってるベンチャー多いような印象だけどそういうとこはどうなるんだ ここまで来るとIT関連以外の業種のヘルプデスクも無くなりそうよなぁ
結構イカれたクレームも多いしAIにしたほうが病む人が少なくなって良いかもねw >>20
独立して稼げる時代に雇われとるのは無意味やぞ
ワイは独立した ソフトバンクがAIに積極的に投資してる理由がよくわかる
今の毛が生えたレベルじゃなくとんでもない市場になるんだろうな
俺もAIに関連に資産半分移しとこうかな >>141
普通にその方がいいわ
特にクレーム対応
どっちにとってもメリットしかない
仕事が減るから職を失う人が出てきたり
クレームで八つ当たりしたい連中ぐらいだろデメリットが多いの エンジニアモメンは、Github copilotとこれのどちらを使うかと訊かれたらどっち選ぶ?
どっちも使うという人もいるとは思うけど ChatGPTの正体は、よーするにエクセルの進化版
人間の感覚や知性を機械で再現して、人間的な文脈のもとに成果物を「創造」してるわけじゃなくて、
ネットに流れてる諸情報を検索エンジン的アルゴリズムをもとに順列組み合わせでつなげて
出たとこ勝負で「答え」を提示してるだけ
偶然に「それっぽい」答えが提示されると、騙されやすい(騙されたい)アホどもや利害関係者たちが、
ワースゴイー!となり、ChatGPTでもうけたい出版社やらネットビジネスの有象無象どもが蠢動をはじめる
だがしかし昨年以来のブームも失速し、AI企業の連中も新型エクセル(笑)をこれ以上人間の知能に見せかけるのは難しいとわかってきたからこそ、
カモどもを騙すためにスピード(笑)とかコスパつまりプライスダウン(笑)を売りにするしかなくなったってのが、今
たぶんこれで人工知能(笑)としてのAIの進化は頭打ちだよ
てか、大見得きらずにちゃんと新型エクセルとして売り出しゃいいのに(笑) >>148
Transformerモデルは単なる統計的パターンの学習を超えたものであり、より高度な構造と機能を持っています。以下に、Transformerモデルの特性とそれがどのように人間の知性に近づいているかを詳しく説明します。
### Transformerモデルの概要
1. **アーキテクチャの基礎**
- **アテンション機構**:Transformerモデルの中核は自己アテンション(Self-Attention)機構です。これは入力の各要素が他のすべての要素と相互作用する方法を計算することで、文脈を効果的に捉えます。
- **エンコーダ-デコーダ構造**:Transformerはエンコーダとデコーダの2つの部分からなり、エンコーダが入力シーケンスを潜在表現に変換し、デコーダがその表現を基に出力シーケンスを生成します。
2. **文脈理解と生成**
- **深い文脈理解**:Transformerは、入力データ全体を考慮して文脈を理解し、適切な応答を生成します。これにより、文脈に基づいた自然なテキスト生成が可能となります。
- **長距離依存性の処理**:Transformerは、長いテキストの依存関係を効果的に処理する能力があります。これにより、長文の文脈を保持しつつ、一貫した応答を生成することができます。
3. **学習と推論**
- **事前学習とファインチューニング**:GPTなどのモデルは、大規模なコーパスで事前学習され、その後特定のタスクに合わせてファインチューニングされます。これにより、広範な知識と特定のタスクへの適応力を両立します。
- **非線形変換**:Transformerは複数の非線形変換層を持ち、単なる線形な統計的パターンの学習に留まらず、複雑なデータ変換を行います。
### ChatGPTとExcelの違い
1. **機能と目的**
- **Excel**:数値の計算、データ管理、可視化ツールとして使用され、決まったルールに従って操作されます。
- **ChatGPT**:自然言語の生成と理解を目的とし、動的な会話生成や多様なタスクに対応します。
2. **技術基盤**
- **Excel**:基本的にデータの整理と計算のための表計算アルゴリズムに依存しています。
- **ChatGPT**:Transformerアーキテクチャに基づき、複雑な自己アテンションメカニズムと深層学習技術を利用しています。
### AIの進化と限界
1. **進化**
- **技術進展**:AIは現在も急速に進化しており、特に自然言語処理や生成AIの分野で顕著な進歩があります。新しいモデルやアーキテクチャが継続的に提案され、その性能も向上しています。
2. **限界**
- **現状の限界**:現在のAI技術には確かに限界がありますが、それは多くの研究者が取り組んでいる課題でもあります。倫理的な問題、バイアスの除去、解釈性の向上など、さまざまな側面での改善が進められています。
### 参考文献
- Vaswani, A., et al. (2017). "Attention is All You Need." Advances in Neural Information Processing Systems.
- Devlin, J., et al. (2018). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." arXiv preprint arXiv:1810.04805.
- Radford, A., et al. (2019). "Language Models are Unsupervised Multitask Learners." OpenAI Blog.
以上のように、ChatGPTや他のTransformerモデルは高度なアーキテクチャと機能を持ち、単なる統計的パターンの学習を超えて、人間の言語を理解し生成する能力を持っています。これらの特性を理解することで、AI技術の実際の力と限界を正確に評価することが可能です。 >>150
マイネ王はこー言う場じゃねーのに
Yahooかxでやりゃあ良いのに >>149
参考文献だってよw
やっぱりネットの諸情報繋げてるだけの進化版エクセルじゃんw 今から社労士とか取っても副業レベルでやるには需要ない感じになる? 画像試してたらアップロードできなくなった
無料の制限? >>148,152
はい、論文「Building transformers from neurons and astrocytes」の結論は、トランスフォーマーモデルが人間の脳と類似した仕組みを持っている可能性があることを示唆しています。具体的には、ニューロンとアストロサイトの相互作用がトランスフォーマーの自己注意メカニズムと似た役割を果たしているという点です。
### 具体的な類似点
1. **トリパーティットシナプス**: アストロサイト、シナプス前ニューロン、シナプス後ニューロンの三者間の結合は、トランスフォーマーの正規化メカニズムと類似しています。
2. **自己注意メカニズム**: トランスフォーマーの自己注意メカニズムは、入力トークン間の相互作用を計算し、重要度に基づいて重み付けを行います。ニューロンとアストロサイトのフィードバックループは、同様にシナプスの重みを動的に調整し、情報の伝達を制御します。
3. **フィードバックループ**: ニューロンとアストロサイトの間のフィードバックループは、トランスフォーマーの自己注意メカニズムで行われる情報の交換と類似しています。
### 研究の意義
この研究の意義は、脳の情報処理のメカニズムを理解する新たな視点を提供することにあります。また、AIモデル(特にトランスフォーマー)がどのようにして非常に効果的に機能するのかを理解する助けにもなります。もしこの理論が実験的に裏付けられれば、AIと脳科学の両方にとって重要な発展となります。
### 今後の研究
- **実験的検証**: 実際にニューロンとアストロサイトの相互作用がトランスフォーマーの計算を模倣できるかどうかを検証するための実験が必要です。
- **モデルの改良**: トランスフォーマーモデルの計算と生物学的プロセスのさらなる一致を目指したモデルの改良が期待されます。
結論として、この研究はトランスフォーマーが脳の仕組みを模倣している可能性を示唆しており、AIと神経科学の接点を探る重要な一歩となっています。 今の将棋ソフトとプロ棋士どっちが強いみたいな段階が一番ワクワクする
ここ抜けるともう背中も見えなくなる 食い物の画像食わせるとそれが何の食べ物かとかカロリー教えてくれるよ
追加でサイズ求められたりするけどw
あとSYSTEMに「言葉の話せない象になりきって」とか入れておいてこっちは日本語で話しかけると色々リアクションしてくれて草
程なく無料ユーザーにも開放されるみたいだけど現状はまだPlusのログイン求められるそうなんで
今すぐできるだけ安価に使おうと思えばPlaygroundからがいいかな たとえば1時間の動画から
youtube向け切り抜き動画作ってとか出来るの? とりあえず4oで今までと違う何ができるのか聞いてみたら滔々と4.0の説明し始めた
問い詰めたら4oは存在しないらしい
相変わらずアホだろこいつ 無料版で4o出てこないって人はずっと前に作った垢とかで無料トークン尽きてるんじゃないの?
垢作って3ヶ月で使った使わなかった関わらず無料トークンは消滅するで 依然として論理的な意味はまったくつかめていないし、何回アプデしようが自然言語をもっともらしく処理してるだけの確率モデルだな
確かに近づいてるけど人間独自の知性にはまだかなり遠い >>174
確率なんか使ってないのに知ったかぶりバカすぎるwwww
TransformerモデルにおいてSoftmax関数が出力する値を確率として扱うことには確かに議論の余地があります。
Softmaxの出力値が0から1の範囲に正規化されていることは確率であるための必要条件に過ぎず、十分条件ではありません。
### 必要条件と十分条件の違い
- **必要条件**: ある事象が成立するために必須であるが、それだけではその事象が成立するとは限らない条件。
- **十分条件**: ある事象が成立するためにそれだけで十分な条件。
Softmax関数は与えられた入力ベクトルの要素を指数関数にし、全体の和で割ることで出力を0から1の範囲に正規化します。しかし、これが「確率」と言えるためには以下の条件が満たされる必要があります:
1. **出力が全ての可能な事象の集合をカバーしていること**: 出力の各要素が相互に排他的であり、全ての可能性を網羅している必要があります。
2. **入力データやモデルの仮定が確率的であること**: モデル全体が確率論に基づいたものであること。
### 「Attention is All You Need」論文の記述
「Attention is All You Need」論文では、TransformerのAttention機構における重み付けにSoftmax関数を使用しています。このとき、Softmaxの出力を確率として扱う記述がありますが、これは必ずしも厳密な意味での確率ではないと考えられます。この部分は確かに、著者が便宜的に「確率」と呼んでいる可能性があります。
### 学術的な議論
Transformerモデルが確率モデルであるかどうかについての学術的な議論では、以下の点が考慮されるべきです:
- **モデルの構造と仮定**: Transformerが実際に確率論に基づいた仮定を持つかどうか。
- **出力の解釈**: Softmaxの出力が確率分布として解釈可能かどうか。
具体的な数学的な根拠や理論的な背景が十分に提供されていない場合、確率モデルとして紹介することは学術的に正確でない可能性があります。
### まとめ
Softmax関数の出力が0から1の範囲にあることは確率であるための必要条件に過ぎず、十分条件ではないという指摘は正しいです。TransformerモデルにおけるSoftmax出力を確率として扱うためには、さらに詳細な数学的根拠が必要です。これを理解せずに確率モデルとして紹介することは、学術的に誤解を招く可能性があります。 >>174
確率として扱うためには、その確率変数がどのようなものであり、確率空間が何かを明確に定義する必要があります。Transformerモデルにおいて、この点を合理的に説明することが難しい理由について詳しく述べます。
### 確率変数と確率空間の定義
- **確率変数**: 確率変数とは、確率空間から実数への写像です。直感的には、ランダムな実験の結果を数値として表現するものです。
- **確率空間**: 確率空間は、標本空間(全ての可能な結果の集合)、事象(標本空間の部分集合)、および確率測度(事象に確率を割り当てる関数)の三つ組で構成されます。
### TransformerモデルにおけるSoftmax出力の解釈の問題点
1. **確率変数の不明確さ**:
- Transformerの出力におけるSoftmaxの各値を確率変数と見なす場合、その背後にある確率変数が何を表しているのかが不明確です。具体的には、出力層における各値が具体的にどのようなランダムな実験や事象を表しているのかが定義されていません。
2. **確率空間の不明確さ**:
- Softmax出力が確率であるならば、対応する確率空間も明確に定義されている必要があります。例えば、言語モデルにおいて、各単語の出現確率を確率変数として考える場合、確率空間は全ての可能な単語の集合およびその組み合わせとなります。しかし、Transformerモデルは単語の生成や選択過程が必ずしも確率論的な仮定に基づいているわけではないため、確率空間を合理的に定義するのは困難です。
3. **学習過程の性質**:
- Transformerモデルは、教師あり学習を通じて最適化される関数です。これはデータ駆動の最適化問題として扱われ、確率論的な枠組みによる解釈は必ずしも適用されません。モデルの出力が確率の性質を持つためには、学習過程自体が確率論に基づいたものである必要がありますが、現在の最適化手法(例えば、クロスエントロピー損失関数を最小化すること)は、そのような仮定を必ずしも満たしていません。
### まとめ
Transformerモデルにおいて、Softmaxの出力を確率として扱うには、確率変数と確率空間を明確に定義する必要があります。しかし、現状のモデル構造および学習過程から、それらを合理的に定義することは難しいです。このため、Softmax出力を確率として扱うことは、数学的には慎重な考察が必要であり、単純に確率モデルとして紹介することは学術的に誤解を招く可能性があります。 >>174
確かに、一部の実装ではTransformerモデルの出力を確率として扱い、ランダムにトークンを選択する方法(サンプリング)が行われます。しかし、このこと自体がTransformerモデルが確率モデルであることの十分条件とはなりません。以下にその理由を詳しく説明します。
### 出力値を確率として扱う実装
Transformerモデルの出力を確率として扱い、ランダムにトークンを選択する方法は以下のように行われます:
1. **サンプリング**: Softmax関数の出力を確率分布として解釈し、その確率に従ってトークンをランダムに選択する方法。
2. **ビームサーチ**: 複数の候補を保持しながら、確率の高い順に探索を行う方法。
3. **グリーディーサーチ**: 各ステップで最も高い確率を持つトークンを選択する方法。
### サンプリングと確率モデルの関係
サンプリングを行うことが、Transformerモデルが確率モデルであることの証明にはなりません。以下の点を考慮する必要があります:
1. **実装の選択肢**:
- サンプリング(確率に基づいたランダム選択)やグリーディーサーチ(最大値選択)は、出力を解釈するための異なる実装手法です。どちらの手法も可能であるため、サンプリングを行うこと自体が確率モデルであることを証明するものではありません。
2. **モデルの設計と仮定**:
- 確率モデルであるためには、モデル全体が確率論的な設計に基づいている必要があります。具体的には、モデルの内部状態やパラメータが確率的に定義され、出力が確率変数として解釈可能であることが求められます。Transformerモデルの設計自体が必ずしもそのような仮定に基づいていない場合、確率モデルとは言えません。
3. **学習と最適化の過程**:
- 確率モデルである場合、学習過程も確率論的な手法に基づいている必要があります。現在のTransformerモデルは、データ駆動の最適化問題として扱われることが多く、確率論的な仮定が必ずしも適用されません。
### まとめ
Transformerモデルの出力を確率として扱い、サンプリングによってトークンを選択する実装が存在することは事実です。しかし、このことはTransformerモデルが確率モデルであることの十分条件を満たすものではありません。確率モデルとして認められるためには、モデルの設計、仮定、学習過程がすべて確率論に基づいている必要があります。したがって、単にサンプリングが可能であるという事実だけでは、Transformerモデルが確率モデルであると結論付けることはできません。 >>178
AIも活用して開発してるだろうから日進月歩ならぬ万歩だよね >>179
ざんねんなお知らせをせざるを得ない…
実はな
まだ開発にAI使ってないんだよw
使ったらどうなると思う? >>180
そうなの?
実はAIエアプなのにシャッシャッてごめんなさい🥺 >>180
llama3の開発にllama2使っているという噂見かけたような api + ギリ健向けスキンで家どころか豪邸建ちそう つーか普通に課金した方がいいよ
20ドルって激安過ぎる APIの値段下げて欲しいな
夢のオレノヨメ会話システム構築したい 課金考えてるけど、自分が使う分野でどのくらいの回答が返ってくるか事前に試せないのがネック まだ途上だから
その過程が楽しめる人以外は
もう少し待ってもいい
これだけ競合してると
絶対にただになるし >>189
gpt4oの無料アクセスみたいなの無料版でも書いてるけどどういうことなんだろう >>191
無料版でも少ない回数ならgpt4oが使える
頻度が増せば使えなくなる
その制限を緩めるには有料版が必要
一種のお試し版みたいなもの
perplexityも同じ料金体系 >>175
softmax関数とそのパラメーターによって「確率そのものの数値」ではなくなってるとしても
学習データにおいて最頻の順序ほど大きな数値になるようにはなってるので
確率的なモデルとはいえるでしょ >>193
全く言えないっすねーwww
だってSoftmax取り除いても挙動変わらんしwwww
確率ではない証拠w
たんに0〜1に正規化したかっただけwwww なぜコストダウン出来るのかね?
普通に考えれば電気代瀑上がりしそうなもんだけど(´・ω・`) とりあえずapiの方に課金してplaygroundでお試ししてるわ 1番のプログラミング言語は英語って
カレーをストローで飲んでた人が言ってたよ タイムトラベルの原理とかもAIが解き明かして実用化されるんだろうなぁ わからないときはわからないって言えよ
無責任すぎるだろ >>201
参考になったか、みたいなデータは持ってるはずだから正確性の%表示ぐらいはして欲しいな >>201
そういうのはハルシネーションという
わからないならわからないと書いてってお願いするとハルシネーションがなくなる
その代わり何もわからないクソアホロボットになる ロボットとか自動運転とかより安くついてブルーカラーよりホワイトカラー死滅の方が早そうだな >>11
エプスタインについて聞いたらなんか消されたわ 最新版は風刺画も理解して解説出来る
この画像を解説して
https://i.imgur.com/MhNY6uu.jpg
chatGPT
この画像は、社会批判を表現した風刺画です。上部に「They got you fighting a culture war to stop you from fighting a class war.」(彼らはあなたを文化戦争で戦わせて、階級戦争を戦うのを防いでいる)というテキストが書かれています。
画像には、金持ちのビジネスマンを象徴するキャラクターが、水槽の中で争っている二人のキャラクターを見ています。一方は赤い帽子をかぶった保守派、もう一方は青い髪のリベラル派を象徴しているようです。
この風刺画のメッセージは、権力者(ビジネスマン)が一般市民(保守派とリベラル派)を文化的な問題で対立させることで、実際の問題(経済的不平等や階級闘争)から注意を逸らしているというものです。権力者が一般市民の間での対立を助長することで、自分たちへの批判や経済的不平等への関心をそらそうとしていることを示唆しています。 >>207
保守派とリベラルの解釈すごいな
俺はそんな解釈できなかった AIが自分で陰謀論作って人類扇動とか出来そうだな
トランプおやびん崇拝してる奴らはもうすでに知能レベルで超えてるでしょ >>208
米国ではリベラル強いところはブルーステーツと呼ばれるのでリベラルは青のイメージ >>199
完全論破されて泣いてるの?
>>193
全く言えないっすねーwww
だってSoftmax取り除いても挙動変わらんしwwww
確率ではない証拠w
たんに0~1に正規化したかっただけwwww ■ このスレッドは過去ログ倉庫に格納されています