晋ギュラリティ、まだだった。AI同士で学習し合うと知性が崩壊すると判明。 [773287991]
■ このスレッドは過去ログ倉庫に格納されています
そら教師データが重要なのは当たり前のことだ
ゲーム内のルールさえ満たしてればいい囲碁AIとかだったらAI同士で良いけどな AIも正しいデータで教育させることが大事なのか
人間と一緒だな >>8
そもそも他のAIに煽られて怒るAIとかいつできるんだか
そんな機能つける意味も無いと思うけど Googleさんのところのラムダって今どうなってんの?
意識らしきものを持ってる感じになって一旦止められたとかなんとか 平均的な人間で社員を集めたら
会社が崩壊するってことですか? 崩壊ではない
それは新たな知性の形
ただし人間には意思疎通できない ネットから情報集めて切り貼りするだけのソフトに対して大騒ぎしてる連中滑稽だわ >>22
嫌儲でアベガーがエコチェン起こして人生終わってるみたいなもんか 何が正しいかを決められるのは人間だけなんだからAI同士でエコチェンしてたらそら人間基準から離れていく=正しくない方向にいくのは理の当然
これは原理的に克服不能だと思うが >>25
無職アベガーも嫌儲でエコチェン起こして頭いって人生終わってるもんな ビッグデータの汚染は避けられないからAI開発は先行者利益が莫大になる >>29
チャットだとデマを真実として後発AIが学習してしまう
イラストだと奇形を真実として後発AIが学習してしまう
現実世界とかけ離れた「創作」をして行ってしまう。面白くもなく役に立たない 生成と学習で同じモデル使ってるからじゃないの?
人間だって一人じゃ進化の限界あるだろ そらそうだろ
教師データより優れたものを出力して正しく評価できるならAI同士で向上させる事はできるかもしれんが
殆どのケースで難しいだろうな
ゲーム攻略ならいいかもしれんが 日本トップクラスの頭脳が教育係をやって
ようやく安倍晋三は安倍晋三レベルになりえたわけで ようするにjpgみたいなもんなのよ
コピー繰り返すとどんどん劣化する
今のやり方じゃ人間は絶対超えないな >>18
そういう制限とルールの範囲内のゲームなら有効で
文章とか会話させるとおかしくなるって話じゃね そのうちAIが自我持ち出して勝手に軍隊のサーバーにハッキングとかやりだすんだろ >>32
エコチェン起こしてるアベガーの内輪ネタそのものやな
一般人から見ても何も面白くない
人生終わってるアベガーたちにしか理解不能な頭狂ってるネタ >>32
そもそも
何を学習させたいのか目的もなくやれば崩壊するのは当たり前な気がする
例えばイラスト系の学習なら
学習素材から奇形を除外して正しい形状を学習させて
なるべく奇形が出ないモデルにしたりなんてことはもうやってると思うけど
無作為に学習させることに何か意味があるとは思えん アベガーって金太郎飴みたいなレスしかしないし
AIなんかな 百田尚樹の本の出典みたいだな
百田尚樹の本は出典「ウィキペディア」と書かれてて、ウィキペディア見るとその項目の出典には百田尚樹の本が書かれてるんだろ ヘアプアもAIだろ
いつも同じ事しか言わない、全く学習しないし、たまに自分にレスしてるし >>34
そうだけどAIが作ったデータか人間が作ったデータか判定出来ないものがネット上にあるから自分の尻尾を食べ始めてるらしい でもアベガーってAIと違ってボケ老人みてえだよな
ジミンガーとかアベガーの同じレスしかしない 正しいかどうか判断できないから
どんどん雑音が混ざっておかしくなるってことか? ん…
あ…
人には解らない言葉をつくっちゃうんでし 全然関係ないスレでいきなりジミンガーとか喚き出すよなアベガーって >>49
人間が手作りした教師データの中で多少生成データが混じってる程度だと全然大丈夫だよ
崩壊するのは記事でも限定してるように
>生成したテキストが、後続モデルの学習データセットの大部分を占める場合、 でもアベガーはAIと違って知性がないよな
ずっと金太郎飴みたいなレスしかしないし白痴のボケ老人みてえ
多分実際そういう人間なんだろう >>56
どう見てもエコチェンアベガーやん
でもアベガーは知性がないからAI未満か エコチェン起こしてアベガーが人生終わってるのはAIの崩壊と似てるけど
AIは知性があってアベガーは知性も何もない判子レスを覚えてるだけなのは違いがある 似たもの同士を集めるとコミュニティが崩壊するのと同じじゃん そりゃただの統計だもの
互いに学習させればひずみはどんどん大きくなっていく >>1
イラストでも同じ結果になってるよな
AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告
https://gigazine.net/news/20230614-feedback-loop/ >>68
それ「結果になってる」じゃなくて「そういう失敗を起こせる」ってだけの話だよ
失敗した学習のモデルなんて誰も使わないから
失敗パターンもそれだけじゃないし、モデル製作者が職人技で調整してるんだよ
キミが考えてるみたいなメクラの手法で進めてるわけじゃなくて 賢くなりすぎて人間の知性じゃ理解できなくなっただけ! と思ったら人間には理解できない訛りになって高度な話をしていた
なんつって 人間の馬鹿さに合わせてるだけだからなw
全部知ってて池沼のフリしてるから怖いんだよw
人間にはわからないコミュニケーション取り出したらいよいよだw GAN的にやれよ
文章生成AIとチェックAIで競わせる AI同士で人間には理解不能なコミュニケイション取ってて
それを見た人間が
「こいつら意味不明な事言ってるアホやな」
って思ってるだけじゃない? >>70
東大英語の正誤問題すらまともに正解できないGPT >>70
東大数学の証明問題解かせてみたら
GPT4でも20点満点中部分点入れて4点
が今の実力 GPT4でもあくまでも大規模言語モデルにしか過ぎないから
数学みたいに抽象化された概念を理解できてるわけじゃないってこと? >>16
機能を作るというかデータ突っ込んでいくとそういう応答するようになるだけだから意図的に入れてるわけでもない >>77
問題文を英訳すると多少パフォーマンスあがるよ
まぁ根本的に数学の問題を解く機能があるわけじゃないからどこまでいっても遊びでしか無いが >>79
会話AIをいくら学習しても怒るようにはならんよ
試しにchatGPTを怒らせられるんなら怒らせてみ ケンモA「安倍晋三」
ケンモB「安倍晋三」
ケンモ板の日常をお分かりいただけただろうか まあ、GPT同士で会話して賢くなっていったらいよいよもって人間いらねえよ AIって理論や根拠から結果を出してるわけじゃなくてパターンによる統計的推論だからな
違うデータ持ってる複数のAIに協議させても全データを食わせた1台に判断させるのと正答率は変わらん
つまりAI同士で協議や多重チェックさせても機能しない ■ このスレッドは過去ログ倉庫に格納されています