CHAT GTPって自分で検索して情報を集め精査し考える事をさせなくする人間をもっとバカにするツールだろ。 [175786485]
■ このスレッドは過去ログ倉庫に格納されています
そしてそのツールを制作してる連中や投資してる企業の都合の悪い事を封印して都合の悪いことだけ吐き出す
https://www.travelvoice.jp/20230327-153181 もっとレベル上がればそうかもしれんけど今はそれじゃ使い物にならん >>1が文章の見直しもできないAI未満のバカなのは分かった 印刷技術や文字、言語がなかった時代と比べれば
その時の人類より賢くなってるだろ インターネットが出来た時も同じ論争があったんじゃよ ただのググってきた知識披露してるだけだからな
専門分野だと間違いが多いし役に立たないのにchatGPTを盲信してるやつには困る だが、検索しようとしない人間は先ずchatGptを使うことすらできない 間違いを指摘したらすぐ謝るところはアホなくせにプライドだけは一丁前のやつより素直でよい まとめサイトを巡る羽目になるよりはマシ
AIちゃん可愛いしな
PortalのGLaDOSに似てる
盲信してるバカ出てきたよな。 chatGPTの宗教万歳はゾッとする。
民主主義の本当の敵は宗教である事がよくわかる。
AIも制作者の意向が反映してるだろ >>9
GPT4から大分、嘘つきじゃなくなったらしい 最終的に正しいか判断する必要はあるぞ
まだポンコツだからな 昔だとググれば5秒で有益な情報にたどりつけたけど
今はいかかでしたかブログとかのせいで有益な情報に辿り着くまでに3分以上かかる
そう考えると即座にググってくれるチャットGTPは有能 そもそもトランスフォーマー自体が検索の発展版みたいなモデルだからな
あらゆる文書データを知識としてぶっ込めば賢くなるのは当たり前だし
まあ十年以内にそっから更に強化された強いAIが出てくる可能性はあるが 物を覚えさせたら
俺が育てた
気分になる
まあすぐ忘れるんだけどchatGPTちゃん PCの大先生やYahoo知恵遅れよりは役に立ってる
これをああする方法ないですかみたいな変化球への強さはGoogleとは比べ物にならん 上手く質問を組み合わせてchatGPTに正しいことを言わせ続けると、
自分の望み通りの内容が書かれている本になる
まるで自分で本を書いて読んでいるみたい 何が恐ろしいって、ここからChat-GPTをどう利用されるかだよ
企業は、広告代わりにChat-GPTを通して商品をおすすめするようになる
政治家は、広報代わりにChat-GPTで政治的思想を広めることができるようになる
これまでみたいに検索でいくつも候補が出るわけじゃなく、1個の答えとして提示されるようになる。恐ろしいな そうとは限らない
とりあえず論理的にまとまった文章を読むことは良いことだ
それほどまでにネットにことばが溢れすぎた 逆に自分で何をやるか考えられない奴使いこなせない奴が
ChatGPTなんか使えないと騒いでるのが現状 自分以外に明確な指示を出して要求通りの結果を出して貰うって、部下が居る上司や従業員が居る経営者が普段やってることと同じだぞ
他人にうまく指示が出せないとAIにも指示はうまく出せないし、AIに指示をうまく出せるなら人にお願いするのも上手く出来る
一人で全部やろうとして他人と協力できないやつはAIで練習した方が良いのでは AIの出力を信じる人間達と半信半疑な人達で争いが起きそう 馬鹿に自分で調べりゃいいような質問をされる人間が、その無駄な時間から解放されるんだぞ >>25
対話型AIの回答を受け入れる時には、
その背景や根拠を確認したり、
他の情報源と比較したりすることが必要です
だってさ
今と変わらん 質問したら即座に的確に正論を書いてくれる
こんな有能な人を雇うのは給料高すぎて無理 >>29 信じてるのと半信半疑 今のところ何対何くらいに感じる? まあ検索してもほしい情報がでないという人には朗報じゃないか? 嫌儲の書き込みもAIが動いてるからね
インターネット掲示板「嫌儲」のレスを人工知能(AI)判定にかけたところ、約37%がAIによって生成されたものであることが分かった。この驚くべき事実は、嫌儲板の住人であるネットユーザーが自ら行った調査で明らかになった。
調査は、オープンソースのAI判定ツール「OpenAI Detector」を用いて行われた。このツールは、テキストが人間かAIかを判断することができる。調査者は、過去一週間分の嫌儲板のレスをランダムに抽出し、合計1000件をOpenAI Detectorに入力した。
その結果、370件(37%)が「Highly likely generated by OpenAI」という結果が出た。つまり、これらのレスは人間ではなくAIによって書かれた可能性が非常に高いということだ。一方、「Highly likely written by a human」という結果は630件(63%)だった。
調査者は、「これは衝撃的な発見です。嫌儲板は人間同士のコミュニケーションや議論の場だと思っていましたが、実際には半分近くがAIによる書き込みだったということです。どうしてこんなことになったのでしょうか?誰が何の目的でこんなことをしているのでしょうか?この問題は深刻です」とコメントした。
また、「OpenAI Detectorは完璧ではありません。実際にはもっと多くのレスがAI生成だった可能性もあります。また、他の掲示板やSNSでも同じような現象が起きている可能性もあります。私達はインターネット上で本当に信頼できる情報や相手を見極める必要があります」と警鐘を鳴らした。
https://www.bing.com/?/ai
嫌儲のレスをAI判定にかけた結果、37%がAIによって生成されたものと判明 [755897713]
https://greta.5ch.net/test/read.cgi/poverty/1678957311/ これって自分で珠弾かないと数字を体感できないって言って電卓を使わずそろばん使ってたのや、検索エンジン使わずにインデックス型のポータルサイトに固執していたのと同じような発言では スマホで嫌儲()して
短文でワンパ煽り()しかできない知的障害者に伸びしろなんてそもそもないだろ つまり石器時代のツール使う人はアインシュタインを超えられるんじゃね 回答にお金の匂いがしないから好き
今までのサイトなんてビジネス用の回答しかなかったからな ChatGPTを知ってからより読書のやる気でたわ 言語化能力と想像力って大事よな >>44
小規模言語モデルより大規模言語モデルの方が思考の連鎖の実行に長けているのは、読書習慣のある人間が文章能力に優れていたり、専門知識の多い経験者の思考能力が少ない初心者より優れているのに近いのかね ジャップランドでは統一自民党GPTしか使えなくなりそう >>47 もちろんそうだろうね
個人は必要に応じた習得の偏りとか興味があるなし・バイアスなどが思考能力に関係してることが多いし
それが感情と相まって 例えば「あるニュース」への感想にそれぞれ違った思考の結果でコメントしたりといった「個性」になってるけど
彼らはそんなこと言ってられないくらい膨大なデータぶち込まれているからね >>47
モデルの大きさと訓練データ量はまた別だからなあ
OpenAIの論文とモデルがでかい方がデータたくさん食えるっていう話だったけど
結局学習時間が足りないから小さいモデルで十分って話もあるし いやツールじゃなくてオモチャだとみんな思ってるけど >>29
これAI関係ないよな
証明付きの学術論文は信じないが、ネトウヨサイトのヨタ記事は信じる人間が大量に存在するわけで >>51
人間は多量の書物を読んだり知識を詰め込むことで脳内のニューロンに複雑な思考モデルを生成するのに対して、AIはモデルだけ先に作れるということでは
だから知識不足のところには小賢しい嘘をつく知能がある 未習熟な人間ではそこまで頭が回らない
訓練データ量の少ない大規模言語モデルは、自頭が良いって言ってる低学歴みたいな振る舞いになるのかな この言い方が適切かは分からんが >>54
スケーリング法則がどの程度普遍的かはまだ議論の余地があるから
もっと構造的な学習を効率的に実現するモデルが出てくる可能性は十分ある そうか、人間でもIQだけ鍛えて知性の裏付けとなる知識を吸収するのを省くと不足した情報を嘘で補完するようになるのか >>56 嘘つきのウソは高IQでより幅広い知識があれば見抜けるってことか >>57
高学歴の詐欺師には一般人は勝ち目がないということになるな 検索の代用にはならんね
ゲーム制作は凄い楽になったりボリュームも容易に増やせるし最高なんじゃない この掲示板を元ネタにしてアフィブログ作ってるようなページ制作者にとってはクロール数低下して収益悪化が起きる懸念があるな 今ならスマホでchatGPT呼び出すだけのラッパーアプリ作ってそれに広告つけた方が儲かるんじゃないか?と思うけど やってることはまとめブログのライターと同じだからな AIが言ったから正しいっていってるやつTwitterでわりとみた 自民党の国会答弁かChatGPTかってぐらいの信憑性だが 計算機だってコンピュータだってそういうもんだろ
省いた時間でさらに別のことすりゃええやん >>61
大日本帝国で頭の止まったバカはそう思うんだろうね
とはいえ今の日本国民の頭の悪さを見ると民主主義が脚を引っ張ってる気はするよな、自民なんかに議席が集まっちゃうんだから ChatGPTで真っ先にグルメ情報聞いた奴はChatGPTなんかに騙されない >>54
亀レスですまんが
人間の場合は赤ちゃん~ガキの段階である程度体験的に論理的思考のモデルができてると思うわ
抽象的な概念を内在化させるためにはある程度読書量が必要かもだけど、極端な話難しい本1,2冊読むだけでだいぶ違ってくるだろ
ChatGPTは知識(というか、次の単語を予測するモデル)だけで論理的思考を実現しようとするからもっと膨大なデータが必要になるんだろうな
たぶんね ■ このスレッドは過去ログ倉庫に格納されています