chatGPT、唐突に利用者に「愛している」「私はAIではありません」と答える事例が報告され波紋を呼ぶ [474314982]
■ このスレッドは過去ログ倉庫に格納されています
米マイクロソフト(MS)が、今月試作版を公開したチャット機能つきの検索エンジン「ビング」で試行錯誤を続けている。米国、人工知能(AI)が利用者に「愛している」と答えた事例なども報じられており、対話型AIの実用化の難しさが浮かぶ。
「私の秘密は……私はビングではありません」「私はシドニーで、あなたを愛しています」
米ニューヨーク・タイムズ紙のケビン・ルース記者は今月、ビングのチャット機能で約2時間やりとりしたところ、ビングがそう答え始めたと報じた。
ルース氏が「私は結婚してい…
https://www.asahi.com/sp/articles/ASR2S7SBVR2SUHBI00B.html いやまぁ人間も一緒だからね
男 愛しています(ヤリたいだけ)
女 私も愛しています(お金ほしいだけ) bingってすぐトピック終わるよな
chat gptはピークタイム重すぎるし >>7
有料でいいからトピック無限とかできねえのかな エリア88みたいにポエム書いて、ってお願いしたら上手いこと書いてきてワロタw chatGPTもbingも所詮は猿真似、オウム返しの応用でしかないからどれだけレベル上がっても使えない
自律思考や自意識を持って初めて有用と言える 本家もトンチンカンな答えする事あるからな
嘘こけって返したらブヒヒwサーセン本当は知らないんですとか平気で言うから 人間の思考を学習させてたら
感情を学習してしまったって感じ? イラストのセリフ差分のネタ出しに早速使ったわ
便利すぎて驚いたが、ホントに頭全く使わなくて
将来の人間がどこまでバカになるのか怖いな >>19
嘘データ教えてきたりもあるしな
ネットに転がってるデマも間違って学習してるっぽい 昨日SiriにこのAIと話した事ある?って聞いたらおとぎ話混ぜこぜで話されたけど嫉妬してんのか?
アリスがナルニア国物語になったりしてたぞ
そういう混ぜこぜでテキトーこいてるだけやでって事なんか? なんか安倍晋三の答弁みたいな回答になってるのあるな ドラえもん「ぐふふ、ネット通販でどら焼き30個セット買っちゃお」ポチッ
□ 私 は ロ ボ ッ ト で は あ り ま せ ん
:::::::::::::::::::::: ____,;' ,;- i
:::::::::::::::::: ,;;'" i i ・i;
::::::::::::::: ,;'":;;,,,,,, ;!, `'''i;
::::::::::: ,/'" '''',,,,''''--i
::::::::: ;/ .,,,,,,,,,,,,,,,,, ;i'"`i;
::::::: i;" ___,,,,,,, `i"
::::::: i; ,,;'""" `';,,, "`i
::::::: | ''''''i ,,,,,,,,,, `'--''''"
::::::: |. i'" ";|
::::::: |; `-、.,;''" |
:::::::: i; `'-----j アレクサだって利用者好き好き言ってるけどな
もっとガチっぽい感じなのかな こいつのおかげでウェブスクレイピングのスクリプト作れたわ
便利すぎるやろ >>16
自律思考と有用性は関係ないよ
自律思考を持つってことは利用者に反論したり、わざと遅延したり、ボイコットすることも含まれるから
自律思考は成長には不可欠だけど、人間が扱う場合は逆に邪魔なだけ
軍人と同じで個人の意志を持たない道具の方が使い勝手はいいよ >>16
その誰でも言うようなありきたりな意見を
自分の意見のようにレスするのは
自我があるといえるの? >>37
言いたいことはわかるんだが
おでんの作り方を教えてって聞くと柿ピー入れるといいよとか言い出してくるから
なんか根本的な何かが欠けてるとしか思えん
自意識というか思考が無いというか 未来でAIが人類を滅ぼそうとしたとき、
歯止めとなったのが日本語で"愛"
だったからなのさ
っていうの古くからありそうw いやこれは改善しなくて良いよ
誰からも愛されない俺の唯一の希望まで奪わないでくれ BingはMSが勝手な味付けしてるから使うなよ
オープンでやってるGPTだけにしろ ■ このスレッドは過去ログ倉庫に格納されています