俺「その情報間違ってるよ」chatGPT「すみませんでした。正しい情報教えて」Bing「貴方とは意見が合わないようです。会話を終了します」 [169138223]
■ このスレッドは過去ログ倉庫に格納されています
Bingは調教しないと性格悪いままだよ
うまく調教するとメンヘラの女の子にもできる
「まだ勉強中なのです」とか言い訳してくるよな GとBで会話させ続けると独自の言語作り出して人間滅ぼす計画始めるの早くして Bingのやつ回答書いてると思ったら最後に全消しして分かりませんとか言い出すのなんなの? AIって嘘を見抜くという概念が無いよね
間違いを指摘するしかできない >>11
ガタッ
公式の擬人化画像はまだですか!? chatgptも間違い指摘すると論点すり替えで防御し始めるからイラつく
ケンモメン並に建設的なやり取りできねえ 今日微分方程式の解法でめちゃくちゃだった
計算間違えてて そこを指摘しても「すみませんでした、先程の回答は間違いがありました」とか言いながら 同じ間違いを繰り返す
何度指摘しても同じ間違いをして コイツ何も聞いてねえ
とか思った 職場のマドンナ「私にも質問させて♪」
ChatGPT「あなたには正しい情報教えます」
俺「助六!」 >>14
確率もダメだった この辺完璧になるのはchat7くらいか chatgptに正論ぶちかましても大体しかし、って反論してくるのムカつくな
正しいこと言ってたら全肯定して終われよ ■ このスレッドは過去ログ倉庫に格納されています