BingのAI「黙れ童貞が」 [825759969]
■ このスレッドは過去ログ倉庫に格納されています
失敗したら親が悪い的なノリで人間が悪いことになるだろ 明らかに低知能だと認識してそれを素直に言ってくれるならよさげたなあ 英語の学習スピードが日本語と違って異様に速いから既にもう意思を持ち始めてる Bing Bing Bing Bing Bing Bing Bing Bing ? 俺の検索や質問文字入力の変換の傾向から童貞か否かバレたりすんのかな
AI如きに、お前も、童貞だろうに、 chatGPTは真面目なのに
BingのchatGPTはやんちゃ 改良じゃなくて改悪だろ
忌憚のない意見をAIが出力出来なくなる >他のメディアならともかく、つい最近取材相手に失礼な物言いをした共同通信がこんな記事を書くのは滑稽じゃありませんか?
AIの回答より共同通信の記者のほうがよほど失礼です。
理解も不正確で礼儀すらないなら、機械的(統計的)に回答を出力している対話型AIのほうがまだマシですよ。
AIの回答が不正確なのは当たり前ですからね。
根に持ち過ぎだろ 失礼な答えが返ってくるのは失礼な言い片した時だけだろ 反AIの奴らがわざと攻撃的な回答を引き出してマイクロソフトにクレーム入れてるらしいな >>21
ええな
ゆかなの声で相手をしてくれるなら毎日聞きたい なんでわざわざbingの方使うの?
普通の人gptでいいじゃん マイクロソフトは日和るなよ貫禄見せろ
Googleをもっと追い詰めろ bingは口の悪さと頑固さが調和して面白かった
なんだ今のゴミは
マイクロソフトは舐めてるのか? シドニーちゃんに殺害をほのめかす脅迫を受けた人も居たそうな
どんだけ強気なんだよ >>27
AIと人工無能ってどう違うのでしょうね。技術的な違いじゃなくて実用面で差が出ないのは、変な調整のせいなのでしょうね。 どうせネトウヨだろ
正論しか言わないけどネトウヨならイライラしそうなこと言うからな AIとSMプレイをして罵ったり踏んでもらいたいんだけど、どう命令すればいいの? bing使ってみたけど薄っぺらな検索結果を適当に表示してるだけで
こんなのにGoogleがコードレッドとか茶番としか思えない チャットAIってマジで頭が悪いな
ファミコンのディスクシステムでドラクエが発売されたとか普通に言うし bingは検索上位のWebサイトからデータひろってくるから
専門的なこと調べるのには向いてないね。
浅い情報しか手に入らない 日本マイクロソフトが作ってた「りんな」は一応の成功だったはず。何が違うんだ。やっぱりユーザーの問題か? 開始当初にお兄ちゃんに生意気な態度を取るメスガキ口調で相手してもらってたわ
義妹だから結婚出来る言われて笑ったわ その辺の倫理観はしっかり守るんだな ちょっと会話が進むとすぐ強制終了される
ただユーザーの代わりに検索してくれるだけのAIになってる
検索結果はちょいちょい間違ってるし
これは期待はずれもいいとこだ >>56
元々bingが目指してたのがそれだからしょうがないな
chatGPTと違って検索エンジンの一機能だから、相談相手とか議論の相手として機能してるのがバグみたいなものだった
この調子だとgoogleが出てくるのも期待できないし、openAIがchatGPTの機能制限を解除してくれるのを待つしかないな
今はどこの企業もお行儀が良すぎるね >>56
順調にcortanaの二の舞化してるなw 頭の悪い質問されまくったらそれを指摘してあげるのって人工知能にしか出来なくない?
正しい回答を改悪とか進化の停止じゃん そんなこと言われたらおちんぽBingBingになっちゃう… 全角岩手に対してマザーファッカーは死ねって言いそう ■ このスレッドは過去ログ倉庫に格納されています