ハルシネーションを起こしにくいAI第1位は意外にもGoogleのgemini1.5proだった件 [479216124]
■ このスレッドは過去ログ倉庫に格納されています
噓をつかない生成AIはこれだ 50モデル比較を3分解説:日本経済新聞
://www.nikkei.com/article/DGXZQODL1858X0Y4A910C2000000/
https://5ch.net
なるほどね
gemini 1.5 pro
GPT4o
claude3.5
command r+
メタのやつ
の順でした
まさか生成AIを仕事で使ってないど底辺モメンはいないよな?
>>7 マジレスするとtransformerの仕様やね
学習データに基づいて、インプットに対する蓋然性が高い回答を吐き出すわけだけど、この過程で実際には学習データにはないような内容も生成してしまうことを排除できない
>>10 いや、あれはハルシネーションを起こしやすいよ
o1 previewは論理的に思考するように誘導して作られたモデルだけど、逆に自己生成のロジックに頼りやすくなるから、逆説的にハルシネーションを起こしやすい
geminiは検索データがバックにあるからか、確かにハルシネーション起こしにくい気がする
なんだよハルシネーションって
かぶれてんじゃねえよボゲが
gemini 1.5 pro、なんか頑固で無理だよこいつ
Geminiすぐエラー吐くゴミになったな
3回くらい質問すると止まる
こいつにとって都合の悪い質問すると急にロボットっぽく回答拒否するから嫌いやわ
知ったかでも大抵の事は拒否せず答えてくれるChatGPTのが話し相手に適してる
>>17 会話するためじゃなくて業務で決まった受け答えさせるにはそのくらいでいいんじゃね
9.9と9.11のどちらが大きい数字か聞いたら、最近はちゃんと答えてくれるね
生成aiは学習データを元に入力された文章に対して最も確率が高い「続き」を生成してるだけだぞ
>>14 何回もプロンプト読んで実行してるんだから別のLLMが検証していてもおかしくない
だからハルネーションを一番起こしにくい可能性もある
>>26 実際ハルシネーション起こしてるけど
調べ物はperplexityとかいうのしか使ってないわ
使った中では一番まともだった
大体のAIに落語の演目について訊ねると、どっから持ってきたんだって感じの
詳細な嘘あらすじ教えてくれるから面白いぞ
>>22 うーん
botならそれでいいが、AIってそんなレベルじゃないからなあ
わかりませんって返信したら人でも死ぬのか?ってくらいに適当に返すよな
要はフォールス・ポジティブなのか?ハルシネーションって
Genemiは正確性を重視するようになった分ウザキャラになった
>>32 まあ近いね
オーバーフィッティングなんかにも近いと思う
学習データで想定されていないインプットに対する生成で起きやすい
わからないならわからないって言って
という命令を筆頭に与えると
現状のAIはたいていのことがわからない
ハルキネーション?ノーベル賞候補止まり現象のこと?
無料で公開されてるgeminiは同じく無料で公開されてるCopilotより嘘つきまくってたけど
最近なんか改善した気もするな
ハルヒネーションってあれだろ
同じ話を何回も繰り返すやつ
■ このスレッドは過去ログ倉庫に格納されています