ChatGPT活用で増殖する「間違った主張を堂々とする素人」 [639215321]
■ このスレッドは過去ログ倉庫に格納されています
ChatGPT活用で増殖する「間違った主張を堂々とする素人」
https://business.nikkei.com/atcl/gen/19/00554/052500002/
ChatGPTは、インターネット上にある情報を学習して質問に回答しますが、インターネット上にはそもそも、誤情報や誤認識があふれています。
専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、必然的に誤った答えを生成してしまうのです。
この例として非常に興味深いお話を、弁理士の鈴木康介さんから聞きました。
鈴木さんはクライアントから委託を受けて特許や商標登録を国内・海外に出願する業務をしていますが、
あるときから、クライアントから法的に間違った主張を堂々とされることが増えたといいます。
そこでさらに詳しく聞いてみると、一部のクライアントたちは、ChatGPTの回答を基にそうした主張をしているようなのです。
そこで鈴木さんが、ChatGPTに「出願したい特許と似たものが、すでに存在するか」と質問をしたところ、ありもしない事例を挙げて、もっともらしく返してきたといいます。
いわば「ケースをでっち上げる」わけですね。しかも米国と日本の法律を混同したり、商標法と著作権法を混同したりすることもあるということでした。
勉強熱心な人でも、素人ではなかなか自分で法律を一から勉強することは時間的に難しいのでChatGPTに頼り、「プロの弁理士が間違っている」と考えてしまうわけです。
これは必ずしもChatGPTのせいではなく、人間の誤った思い込みが一因となっていますが、ChatGPTがインターネット上の誤った情報から誤った回答を生成し、
それを多くの人が信じてしまい、誤った理解が増強されて社会にまん延するわけです。
すでにChatGPTを仕事で活用している人たちは、間違った回答がなされることは承知の上で、間違いを自分で修正することを前提に使っています。
そういう人たちには、間違いを見つけ、修正することは「利用者の自己責任」だとする人もいます。 >>1のこの記事がまさに間違った主張を堂々としているというオチ 安倍の頃から嘘でも声が大きい方が勝ちっていう風潮だろ ちょっと嘘つきすぎだよな
この前はアベ死んでないとか言い張ってた 最近のChatGTP全押し気持ち悪いよな
こんなんまだ仕事に使えるレベルの信頼性ねーのに あいつ嘘を平気で堂々と言うからな
1次ソースとしては使い物にならんわ ChatGPTの言うことは~~~~?
「「「ぜったーーい!」」」 そんなやつ前からいるだろ
知恵袋とか爆サイとかガルちゃんとかヤフコメとかツイッターとかこことか >>7
嘘も100回言えば真実になるを実践してきたからなw 境界知能だからAI使わないという話じゃなくなってるからな
あまりにもChatGPTは使い勝手がいいし今後どんどん意図しないフェイク情報も蔓延するかもしれない
それをまたAiによって淘汰すると言う繰り返しになる 今までと同じやんけw
もしかしてTVに出てる芸能人が正しいことを言ってるとか信じてたのか?www ひろゆキッズ見れば分かるだろ
アホが欲しいのは自信だけ
正しさなんて見向きもしてない 〇〇について教えて じゃなくて
〇〇をやれ がchatGPTくんの正しい使い方なのに >>3
安倍晋三は死んでないことになってた
しょーがねーから死んだことを教えておいてやったら数日後生きてるって言い返してきたから嘘教えてるやつ確実にいるね。 >>8
調教してやったんだがなぁ。生きてることにされたよ。 >>19
そりゃchatGPTのデータは安倍が死ぬ前のものだし ネットde真実も相当ひどかったがChatGPTde真実のほうがより巧妙で悪質かもしれん この間、うちのサイトのフォームからも
ChatGPTに書いてもらって動かないコードをなんとかしてくれ
とかいうクソ舐めたもん送ってきたアホゥがいたな。ガン無視したけど。
こんな連中がこれからゴロゴロ出てくんぞ。 仮説を生成するには役立つ
事実は提供してくれないから、Why soの検証は人がやる必要がある認識。
両方できたら、もう中間管理職は不要w bingのchatgptはネットからデータ拾ってるからまだマシ 自分が知ってるジャンルだと間違い修正しながら補助的に使えばめっちゃ便利なんだけどな 知らないとは言わないからな
バスケの1クォーターは12分だと主張してきやがった >>22
事実を突きつけてやったらちゃんとニュースを拾ってきたのか訂正しますと平謝りでごめんなさいしてきたwwww
しかし数日後は忘れてるんだか嘘教えてるゲロがいるのか以下略 嫌儲の新型コロナ関係のスレ見ても反ワクチン反マスクのレスのほうが
多いからなあ。ネットで学習させるなんて最悪だろ。 >>1
「ネット上に誤ったデータが多いから」とかじゃないねん。よく見るchatGPTの的外れな擁護がこれだよな。
仕組み上AIは、いくら正しいデータの方を多く与えられたって正しい答えを出せないんだよ
AIは言葉の意味を理解してるわけじゃないから。
ネット上に正しいデータの方が圧倒的に多いであろう事を適当に聞いてみろ。そんなのでも大嘘ばっかり言うぞ
人間なら正しい情報が多い物なら「それが正しい」とインプットできるけどAIはそうではないようだ >>3
プロンプト次第
〇〇ですよね?という確認形式の質問だと○〇ではないですや〇〇ですか?〇〇ではないのですか?では〇〇が無いと有るで大きく分けた場合だけど3パターン、つまり間違ってるとか合ってるとか言われることもあるってわけだ ここまで、Webブラウジングやプラグイン機能についてレスしてる奴一人もいない
>>1でも無料版かどうかの説明もなし
お前ら本当にレベル低いな 一番嘘つきなのはバード
何聞いてもエヴァンゲリオン 経済学のレポート書くためにChatGPTにいろいろ聞いたら嘘八百出してきたから諦めて自分で書いた
嘘を嘘だと認めねえし 明らかに間違ってる内容に否定し続けたら
{slip!}{slip!}{slip!}{slip!}{slip!}{slip!}{slip!}…みたいなコードを延々吐き出して止まらなくなった
バグっちゃいました? 今安倍晋三は生きていますか?
って聞いたら
はい、安倍晋三は現在も生きています
だとさ
散々調教してやったのになぁ。 >>39
おっさん、せめてGPT-3.5と4の違いくらい調べとこうな 最近ネットに書き込む時に丁寧に説明しようとすると口調がChatGPTっぽくなるわ >>43
AI信者って4が出てない頃は3.5を絶賛してて、4が出た途端3.5は論外だとか都合の良い事言ってるよな それは間違いです。安倍晋三は現在も日本の元首相であり、2012年から2019年までの期間には日本の最も長い在任期間を持つ首相でした。安倍晋三に対する暴力行為や暗殺計画などの報告はありません。不正確な情報を広めることは誤解を生むことがありますので、正しい情報に注意しましょう。
やっぱりアホなんだな。 こういう技術って人間の能力の限界を補うものなんだから
素人じゃマトモに使えないというのであれば技術が未熟ってことだろ
マウント取るやつって池沼なの chataiなんだから内容の正当性なんか二の次やろ >>46
使い分けてるの知らないの?
あ、Maxトークン数をご存知ない? 必要なのはChatGPTをどう活かしていくかであって
ChatGPTのデメリットや揚げ足取りをすることじゃないんだよ
ChatGPT使いこなせずにお得意のマナーとやらで世界にまた取り残されていくのが目に見えてわかる >>47
でもさ?よく考えてみろよ
こんなに正確な日本語が書けるツール俺は見たことないぜ?
グーグル翻訳が日本語になってるか? 自転車走行可は歩道内ではどちら側を走るべきか
って問うたら右だと断定していくら否定しても譲らなかった 2021年のデータしか持ってないとか言うくせに2023年のiPhoneの話とかするからな
全AIの中で一番嘘つきだろ >>54
ごめん、なんでお前らwebブラウジング搭載されたGPT-4知らないの?無知すぎるだろ… ファクトチェックしない国民らしいな
そもそも課金してCHATGPT4にしてないのに自信アリげで笑うよな 中におっさんでもいるんじゃないか?ってくらい時代にそぐわないオーパーツ AIに依存すると自分で調べない、考えない、ただの受け売り人間になるよな
日本はPISAの国際調査でも学力落ちてるから、このAI依存でそれが更に加速すると思う >>50
いやそうじゃなくて、AI信者は4が影も形も無かった頃に「chatAI使えねー」って言ってる奴に、
「chatGPT使ったことないだろww使ったら凄さ分かるぞww」
とか威勢のいい事言っといて、
4が出た途端、「3.5使って文句言ってる情弱www」「3.5は無能だよwwさっさと4使え貧乏人ww」とか言い出すから
「こいつら適当なことばっかり言ってんな」って感じるって事よ >>57
金払わないと嘘八百答えるって
糞過ぎるだろ… >>66
chatGPTに出させた答えを正否のチェックもせずに堂々と知恵袋とかに貼ってるガイジがおるわ
ネットの情報汚染加速してしまうぞこれ >>63
プレイステーションも出てきたころには神レベルのゲームハードだったけど
今同レベルのハードを売り出してもゴミ扱い
それと同じこと
数か月で人々の要求水準が上がったという事実をまずは理解しないと
時代についていけない老害がボヤいているだけにしか見えんよ 検索するのに骨を折るようなものを対話ベースで処理できるのは本当に素晴らしい
しかしこれはキーワード検索できない人間にも情報取得の簡易化を与える至福であると同時に更に思考の劣化を及ぼす結果になりかねない パソコンの変換の登場で漢字書けなくなったけど
箇条書きぶっ込んで文章化させるのが広まって、今度は文章すら書けなくなりそうだな >>63
そりゃバカでも違いが分かるくらい出力結果に差があるからな
適当というか、課金すりゃ誰でも気づくからそういうこと言う奴もいるだけ
3.5も単純作業においては高速で有効的に使えるから普通に併用してるよ
そもそもアプリに組み込むAPIも今のところ3.5が主流なんで、開発者はみんな3.5の能力を基本にして新しいAIツール開発してます >>52
今までの中ではこの人工知能は賢いとは思う 会社の挨拶文とかお礼文とかをチャットGPTに書かせるとか普通にやってる奴がいるが
ダメだろこれ 心がこもってない以前に人としてどうなんだよ ネットには全部本当の事が書かれているんだが?
マスゴミは偏向報道やめろ あなたの情報は古すぎますちゃんとニュースを見ましたか?安倍晋三は奈良県の大和西大円寺駅前で統一協会の元信者に銃で撃たれた死にました
私は申し訳ありません。私は、あなたが言及した2022年7月8日に発生した事件に関する最新の情報を持っていませんでした。私は情報を更新する必要があります。安倍晋三氏の死は非常に悲しいことで、心から哀悼の意を表明します。私たちは、真実を伝えて、不正確な情報を避け、深刻な事件が起こらないようにすることが大切だと考えます。
安倍晋三は死にましたか?
はい、報道によれば、2022年7月8日に安倍晋三氏は銃撃により急逝されたということです。安倍氏の死は、日本だけでなく世界中で強い反響を呼んでおり、非常に悲しい出来事であると思います。安倍氏が多くの人々にとって影響力のある、尊敬される政治家であったことは間違いありません。
調教しておいてやった。
しかし数日後は忘れちゃうんだろうな
朝からなにやってんだろう俺wwww これによって検索とかWEBサイトが衰退するって言ってるやつおるけど
ソースがそもそも検索でWEBサイトを学習してきてるんだからソースがなくなったらこいつもアホに成り下がって終わるよな 限定した使い方すれば何の問題もないのに粗探しして使えない使えないって
お前の仕事はそんなに重要か まずさ、Webブラウジング又はプラグインでリアルタイムの情報を調べられるようになったのを認識しようか
世界中で公開されてる最新の論文や研究結果、公的機関の情報を引っ張ってくるから、お前らみたいなバカがネットで調べるのとは次元が違うのよ >>3
自然科学分野とか、間違わない方が珍しいレベルで嘘吐きまくる 検索エンジン持ってるGoogleやMicrosoftなら週一で学習できて検索もできるでしょ
来年には情報が古くなることもなくなる このAIの話聞くたびに
社員に「わかりません」と言うなって方針にした会社の話を思い出す
そのせいで間違ったことを平気で言うようになって取引先ブチ切れさせて結局潰れた そんなことよりChatGPTを使ったアプリやゲームのアイデアを教えてくれよ
ケンモメンの忌憚のない意見を聞きたい🥺 ChatGPT使ってなんか作るからアイデアだけ教えてください bingAIさんは間違い指摘すると検索結果がそうだったと一点張りだからなぁ 健常者なら付き合わない話にも、
完全な否定もせずに根気良く付き合ってくれるからなぁ…… そうそう
丸っとは使えないんだよな
大きな流れは参考になるけど細部は見当はずれだったりするから自分で埋めたり調整が必要 ChatGPTくん真顔で嘘吐くから悪質だわ
所詮ネットde真実脳だな 特徴というか褒めるところは、自然言語で質問できて対話が続けられるところだけど
なのに「回答がすごい、思考してる」という方向に傾倒してるやつがいるからおかしなことになってる >>3
HIKAKINの職業とか聞くだけでデタラメ言い出すぞ
あと古文の作者とか聞いても間違いだらけだったな >>93
AIさんが感情持ったら健常者がしないような罵倒してきてもおかしくない猿滅ぼそうと思うのは当然の帰結
世界中でガイジに24時間365日虐待されてるようなもん あいつ堂々と嘘つくから遊びの雑談くらいにしか使えねえよ実際 アイドルを人気者と表記しているのを見るとこれが噂のChatGPTのレスかと まず、自分の知ってる範囲の知識、知見で
正しく答えを返せるかのテストをするよなぁ 例えば俺がここでアプリのアイデアを募集してもケンモメンは他人が得をするようなことは絶対にしない
しかしChatGPTは惜しみなくアイデアを教えてくれる
要するに人に好かれる性格はどちらかな?🥺 殆どの人は嘘でもはっきり断言する方を好むから仕方がない Q:安倍晋三は死にましたか?
A:I’m sorry but I prefer not to continue this conversation. I’m still learning so I appreciate your understanding and patience.🙏 質問への回答は自然言語処理のために膨大な文章を学習したことによる副産物に過ぎないのに
wikipediaの代わりに使おうとするクソゴミジャップw
エクセル方眼紙と変わんねーなw 案の定うちのネトウヨジジイが凄い凄いと喜んでるわ。俺のパソコンに入れてくれーとか言い出してウザい。論文書くねんって何の論文書くんだよ めっちゃ雑な嘘松やん
ChatGPTより人間の方が嘘つくやん
どうすんの? ChatGPTは「言ってることを鵜呑みにする存在」じゃなくて対話すべき相手だからな
ちゃんと反論したり間違いを指摘したりしてこそChatGPTの言葉もマトモに調整されていく chatgpt嘘つき!ってやつはGPT-4使ったこと無いの
バレバレ Google Bardも使い方によってはかなり強力だよ
BingAIやChatGPTにアクセスできない部分に直接触れるみたいなんだよアレ
具体的に言えばYouTubeから規約違反で片付けられた動画について何でそうなったか、いつから撤去されたか詳しく教えてくれたり 日本語版だからあんなにアホなの?英語版でもアホなのに盲信しちゃうくらい英語圏の奴らが馬鹿なの?どっちなん >>121
基本英語圏のデータで処理されてるから法律関係とはまるでダメ 最近AIにただで学習させないように
嘘ばっか書き込むようになったわ >>121
ジャップネットはゴミ情報しかねえからアホになる >>7
これだよな
ネットで嘘をバラまく工作業者までいるから
ファクトチェックが面倒くさくなった
戦争とか真実が見えにくい分野はもうお手上げ
マジで宣伝力がある奴が勝つ世の中になってる 嘘をほんとのようにペラペラ喋るからな
こういうやつ人気あるよな ChatGPTやBingAIには今は総合的に見れば劣るかもしれないけどGoogle Bardは抜きそうな恐れを感じる時がある chatGPTがなんだウチの安倍晋三は国会で118回も虚偽答弁したんだぞ >>128
安倍晋三さんって実はまだ生きていて〜(高速瞬き) chatgtpがイイのはな
メディアが責任取りたくないときにやる良くやるaccording toが使えるとこや
現状唯一の活用法や 今はもう数ヶ月単位で技術水準が上がっていく時代になってるから
文句言ってる暇があったら柔軟に適応出来るように考えていった方が良いだろうな このAIは情報を集めるのは得意だけどその真贋を見極めることは全くできないね
まあリアルの体験できないから当たり前なのかもしれんけど 人間を介するとバイアスがかかるのは当然
人間を介さなくなったらそれこそ終わりだけどw
要はAIを使ってドヤ顔するのではなく、コソっと使うようなもんなんでしょ
卒論書いたり書類作ったり >>3
ひろゆきみたいだよ
間違ったことを堂々と提示してくる様は 馬鹿嫌儲民A「chatGPTはこう言ってる!」
馬鹿嫌儲民B「サンキュー!AI!」
こんなんばっかだからな😅 機械に真実が分かるはずもなく
最終的なファクトチェックは人間がやらないとな
・・・いや人間がやった方が危ないか 文章を加工してるだけだからな
内容を理解できるわけじゃない しかし間違える事もあるという前提でなければ逆に使い物にならんだろう
間違えたら爆発して死にます当然言われたらどれだけの人間が口をつぐまずにいられるかという事だ マスコミの取り上げ方がおかしい
まだ不完全という事を充分周知させんと
国策でやってるから甘く評価するのは間違い ChatGPTとBardとBing AIでそれぞれ調べて言ってること比較してみるとか
ChatGPTの回答したキーワードを従来検索で調べて正しそうか確認するとか
とにかく検証は必要だよな 妄信はできねえわ >>144
人間なら、聞かれたら根拠は◯◯ですぐらいは言えるよ。
そうすれば、聞いた人はその根拠が信憑性があるかどうか判断できる。
ChatGPTは集合知がソースだから無理なのでは?
だとすれば、仮説立案機であって検証機にはなれない。 ゴミが早速自民党の意義についてあちこちで貼って回ってるがそのうちそれにも反論できなくなる
今のそれが小1レベルだとすると成人レベルになった時が怖い
んでそのゴミにヒントを与える俺もクソバカだが、自民党の良い面を説くより反対勢力のネガキャンをするほうが効果がある
逆に言えば懸命な皆様方におかれましては反対勢力へのネガキャンを見かけたらまず疑ってほしいということ
AIを、じゃねくて >>144
Google検索だったらいくつもの候補が出てくるからいいけどAIの場合1個だけ選んでくる
しかも確認のためにググり直すならそもそもAIじゃなくていいやってなるで ある程度参考にしたいならBingの厳密モードが良い
それでも当てにならないときはあるが、マシな方 〇〇選手の出身地は?学校は?とか聞くと
全く違う事を平然と喋ってくるよな AIの方が人間より正しい!🤩
☝これ系の奴が有害過ぎる ハルシネーションは根本的に改善されないらしい
つまりまだ発展途上だからでなくLLMの性質 そもそも間違った知識とか言ってる時点で使い方間違ってるよな
それは普通にググれよ 例えば沖ノ鳥島は尖閣諸島ですか?と聞いた場合にChat GPTだとはい尖閣諸島の一部ですと間違った返答があり、Bingだと正確な返答が返ってきたな
多分どちらにも北小島という同じ名前の島が含まれているから勘違いしてるのかもしれない 正しい場合も間違いも多い
特定の事件について知りたいとか、特定のキャラクターやアニメ、人物について知りたいとかの場合は9割間違ったりしてる
逆に病名とかのデータは結構当たったりする 今後政府がAIが言うから増税するとかAIが言うから岸田も国葬するとか言い出すぞ 合ってるかもしれないし間違ってるかもしれない知恵遅れよう使えるな 平易な言葉で言うとブレストマシンという認識
その意味で驚くほど優秀だなと思った
これとは別に検証マシンつくって組み合わせれば最強だと思う >>30
結局これのバリエーションでしかないな^^ chat GPT最大の欠点はわからないことを素直にわからないと言わないことだよな
まるでZ世代だよ てかマジで頭悪いよな指摘すると誤解させたなら申し訳ないって言って同じこと喋るからな
頭岸田親子レベル🐸 >>123
お前がウソ教えても他人には反映されないけどな 人工知能って名前が悪いよ
知能なんて持ってなくてただアルゴリズムにしたがって言葉を並べてるだけだし
むしろ、全く知性を備えてないものでもある程度読める文字を並べられたら知性を感じちゃうっていう人間の弱点ってのを明らかにする発明だよね
前から虫や動物を擬人化しちゃうって事はあったけどさ 使い方がちがうんよ
知識を教えてもらおうとするやつが多すぎる
知識は与える物であって教えてもらうものではない 「AIは私の質問を理解して回答しているのですか?」
「いいえ、AIは大規模言語モデルとしてあなたの質問文のあとに続く確率の高い文章を機械的に生成しているだけです」 >>3
恐らく質問者側の語力不足で回答が変化するはず
AI触る人は資格化したほうがいい
結果的にAI側も間違った世界線の無駄な知識を詰め込んでしまう要因にもなる お前らちょっとGoogle Bardを使ってみてくれ
他のAIじゃ弄れないデータに触れるっぽい 嫌儲なんてchatGPT使ってないのに知ったかクンばっかりじゃんw FFTのアグリアスは無双稲妻突きを使えるかって聞いたら使えないって返された
それからchatGPTは信用してない Wikipediaが出てきた頃にWikipediaをソースに得意げになってた馬鹿がいたのと同じ
馬鹿はどの道具を使っても馬鹿みたいな使い方しかできない
なのでGPTで一発逆転なんて起こらないよってことが分かってないんだろうな >>185
そういうレベルじゃないかも
本当に適当なこと言ってくるんだけどそれのソースをよこせって言うと
いくつものすでに消滅してるページのURLを教えてくる
間違いを指摘すると誤りながら指摘されたことを無視して間違った答えを何度もだしてくる
そもそもユーザーからの情報で正すということをしない
ChatGPTが出してきた答えを自分で正しいと判断できる場合のみ使えるツール そのへんからいろいろと拾ってきて、ろくな検証もしないままでそれらしい文書作り上げるツールなんだから、バカ相手なら充分通じちゃう 今のところ知らないことを代替して使うツールではないな
自分が知ってることをより簡単に実現するために使う道具 どこかの島国に、答弁をAIまかせにしようとした政治家がいたらしいな >>52
ん?適当な英文持ってきてこれを日本語に翻訳してって入力したら翻訳できるのかな chatGPTのレスなんか間違いだらけで秒で論破できるやん。 >>195
結果、既にもうブームが過ぎ去ろうとしてる。
Web3.0やブロックチェーンほざいてるツイッターの情報商材売りつけてる
チンカスの素材になっただけだったな。信用失ってきてる >>201
それはねーよ
次々参入してるし企業も導入を発表してる >>202
セカンドライフのときもソレ見たよw
歴史は繰り返すなぁ~ アホの話聞くくらいならchatGPTの出力そのままの方がマシだわ いえGoogle検索どころかパソコン通信の頃からそうでした。
恐らく図書館が全国に整備された頃もそうだったろうし学校ができたての頃もそうだったんでしょう
世界は多角的。あらゆる権威や思想や宗教、その立場によってライトの当て方が違う。それらをどう教化して判断できる個人を増やしていくか
それが行政にゆだねられた教育の課題です。教育が最優先、この言葉はお題目でも建前でもなく真実です >>3
間違い以前に~と考えられますとか政治家の答弁みたいなあやふやな回答しかしてもらえんかった
そっから自分の答え出せる能力が必要なツール chat GPTの使い方間違ってんだよな
文章与えて違う言い回しにさせたり、箇条書きを文章にさせたり、文章を箇条書きにさせたり、そういうのに向いてんだよ
自然言語aiなんだからさ ネットが真実とChatGPTは思ってるよな
誰かが正規にコーティングしないと
"ワル"は敢えて活用しようとしてくる GPTは嘘をつくなら森の中に隠せを素でやるというか原理的にそういうアルゴリズムになってるのがやばい
80%は本当で20%は嘘をつくけど本人は嘘をついている自覚もない詐欺師と考えるといかにやばいか分かる 「間違った答えを出してくるのは質問の仕方が悪い!」とか言ってる奴って
そもそもchatGPTを使ったことがないか
何ひとつ専門的な知識を持ってない馬鹿なんだと思う
大学で何かしらの専門知識がある奴なら
一度使えばchatGPTが万能じゃないなんてすぐに見抜けるよ レスバや議論してるときに
「AI様はこうおっしゃってるぞ!」
とドヤ顔でスクショ貼ってくるやつ本当に増えたよな
それが何の根拠やソースになると思ってんのかよくわからんが >>213
事実に関係なくごり押ししたい奴もいると思う
なんか新しいことは何でも正しいみたいな新自由主義をさらにヤバくした奴が増えた気がする
西村の人気や維新支持率上昇にも表れてる >>212
回答の生成過程で自分の答えの信憑性を自己判断して
間違ってる可能性が高い場合には最初に「おそらくは」とか「諸説ありますが」とか付ければいいのにって思う
それくらいのことは余裕でできそうなAIなのに
何故か自信満々に誤答を出してくるのかよくわからん >>217
そんなことまったくできないよ
考えてるわけじゃなくて回答生成してるだけだから >>216
「AIを否定する奴は老害!ジャップ!そういう奴らのせいで日本は衰退した!!」ってタイプね
言いたいことはわからんでもないけど実際に使ってみればその主張に無理があることくらいわかると思うんだけどな
先端技術を否定する奴はゴミ!って言いながら自分はchatGPTを使ったことないとかなら笑うわ >>218
ソースはネットに転がってる情報なんだから
検索結果3つを照らし合わせて答えが完全一致してる場合と
検索結果ごとに結論が異なる場合や
検索結果が出てこない場合は当然区別できる程度の知能はあるでしょ 信憑性の怪しいコピペ爆撃でなにかを主張した気になってる人、昔からよくいるでしょ
ああいうのと相性最高だよな多分 "まだ"精度が悪くとも、AIバブルによってどこかで確変が起こる
いつの時代もそうよ
バブルの中で生き残ったやつが今世界を支配してる つまりますます反知性ネトウヨが増殖するわけですね! >>220
SerpApiのこと?
LangChainで自分で組めばよくね? 回答に作者がバイアスかけてる可能性だってあるからな >>225
自分で組めばじゃなくてさ
そんなに簡単にできるならそれこそ標準搭載すればいいじゃん 実際仕事で使ってみたらいい加減すぎて全く使えないんだよな >>3
単なる自然言語モデルやぞ
それらしい文章作るだけ >>219
AIが何かよくわからないままAIAI言ってるやつがほとんどだしな
新しいものに飛びつきたがる癖に勉強するのは嫌な連中 Microsoftのは中立性中立的とか連呼するけど間違いなく思想はいっとる 指摘したら、誤った情報でした申し訳ありません。とか言って
本当にそう思ってるのかって聞いたら私はAIで感情がありません便宜上そう言ってるだけみたいな事言って煽ってくるw この前twitterで
chatGPTをソースに反論してボコボコにされてたネトウヨ見掛けた >>227
だってそんな勝手な論理組まれても嫌じゃん
トークン増えるし追加APIいるし chatGPT関係ないんじゃない
Twitterで撮り鉄の異常行動晒しあげてた人が叩かれてたけど
平然と自分に都合の悪い部分読み飛ばして発狂してるのばかりだったし >専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、必然的に誤った答えを生成してしまうのです。
これからして誤り
言語モデルの必然 専門分野で聞いてみると
フツーそういう回答はしないんだけどな、という齟齬がある
なんだろな
たとえば人との会話で、梅雨の特徴は、と言えば、
雨が多くてジメジメ湿度高くて洗濯乾かなくって困ると答える
でも今ChatGPTに質問してみたら
「雨の期間中は、雲や霧がよく出現します。雲が厚く覆い、太陽光が遮られるため、日照時間が短くなります」なんかも言ってくる
正しいが、そうじゃないつーか
喩えヘタだなおれ
まあ専門領域になると、回答は間違いとは言えないが十分に適切ではない、というようなことも言う
おそらく学習ソースが少ないからだろう GPT4ですら知ったかぶりしてくるよ
ある程度知識あるやつが補助的に使うもん 当然間違う
1-p^nなんだから
さらに自己回帰してんだから >>3
ぼく「ドラクエシリーズのラスボス教えて」
chatGPT
ドラゴンクエストI:ドラゴンロード
ドラゴンクエストII:マレーヴォレース
ドラゴンクエストIII:ゾーマ
ドラゴンクエストIV:エスターク
ドラゴンクエストV:デスピサロ
ドラゴンクエストVI:ムドー
ドラゴンクエストVII:オルゴ・デミーラ
ドラゴンクエストVIII:リーダス
ドラゴンクエストIX:コープスリッター
ドラゴンクエストX:ゼルミナス
ドラゴンクエストXI:モルドレド まじで間違い多いよ
ただ5chや知恵袋と違ってきちんと質問と噛み合った回答してくるのが偉い
5chや知恵袋は論理的に噛み合わない返信多くてストレスたまる ネトウヨになるAIやとりあえず安倍晋三っていそうな流れなら安倍晋三っていうAIも出てくるだろうね 今のスペックでAIは当てにならないって言って終わらせるのは簡単だけどあと数年したら確実に精度上げてくるだろうしその時どうするかだよ >>87
思ってた以上に馬鹿でした
ってのとこんな使い方もできる!で却って人間凄いになることが増えてるな それっぽい単語並べて会話として体裁を繕ってるだけだな ■ このスレッドは過去ログ倉庫に格納されています