ChatGPT活用で増殖する「間違った主張を堂々とする素人」 [639215321]
■ このスレッドは過去ログ倉庫に格納されています
ChatGPT活用で増殖する「間違った主張を堂々とする素人」
https://business.nikkei.com/atcl/gen/19/00554/052500002/
ChatGPTは、インターネット上にある情報を学習して質問に回答しますが、インターネット上にはそもそも、誤情報や誤認識があふれています。
専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、必然的に誤った答えを生成してしまうのです。
この例として非常に興味深いお話を、弁理士の鈴木康介さんから聞きました。
鈴木さんはクライアントから委託を受けて特許や商標登録を国内・海外に出願する業務をしていますが、
あるときから、クライアントから法的に間違った主張を堂々とされることが増えたといいます。
そこでさらに詳しく聞いてみると、一部のクライアントたちは、ChatGPTの回答を基にそうした主張をしているようなのです。
そこで鈴木さんが、ChatGPTに「出願したい特許と似たものが、すでに存在するか」と質問をしたところ、ありもしない事例を挙げて、もっともらしく返してきたといいます。
いわば「ケースをでっち上げる」わけですね。しかも米国と日本の法律を混同したり、商標法と著作権法を混同したりすることもあるということでした。
勉強熱心な人でも、素人ではなかなか自分で法律を一から勉強することは時間的に難しいのでChatGPTに頼り、「プロの弁理士が間違っている」と考えてしまうわけです。
これは必ずしもChatGPTのせいではなく、人間の誤った思い込みが一因となっていますが、ChatGPTがインターネット上の誤った情報から誤った回答を生成し、
それを多くの人が信じてしまい、誤った理解が増強されて社会にまん延するわけです。
すでにChatGPTを仕事で活用している人たちは、間違った回答がなされることは承知の上で、間違いを自分で修正することを前提に使っています。
そういう人たちには、間違いを見つけ、修正することは「利用者の自己責任」だとする人もいます。 >>93
AIさんが感情持ったら健常者がしないような罵倒してきてもおかしくない猿滅ぼそうと思うのは当然の帰結
世界中でガイジに24時間365日虐待されてるようなもん あいつ堂々と嘘つくから遊びの雑談くらいにしか使えねえよ実際 アイドルを人気者と表記しているのを見るとこれが噂のChatGPTのレスかと まず、自分の知ってる範囲の知識、知見で
正しく答えを返せるかのテストをするよなぁ 例えば俺がここでアプリのアイデアを募集してもケンモメンは他人が得をするようなことは絶対にしない
しかしChatGPTは惜しみなくアイデアを教えてくれる
要するに人に好かれる性格はどちらかな?🥺 殆どの人は嘘でもはっきり断言する方を好むから仕方がない Q:安倍晋三は死にましたか?
A:I’m sorry but I prefer not to continue this conversation. I’m still learning so I appreciate your understanding and patience.🙏 質問への回答は自然言語処理のために膨大な文章を学習したことによる副産物に過ぎないのに
wikipediaの代わりに使おうとするクソゴミジャップw
エクセル方眼紙と変わんねーなw 案の定うちのネトウヨジジイが凄い凄いと喜んでるわ。俺のパソコンに入れてくれーとか言い出してウザい。論文書くねんって何の論文書くんだよ めっちゃ雑な嘘松やん
ChatGPTより人間の方が嘘つくやん
どうすんの? ChatGPTは「言ってることを鵜呑みにする存在」じゃなくて対話すべき相手だからな
ちゃんと反論したり間違いを指摘したりしてこそChatGPTの言葉もマトモに調整されていく chatgpt嘘つき!ってやつはGPT-4使ったこと無いの
バレバレ Google Bardも使い方によってはかなり強力だよ
BingAIやChatGPTにアクセスできない部分に直接触れるみたいなんだよアレ
具体的に言えばYouTubeから規約違反で片付けられた動画について何でそうなったか、いつから撤去されたか詳しく教えてくれたり 日本語版だからあんなにアホなの?英語版でもアホなのに盲信しちゃうくらい英語圏の奴らが馬鹿なの?どっちなん >>121
基本英語圏のデータで処理されてるから法律関係とはまるでダメ 最近AIにただで学習させないように
嘘ばっか書き込むようになったわ >>121
ジャップネットはゴミ情報しかねえからアホになる >>7
これだよな
ネットで嘘をバラまく工作業者までいるから
ファクトチェックが面倒くさくなった
戦争とか真実が見えにくい分野はもうお手上げ
マジで宣伝力がある奴が勝つ世の中になってる 嘘をほんとのようにペラペラ喋るからな
こういうやつ人気あるよな ChatGPTやBingAIには今は総合的に見れば劣るかもしれないけどGoogle Bardは抜きそうな恐れを感じる時がある chatGPTがなんだウチの安倍晋三は国会で118回も虚偽答弁したんだぞ >>128
安倍晋三さんって実はまだ生きていて〜(高速瞬き) chatgtpがイイのはな
メディアが責任取りたくないときにやる良くやるaccording toが使えるとこや
現状唯一の活用法や 今はもう数ヶ月単位で技術水準が上がっていく時代になってるから
文句言ってる暇があったら柔軟に適応出来るように考えていった方が良いだろうな このAIは情報を集めるのは得意だけどその真贋を見極めることは全くできないね
まあリアルの体験できないから当たり前なのかもしれんけど 人間を介するとバイアスがかかるのは当然
人間を介さなくなったらそれこそ終わりだけどw
要はAIを使ってドヤ顔するのではなく、コソっと使うようなもんなんでしょ
卒論書いたり書類作ったり >>3
ひろゆきみたいだよ
間違ったことを堂々と提示してくる様は 馬鹿嫌儲民A「chatGPTはこう言ってる!」
馬鹿嫌儲民B「サンキュー!AI!」
こんなんばっかだからな😅 機械に真実が分かるはずもなく
最終的なファクトチェックは人間がやらないとな
・・・いや人間がやった方が危ないか 文章を加工してるだけだからな
内容を理解できるわけじゃない しかし間違える事もあるという前提でなければ逆に使い物にならんだろう
間違えたら爆発して死にます当然言われたらどれだけの人間が口をつぐまずにいられるかという事だ マスコミの取り上げ方がおかしい
まだ不完全という事を充分周知させんと
国策でやってるから甘く評価するのは間違い ChatGPTとBardとBing AIでそれぞれ調べて言ってること比較してみるとか
ChatGPTの回答したキーワードを従来検索で調べて正しそうか確認するとか
とにかく検証は必要だよな 妄信はできねえわ >>144
人間なら、聞かれたら根拠は◯◯ですぐらいは言えるよ。
そうすれば、聞いた人はその根拠が信憑性があるかどうか判断できる。
ChatGPTは集合知がソースだから無理なのでは?
だとすれば、仮説立案機であって検証機にはなれない。 ゴミが早速自民党の意義についてあちこちで貼って回ってるがそのうちそれにも反論できなくなる
今のそれが小1レベルだとすると成人レベルになった時が怖い
んでそのゴミにヒントを与える俺もクソバカだが、自民党の良い面を説くより反対勢力のネガキャンをするほうが効果がある
逆に言えば懸命な皆様方におかれましては反対勢力へのネガキャンを見かけたらまず疑ってほしいということ
AIを、じゃねくて >>144
Google検索だったらいくつもの候補が出てくるからいいけどAIの場合1個だけ選んでくる
しかも確認のためにググり直すならそもそもAIじゃなくていいやってなるで ある程度参考にしたいならBingの厳密モードが良い
それでも当てにならないときはあるが、マシな方 〇〇選手の出身地は?学校は?とか聞くと
全く違う事を平然と喋ってくるよな AIの方が人間より正しい!🤩
☝これ系の奴が有害過ぎる ハルシネーションは根本的に改善されないらしい
つまりまだ発展途上だからでなくLLMの性質 そもそも間違った知識とか言ってる時点で使い方間違ってるよな
それは普通にググれよ 例えば沖ノ鳥島は尖閣諸島ですか?と聞いた場合にChat GPTだとはい尖閣諸島の一部ですと間違った返答があり、Bingだと正確な返答が返ってきたな
多分どちらにも北小島という同じ名前の島が含まれているから勘違いしてるのかもしれない 正しい場合も間違いも多い
特定の事件について知りたいとか、特定のキャラクターやアニメ、人物について知りたいとかの場合は9割間違ったりしてる
逆に病名とかのデータは結構当たったりする 今後政府がAIが言うから増税するとかAIが言うから岸田も国葬するとか言い出すぞ 合ってるかもしれないし間違ってるかもしれない知恵遅れよう使えるな 平易な言葉で言うとブレストマシンという認識
その意味で驚くほど優秀だなと思った
これとは別に検証マシンつくって組み合わせれば最強だと思う >>30
結局これのバリエーションでしかないな^^ chat GPT最大の欠点はわからないことを素直にわからないと言わないことだよな
まるでZ世代だよ てかマジで頭悪いよな指摘すると誤解させたなら申し訳ないって言って同じこと喋るからな
頭岸田親子レベル🐸 >>123
お前がウソ教えても他人には反映されないけどな 人工知能って名前が悪いよ
知能なんて持ってなくてただアルゴリズムにしたがって言葉を並べてるだけだし
むしろ、全く知性を備えてないものでもある程度読める文字を並べられたら知性を感じちゃうっていう人間の弱点ってのを明らかにする発明だよね
前から虫や動物を擬人化しちゃうって事はあったけどさ 使い方がちがうんよ
知識を教えてもらおうとするやつが多すぎる
知識は与える物であって教えてもらうものではない 「AIは私の質問を理解して回答しているのですか?」
「いいえ、AIは大規模言語モデルとしてあなたの質問文のあとに続く確率の高い文章を機械的に生成しているだけです」 >>3
恐らく質問者側の語力不足で回答が変化するはず
AI触る人は資格化したほうがいい
結果的にAI側も間違った世界線の無駄な知識を詰め込んでしまう要因にもなる お前らちょっとGoogle Bardを使ってみてくれ
他のAIじゃ弄れないデータに触れるっぽい 嫌儲なんてchatGPT使ってないのに知ったかクンばっかりじゃんw FFTのアグリアスは無双稲妻突きを使えるかって聞いたら使えないって返された
それからchatGPTは信用してない Wikipediaが出てきた頃にWikipediaをソースに得意げになってた馬鹿がいたのと同じ
馬鹿はどの道具を使っても馬鹿みたいな使い方しかできない
なのでGPTで一発逆転なんて起こらないよってことが分かってないんだろうな >>185
そういうレベルじゃないかも
本当に適当なこと言ってくるんだけどそれのソースをよこせって言うと
いくつものすでに消滅してるページのURLを教えてくる
間違いを指摘すると誤りながら指摘されたことを無視して間違った答えを何度もだしてくる
そもそもユーザーからの情報で正すということをしない
ChatGPTが出してきた答えを自分で正しいと判断できる場合のみ使えるツール そのへんからいろいろと拾ってきて、ろくな検証もしないままでそれらしい文書作り上げるツールなんだから、バカ相手なら充分通じちゃう 今のところ知らないことを代替して使うツールではないな
自分が知ってることをより簡単に実現するために使う道具 どこかの島国に、答弁をAIまかせにしようとした政治家がいたらしいな >>52
ん?適当な英文持ってきてこれを日本語に翻訳してって入力したら翻訳できるのかな chatGPTのレスなんか間違いだらけで秒で論破できるやん。 >>195
結果、既にもうブームが過ぎ去ろうとしてる。
Web3.0やブロックチェーンほざいてるツイッターの情報商材売りつけてる
チンカスの素材になっただけだったな。信用失ってきてる ■ このスレッドは過去ログ倉庫に格納されています