ChatGPT活用で増殖する「間違った主張を堂々とする素人」
https://business.nikkei.com/atcl/gen/19/00554/052500002/

ChatGPTは、インターネット上にある情報を学習して質問に回答しますが、インターネット上にはそもそも、誤情報や誤認識があふれています。
専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、必然的に誤った答えを生成してしまうのです。

この例として非常に興味深いお話を、弁理士の鈴木康介さんから聞きました。
鈴木さんはクライアントから委託を受けて特許や商標登録を国内・海外に出願する業務をしていますが、
あるときから、クライアントから法的に間違った主張を堂々とされることが増えたといいます。
そこでさらに詳しく聞いてみると、一部のクライアントたちは、ChatGPTの回答を基にそうした主張をしているようなのです。

そこで鈴木さんが、ChatGPTに「出願したい特許と似たものが、すでに存在するか」と質問をしたところ、ありもしない事例を挙げて、もっともらしく返してきたといいます。
いわば「ケースをでっち上げる」わけですね。しかも米国と日本の法律を混同したり、商標法と著作権法を混同したりすることもあるということでした。

勉強熱心な人でも、素人ではなかなか自分で法律を一から勉強することは時間的に難しいのでChatGPTに頼り、「プロの弁理士が間違っている」と考えてしまうわけです。
これは必ずしもChatGPTのせいではなく、人間の誤った思い込みが一因となっていますが、ChatGPTがインターネット上の誤った情報から誤った回答を生成し、
それを多くの人が信じてしまい、誤った理解が増強されて社会にまん延するわけです。

すでにChatGPTを仕事で活用している人たちは、間違った回答がなされることは承知の上で、間違いを自分で修正することを前提に使っています。
そういう人たちには、間違いを見つけ、修正することは「利用者の自己責任」だとする人もいます。