>>670
なぜChatGPTは「嘘」をつくのか、その仕組みを掘り下げる

北郷 達郎 日経クロステック/日経NETWORK
2023.07.12
有料会員限定
全1822文字
 「ChatGPT」に代表される大規模言語モデル(LLM)に基づく生成AI(人工知能)は誤った情報をまことしやかに提示し、幻覚(ハルシネーション)を見せることがある。LLMに基づく生成AIは「嘘をつく」と言われるゆえんであり、「検証が必須」とされる理由でもある。なぜ幻覚を見せるのか。それはLLMの仕組みを理解するとよく分かる。