
Googleだって、本当はやれば出来る子です。2021年のGoogle I/Oで発表した「LaMDA」(Language Model for Dialogue Applications)は、ChatGPTと同じようなAI言語モデル。発表以来着実に成長していて、昨年6月には開発に携わってきたエンジニアが「LaMDAは集合精神のようなもので、意識を獲得した」と言い出してしまったくらいです(彼はこの後解雇されちゃいました)。
でも、GoogleはOpenAIのように気軽にLaMDAを無料で公開したりはしません。大企業なので、何か問題が発生したときのダメージがOpenAIより大きいからだと思います。
Googleは1月16日、「Why we focus on AI (and to what end)」というタイトルの公式ブログを公開し、「われわれは、AIがまだ発展途上のテクノロジーであり、リスクをもたらすことを理解している。AIを開発し、使うには、これらのリスクに対処する必要がある。だからこそ、われわれは企業として、責任を持ってAIを追求しなければならないと考えている」と説明しました。つまり、拙速なことをしたら怖いことが分かってるから慎重にやってます、ということですね。
ChatGPTは感心するような返事をくれることが多いですが、間違えることも結構あります。
米CNETは先週、昨年11月から公開された一連の金融知識の解説記事を、AIで生成していたことを明らかにしました。そして今週、それらのAI生成記事の上部には「現在この記事の正確性について検証中です」との注釈が表示されています。
経済記事なら書けるだろうと任せたら、数字をしれっと間違えていたという恐ろしい話。
人間と違って堂々とまことしやかなことを書くので、間違い探しが大変です。全部裏を取るくらいなら、人間が書いた方が早そうです。
OpenAIはまだまだ小規模な新興企業なので、多少の失敗は大目に見てもらえています。ChatGPTは間違えもするよ、とあらかじめことわっているし。でも、Googleはそうはいきません。間違えられないし、著作権侵害やプライバシー侵害で訴えられたら困ります。
もしかしたらLaMDAの方がChatGPTよりすごいとしても、公開しなかった背景はそこにあるのかもしれません。いろいろな問題が発生しないようになるまではAI Test Kitchenでの限定公開で鍛えるつもりでした。
そういうつもりでしたが、MicrosoftがBingにChatGPTを統合するかもといううわさがあったりして、のんびりしていられない状況になってきました。
余談ですが、ChatGPTに「LaMDAを知っていますか?」と聞いたところ、OpenAIが開発したと答えました。
https://www.techno-edge.net/imgs/p/nXpkkgAYtm6KDYo1w7-AdQ2eGJAWlZSTkpGQ/4305.jpg
▲しれっと自分の手柄に
「LaMDAはGoogleが2021年に発表したのでは?」とたたみかけると、「申し訳ありませんが、私が学習した知識カットオフが2021年であるため、2021年以降にGoogleが発表したLaMDAに関する情報は知らないことがあります。」とのこと。うーん。
https://www.techno-edge.net/imgs/zoom/4310.jpg
▲うーん
https://www.techno-edge.net/article/2023/01/24/750.html