OpenAIは、将来的にはAI開発を監視する国際規制機関が必要になると提唱した。10年以内にAIはAIGを超えるsuperintelligence(超知能)になるという。ただし、現行のプロジェクトを規制すべきではないとも。

 米OpenAIは5月22日(現地時間)、「スーパーインテリジェンスのガバナンス」というタイトルの公式ブログを公開した。サム・アルトマンCEO、グレッグ・ブロックマン社長、チーフサイエンティストのイリヤ・サツケバー氏の連名で、AIの国際規制機関の立ち上げを提案している。

 このブログでは、AIが10年以内に専門家のスキルレベルを超え、高度な生産活動を行う可能性について述べている。そうした将来のAIをAGI(Artificial General Intelligence;汎用人工知能)を超えるsuperintelligence(超知能)と呼び、人類が過去に対処してきたこれまでの技術よりも強力で、潜在的なメリットとリスクが大きいと語る。

 そのため、超知能の開発には調整、国際的な監視、安全にするための技術的な能力が必要だとしている。

https://www.itmedia.co.jp/news/spv/2305/23/news086.html