AIが専門家の域を超える時代
ChatGPTの開発企業OpenAIは22日、公式ブログで「超知能のガバナンス」と題し、現在の人工知能(AI)よりもはるかに高度な能力を有するAIの到来に備え、超知能を正しく理解し、対策を講じる用意を開始すべきだと論じた。
Initial ideas for governance of superintelligence, including forming an international oversight organization for future AI systems much more capable than any today: https://t.co/9hJ9n2BZo7
— OpenAI (@OpenAI) May 22, 2023
最高経営責任者であるサム・アルトマン氏と最高技術責任者のグレッグ・ブロックマン氏、主席科学者のイリヤ・サツキーバー氏が共同執筆したブログは、今後10年でAI技術が飛躍的に進化するという前提に基づいて論を進めている。
現在の状況を考慮すると、今後10年以内にほとんどの領域でAIが専門家のスキルレベルを超え、現在の大企業に匹敵する生産活動を行うようになることが想定される。
ブログでは、このような進化したAIを「スーパーインテリジェンス(超知能)」と呼んでいる。超知能は人類が過去に競合したいかなるテクノロジーよりも影響力が大きく、「劇的に豊かな未来」をもたらす可能性があるが、大きなリスクを伴うものであるため、「特別な扱いと調整が不可欠だ」と主張した。
また人工知能(AI)などの技術の急速な進歩によって、人間の知性や能力をも超える未来の時代を指す言葉として「シンギュラリティ(技術的特異点)」と呼ばれることもあるが、自己進化や自己修復能力を有する場合、金融や軍事、医療など重要インフラのシステム面における安全保障上のリスクも指摘される。
出発点としての提案
OpenAIの幹部は、人類と超知能との共存を成功させるために、AI技術の開発過程で留意すべき点について、以下の三つの提案を行った。
- 主要な開発者や企業間における調整強化
- 国際原子力機関(IAEA)のような国際的な管轄機関の設置
- 超知能の安全性確保のための技術的能力
超知能開発の調整方法としては、世界の主要政府が合同プロジェクトを立ち上げ、既存の開発プロジェクトをその一部とすることも考えられるという。また、開発の最前線におけるAI能力の成長速度の制限に、開発企業が合意するというアプローチも提案された。
ブログでは、超知能の活用をリスクも高いがメリットも大きい原子力の利用と比較している。その観点から、システムの検査や監査請求、安全基準テストやセキュリティレベルの制限などを監督する、IAEAのような国際機関の設置を提案した。
超知能の安全な利用を制御するための技術的能力については、今後の研究課題であり、OpenAIをはじめとする多くの研究者が力を入れて取り組んでいるとのことだ。
規制について
OpenAIは、AIモデルの能力に見合った開発のライセンス制や監査といった規制の導入を提唱している。一定の能力に関して閾値以下のモデルを開発する企業やプロジェクトについては、負担の大きい規制の対象としないことの重要性を訴えた。
アルトマン氏らが懸念しているAIシステムは、これまでに創造されたテクノロジーをはるかに上回る能力を持つもので、懸念に値しない水準の技術に同様の基準を適用することは、開発に水を差す行為だと忠告した。
アルトマン氏は、16日に開催された米上院司法委員会の公聴会で、政府によるAIの規制整備の重要性と能力に応じた規制について、同様の発言を行ったところだ。
関連:OpenAIアルトマンCEO、米上院公聴会でAIに対する規制整備を要請
OpenAIが開発を継続する理由
超知能システムのガバナンスと、その展開に関する民主的な意思決定の仕組みをどのように構築していくかは、非常に難しい課題で、リスクも大きいことを、OpenAIは強く認識している。
それでもAI技術の構築を続けるのには、二つの根本的な理由があるという。
まず第一に、「現在想像できるより、はるかに優れた世界につながると考えている」と主張。すでに教育や創造的な仕事、個人の生産性といった面で、その初期の例を見ることができると述べた。
第二に、超知能の創造を阻止することは、困難なだけではなくリスクが高いためだと指摘した。超知能開発のコストは下がる一方で、開発主体は急速に増加している。そして、それが時代の「技術的な方向性」の本質部分であるため、超知能の誕生を阻止するには、「世界的規模の監視体制」が必要になるが、それすらもうまくいく保証がないと強調している。
だからこそ、正しく物事を捉えなくてはならない。