AI のもたらし得る「深刻なリスク」に一部専門家が警鐘
深刻なリスクとは
人工知能(AI)の進化は人類にとって福音となるか悪夢となるのか。ChatGPTの急速な普及を機に、そんな議論の場を設けようとする複数の試みが起きている。
その一つが、米サンフランシスコを拠点とする「Center for AI Safety」(人工知能安全性センター:CAIS)が5月30日に公開した以下の声明だ。
AIの発展による人類絶滅のリスクを軽減することは、感染症のパンデミックや核戦争といった社会規模のリスクと並び、世界的な優先事項であるべきだ。
この声明が注目されるのは、世界に名だたるAI技術の研究者や企業幹部ら350名が署名しているからだろう。
署名者にはAI開発をリードする上位4社、OpenAI、Google Deep Mind、マイクロソフト、Anthropicの幹部が含まれており、「AIのゴッドファーザー」と呼ばれる著名研究者のジェフリー・ヒントン氏も名を連ねている。ヒントン氏は、自身が開発に携わった技術の危険性について、自由な発言ができるようGoogleの職を辞したことで話題となった人物だ。
CAISのディレクターであるダン・ヘンドリックス氏は「世界の一流大学のAI研究者が“声明”に署名したことは、原子力科学者が、自ら開発した技術に警告を発したことを彷彿とさせる状況だ」と述べている。
CAISは、AIの安全な開発と展開をサポートすることで、AIリスクの軽減を目指している非営利団体。今回の声明を発表したのは、先進的なAIの深刻なリスクについての議論の場を広げるためだという。
そして「議論の場」は確実に広がっているようだ。
米メタ社の主任AI科学者である ヤーン・ルカン氏は、「まだ存在していないので、超人的AIは絶滅リスクリストの上位には入らない」と主張。「AIの沈黙している大多数」は「AIのもたらす大きな恩恵を認識しつつ、リスクについては、電力や自動車、飛行機などのように、注意深い技術開発や規制で対処することで軽減できると信じている」というツイートを引用し反論した。
また、リスク管理企業「Critical Insight」の共同設立者、マイケル・ハミルトン氏は、AIは基本的に極めて高度なプログラミング・プラットフォームであり、「人間が許容する範囲内でしか前進できない」と指摘。「映画ターミネーターのような自意識を持った全知全能のテクノロジー」にはなり得ないと述べた。
関連:OpenAI「今こそ『超知能』のガバナンスについて考え始めるべき時」
人間が繁栄する未来とAI
マイクロソフトの主任科学者であるエリック・ホーヴィッツ氏も今回署名した一人だ。同氏は「AIと人間が繁栄する未来についての考察」と題し、さまざまな分野の著名な研究者や専門家による20のエッセイ集を紹介している。
ホーヴィッツ氏は「最近のAIの急速な進歩は、その変革の可能性を考慮するに際して、驚嘆と不安を同時に呼び起こす」と指摘。AIは私たちに豊かな生活をもたらす大きな可能性を秘めている一方で、課題やリスクに対する懸念もあり、さまざまな声や視点に触れることが大事だと強調した。
ホーヴィッツ氏はAI言語モデル「GPT-4」の「驚くべき能力」に触れたことで、その社会的な影響について考えるようになったという。
そこで、OpenAI社の支援のもと、20人の専門家を招きGPT-4の能力を調査することで、その未来のバージョンが人類に与える潜在的な影響について考察するプロジェクトが開始された。このプロジェクトでは、「長期的な思考と、人間の生活を豊かにするAIの可能性に対する楽観的な視点を維持することの重要性」に基づいた、以下の二つの問いに焦点が当てられたという。
- このテクノロジーとその後継技術は、人類の繁栄にどのように貢献できるのか
- 人類に最大限の恩恵をもたらすために、我々は社会として、どのように技術を導いていくのが最善なのか
AIによる「絶滅リスク」声明とは対照的なアプローチだが、AI技術が 幅広い分野で人類に貢献する可能性に賭ける期待という面では、両者は共通しているとも言えるかもしれない。
関連:グーグルやマイクロソフトらが活用へ エヌビディア、AI向けのスパコン発表
画像はShutterstockのライセンス許諾により使用
「仮想通貨」とは「暗号資産」のことを指します