イーロン・マスクやAI研究者、次世代AIモデル開発の一時停止を要請 規制や監視等ガバナンスモデル構築を優先

AIモデル開発が人類にもたらすリスク

米OpenAIが3月にリリースしたAI言語モデル「GPT-4」よりも強力な次世代AIシステムの開発について、全ての研究機関に6カ月間の休止を求めるオンライン署名運動が29日に立ち上がった。

非営利団体Future of Life Instituteが公開したオープンレターは、AIモデルの発展が人間社会にもたらすリスクを考慮して、監視や規制体制を構築しつつ、併せてリスクに対処するガバナンスシステムを設置すべきと主張。モラトリアム(一時停止)が迅速に実施できない場合は、「政府が介入するべき」とも指摘している。

この主張には、テスラ社創設者イーロン・マスク氏やアップル共同創業者スティーブ・ウォズニアック氏を含む、著名な技術者、学者、研究者等1,300人以上の署名が集まっている(執筆時点)。

Future of Life Instituteは、人間と同等の知能を持つAIは、社会や人類に深刻なリスクをもたらす可能性があると指摘。一方で、計画性や管理体制が欠如したままAI開発が行われているため、「作成者でさえ理解、予測、信頼できない」ことが起こりかねない現状に危機感を示す。

こうした見解は、GPT-4を開発した米OpenAI自身が認めていることだ。同社は2月24日の書簡で、次世代AI言語モデルの開発を開始する前に独立したレビューを受け、開発の成長率を制限する必要性について言及していた。

オープンレターは「今がその時」だとして、予測不可能なリスクが高まるAIの開発競争を一旦停止し、AIラボと独立した専門家たちが協力して、より高度なAIモデル開発に対する安全性プロトコルを監視するべきと主張する。

これらのプロトコルは、それを遵守するシステムが合理的な疑いを超えて安全であることを保証するものでなければならない。

並行して、AI開発者と政策立案者が共同でAIガバナンスシステムの開発を急ぐべきだとオープンレターは続ける。具体的には、AIに特化した規制当局、本物と合成を区別しモデルの流出を追跡する認証システム、AIが引き起こす経済的・政治的混乱に対処するリソースなどが想定されている。

こうした環境整備により、AIの研究開発が「より正確で安全、解釈可能、透明、堅牢、連携、信頼、忠実なもの」にできるとFuture of Life Instituteは述べている。

関連:米OpenAI、ChatGPTプラグイン対応開始へ インターネットアクセス可能に

署名の信憑性

署名者の中には、人工知能研究の先駆者でチューリング賞受賞者のYoshua Bengio氏、コンピューター科学者のStuart Russell氏、Stability AI社のEmad Mostaque CEO、またリップル社共同創業者のChris Larsen氏の名前もあるが、それらの信憑性を疑う声も挙がっている。

ロイター通信のKrystal Hu記者は、イーロン・マスク氏やスティーブ・ウォズニアック氏、Yoshua Bengio氏など、リストの上位11人まで真偽を確認したと述べている。

Future of Life InstituteのAnthony Aguirre副社長は海外仮想通貨メディアDecryptに対し、早期署名者について本人との事実確認を行ったと語った。当初はOpenAI社のSam Altman CEOの署名も記載されていたが、既に削除された。随時検証が進められており、検証中の著名人の名前はリストで非表示になっている場合があるという。

米OpenAIは3月14日、AI言語モデルの最新製品「GPT-4」を発表していた。GPT-4は、2022年11月30日にリリースされたGPT-3.5よりも信頼性が高く、創造的で、より微妙な指示を扱うことができるとされる。

GPT-4のテストプログラムでは、SAT英作文やUBE (Uniform Bar Examination):米国統一司法試験など、人間用に設計された試験を実施。司法試験の模擬試験では、受験者の上位10%程度のスコアで合格したという。

関連:米OpenAIがAI言語モデル「GPT-4」をリリース、仮想通貨のAI関連銘柄は全面高

画像はShutterstockのライセンス許諾により使用
「仮想通貨」とは「暗号資産」のことを指します

コメントしてBTCを貰おう 新着ニュースをチェック

速報

新着記事

人気記事ランキング