英国政府が安全なAIの開発を目指し、170億円を拠出 「安全なAI」タスクフォースを設置
安全なAI開発支援に170億円を拠出
英国政府は25日、安全なAI(人工知能)の開発を目指すタスクフォースの創立と、初期支援金として1億ポンド(約170億円)を出資することを発表した。AI技術やインフラの開発において独立した能力を持ち、国際競争力を確保することを目指すという。
「安全なAI」タスクフォースは、経済全体においてAIを安全で確実に活用できるよう、科学と商業の両分野で「基盤モデル(Foundation model)」と呼ばれるAIモデルの安全性と信頼性の向上を目標とする。政府や産業界からの専門家が集まり、首相や技術長官への直接報告を行う体制が整えられる。
Foundation modelとは
AIや機械学習分野で用いられる大規模な基盤モデルのこと(例:OpenAIのChatGPT、Google Bard)。膨大なデータセットから学習し、様々なタスクに適用可能な汎用的な知識を持つ。その応用範囲は広く、医療、教育、ビジネスなど様々な分野で利用されている。
▶️仮想通貨用語集
資金は、基盤モデルのインフラや公共サービスの整備に投資され、国内のイノベーション機会の創出に向けられる。今後6カ月以内に、公共サービス向けの最初のパイロット版が始まる予定だ。
英国のリシ・スナク首相は、基盤モデルとそれを応用する経済分野で世界的に競争力を持つことを目指しているとして、以下のように述べている。
AIの可能性を活用することは、経済の成長、より良い報酬の雇用の創出、医療とセキュリティの進歩によるより良い未来の構築のための膨大な機会を提供する。新しい専門家タスクフォースを通じて新興技術に投資することで、より革新的な英国経済を形成する一環として、安全で信頼性の高いAIの開発をリードし続けることができる。
関連:英国で新設の「科学・イノベーション・技術省」、Web3とメタバース推進へ=報道
英国のAI規制整備
「安全なAI」タスクフォースは先月発表されたAI規制白書のアプローチに則り、安全性と信頼性を中心に構築されることを保証する役割を担う。
AI規制白書は、英国政府が3月末に発行したAIの使用に関するガイドラインだ。人工知能の規制を整備し、国民の信頼を高め、技術革新を促進することを目的としている。英国政府は、AI規制サンドボックス設置に向けて3.4億円(200万ポンド)の資金提供も行った。
英国政府はまた、23年3月15日に行われた予算発表の中で、次世代のAIイノベーションをサポートするために「エクサスケール」スーパーコンピュータと専用のAI研究リソースに1500億円(9億ポンド)を投じることを発表した。
これらの動きはいずれも2030年までに科学技術大国を目指す英国の公約「Science and Technology Framework」に沿ったものだ。2023年3月6日に発表されたこの計画は、新たに約460億円(3億7000万ポンド)以上の政府資金を投じて、英国の経済成長、雇用創出、生活の改善、安全保障などに科学技術を活用することを目指すとした。
関連:英国下院、仮想通貨を規制する条項を金融サービス法案に追記
画像はShutterstockのライセンス許諾により使用
「仮想通貨」とは「暗号資産」のことを指します