ChatGPTの利用制限
米アップル社が、機密情報の漏洩防止の観点から、社員に対するChatGPTなどのAI(人工知能)ツールの使用制限を敷いているとの情報が浮上している。
ウォールストリートジャーナルが18日に報じた内容によると、アップルはAIプログラムを通じた機密データの漏洩を危惧しており、特にマイクロソフト傘下のGitHubが開発した、ソフトウェアコード自動生成ツールであるCopilotの使用については、明確に警鐘を鳴らしている。
なお、OpenAIはユーザーとChatGPT間の会話全体をデフォルトで保存する。これらのデータはOpenAIの大規模言語モデルのトレーニング材料となり、また規約違反がないかをモデレーターが検証するために用いられる。
ChatGPTとは
ChatGPTとは 対話型のAI言語モデルとして2022年11月にリリースされたChatGPTは、ユーザーの質問に対し人間との会話感覚で回答を得られるよう設計されている。
▶️仮想通貨用語集
関連:アップルCEO、AI採用に前向きも慎重なアプローチを維持
OpenAIの利用規約
OpenAIが開発したChatGPTは、3月に個人情報の漏洩問題を引き起こした。バグの影響でユーザーの支払い情報や新しい会話の最初のメッセージが漏洩した経緯がある。このようなプライバシー問題に対し、OpenAIは真剣に対処する姿勢を見せている。
具体的には、4月にユーザーがチャット履歴を無効化できる機能を導入し、無効化されている間はその会話がモデルトレーニングに使用されないだけでなく、チャットの履歴表示からも排除されるようにした。また、企業向けの新たなChatGPTのサブスクリプション層、ChatGPT Businessの開発にも着手していて、これは数ヶ月内に利用開始される予定だ。
それでもなお、OpenAIは新たな会話のデータを30日間は保持し、必要があればそれを見直し、不正使用を監視するとしている。
ChatGPTは、コードの改良やアイデアの練り込みなど、一部の業務でその有用性が認識されている。しかしながら、ヘイトスピーチやスパム、脅迫といった禁じられている行為を監視し取り締まる観点から、モデレーターがこれらの会話を目にする可能性もある。
このような現状を踏まえて、アップルにとどまらず、他の企業もChatGPTの使用制限に踏み切っている。たとえば、韓国の大手電子製品メーカー、サムスン電子は、従業員に対するChatGPTの使用を基本的に禁止している。これは、同社のエンジニアが社内のソースコードを無断でアップロードしたという事態が発覚したことが引き金となっている。
さらに、JPMorgan、Bank of America、Citigroupといった米国の主要な金融機関も、機密性を要する情報の保護のため、ChatGPTの使用を制限あるいは禁止しているというのが現状だ。
一方、OpenAIは19日、ChatGPT用のiOSアプリを発表した。アプリは無料で利用でき、音声入力にも対応しており、現段階では米国内での利用が可能となっている。OpenAIは近い将来、Android版のリリースとともに、他の国でもこのアプリを提供する予定であると述べている。