ChatGPTに身の上話をしてはいけない理由

のトップへ

カテゴリー:

作成日

更新日

所要時間

7〜10分

CNNがOpenAI社のレポートについて報じている。国外にいる中国の反体制派を威嚇するために、ChatGPTが利用されていたという内容だ。CNNの報道は中国側の悪辣さを強く印象づけるものになっているが、AIの専門家たちは別の懸念を抱いたことだろう。それは、個人情報の漏洩問題である。端的に言えば、我々一般ユーザーの情報が、運営側の判断次第で漏洩する可能性は決して低くないということだ。

そもそもこの問題は、「法的」には必ずしも違法とは言えない。利用規約には免責事項が明記されており、その多くはAI運営会社に有利な内容になっている。

「OpenAIはGoogleの『検索広告』級のビジネスを狙う」というタイトルの動画で、ネット広告の専門家である杉原剛氏は次のように指摘している。お悩み相談などのプライベートな内容は、「刺さる広告」の強力なフックになり得る。OpenAI社は、今後この領域を積極的に開拓していくだろうというのだ。

しかし杉原氏は、OpenAI社の社内体制が必ずしも新たな事業領域に追いついていないとも指摘している。AIの長期的リスクを研究していた「スーパーアライメント(Superalignment)」チームの主要メンバーが相次いで離脱した背景には、安全性よりもプロダクト開発や収益化が優先されている現状があるとされる。

「OpenAI is making the mistakes Facebook made(OpenAIはFacebookと同じ過ちを繰り返している)」という動画では、「誰にも言えない悩みや企業の機密を入力するChatGPTが、単なる広告プラットフォームになったとき、そのデータがどう扱われるのかという倫理的ハードルは非常に高くなる」と指摘されている。OpenAI社にはMeta社出身の人材も多く、「過去の失敗が再び繰り返される」可能性は否定できない。

もちろん、OpenAI社も何も対策を講じていないわけではない。広告事業を重視するとしながらも、現時点では広告分野の専門的な幹部を十分に配置できていない。広告を本格的に展開するには「インテグリティ(誠実性)」を重視した体制づくりが不可欠だが、その整備はまだ途上段階にある。

人材を採用すれば問題が解決するわけではない。採用した人材が、社内文化として「インテグリティ重視」の姿勢を根付かせてこそ、初めて意味を持つ。

今回のCNNの報道では、調査レポートの内容が先行して伝えられた。おそらくOpenAI社の広報は、「これは限定的な事例である」「専門委員会が監査している」「個人情報が恣意的に漏れることはない」といった説明を、より早い段階で発信すべきだっただろう。

そして、その役割を担うのは「インテグリティ担当重役」ではなく、「広告担当重役」であるべきだった。なぜなら、「ビジネスに直結するからこそ顧客を重視している」というメッセージの方が、より説得力を持つからである。

仮にOpenAI社が今後、本格的に広告事業を重視するのであれば、顧客のプライバシーを尊重する方針や機能――たとえば個人情報の明示的な削除機能など――を打ち出す可能性はあるだろう。しかし、現時点の体制を見る限り、その準備が十分に整っているとは言い難い。OpenAI社は既存の規約や声明で一定の説明は行っている。しかし、それが一般ユーザーの不安を払拭する水準に達しているとは言い難い。

したがって現状では、ChatGPTに過度な身の上話や個人的な情報を入力することは、できるだけ控えた方が無難だと言わざるを得ない。

同時に、OpenAI社が説得力のある「インテグリティ」対策を打ち出せなければ、いずれ利用者はChatGPTから離れていくことになるだろう。

のトップへ

Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です