ChatGPT会話内容がGoogle検索結果に表示される可能性が判明 ~企業の情報管理見直し急務~

ChatGPT会話内容のGoogle検索表示問題が発覚 ~機密情報漏洩の可能性で対策急務~ AI
AI

2025年8月、ChatGPTの共有機能を通じて投稿された会話内容がGoogle検索結果に表示されていた問題が発覚した。この問題は単なる技術的不具合ではなく、企業の機密情報漏洩リスクを浮き彫りにする重要な事案となっている。約10万件の会話が意図せず公開され、機密契約や個人情報まで含まれていたことが明らかになった。

問題発覚の経緯

ChatGPTの「共有」機能は2023年から存在していた。当初OpenAIは、共有リンクは検索エンジンにインデックス化されないと明記していた。しかし2025年初頭、この方針が静かに変更された。ユーザーがチャットをインデックス化可能にする選択ができるようになった。

2025年7月下旬、この機能により共有された会話がGoogle検索に表示されることが判明した。当初『Fast Company』誌は約4,500件の会話がインデックス化されていると報じた。その後の調査で、実際の件数は10万件近くに上ることが分かった。

問題の核心は「このチャットを発見可能にする」というチェックボックスにある。多くのユーザーはこの機能の意味を正確に理解していなかった。「発見可能」という曖昧な表現が混乱を招いた。結果として、機密性の高い企業情報や個人情報が公開された。

公開された情報の深刻さ

公開された会話には極めて機微な情報が含まれていた。秘密保持契約(NDA)のテキスト、企業の内部戦略、機密契約に関する議論が含まれていた。個人レベルでは、メンタルヘルス相談、身体的虐待の経験なども公開された。

氏名、連絡先、職務経歴といった個人特定可能情報も完全に含まれていた。これは単なるプライバシー侵害を超えて、企業の競争情報が流出する事態となっている。

検索方法も簡単だった。site:chatgpt.com/share [キーワード]という検索クエリで、誰でも関連する会話を発見できた。この手軽さが問題の深刻さを増している。

OpenAIの対応と課題

OpenAIは問題発覚後、迅速に対応した。8月1日、最高情報セキュリティ責任者が公式声明を発表した。「発見可能」機能の削除を宣言し、検索エンジンからのコンテンツ削除を開始した。8月5日までに機能削除が完了した。

同社はこの機能を「有益な会話を発見しやすくするための短期的な実験」と位置づけた。一方で「ユーザーが意図しないものを誤って共有する機会をあまりにも多く生み出してしまった」と設計の不備を認めた。

しかし一度公開された情報の完全削除は困難だ。検索エンジンのキャッシュや第三者のアーカイブサービスに保存された可能性がある。デジタル情報の永続性という根本的な課題が残る。

企業への影響とリスク

この事件は企業の「シャドーAI」リスクを現実のものとした。従業員が会社の許可なく公共のAIツールを業務に利用する危険性が明確になった。先月発表された調査でも、職場AI利用の9つの危険業務によりシャドーAI蔓延で67万ドル損失拡大という深刻な実態が報告されている。グローバル調査では、従業員の45%が上司に相談なくAIツールを使用した経験があるとされている。

2023年のサムスンの事例でも、従業員がChatGPTを通じてソースコードを漏洩させた。タイ企業も同様のリスクに直面している。従業員が専有コード、顧客データ、戦略計画を誤って共有する可能性がある。

さらに重要な点は、漏洩した会話が競合他社にとって「情報収集の金脈」となることだ。競合他社の機密情報を積極的に探索する企業が現れる可能性がある。これは新たな競争インテリジェンス上のリスクとなる。

今後の予想と対応策

BKK IT Newsは、この事件が企業のAI利用方針に大きな変化をもたらすと予想している。単純なAI利用禁止ではなく、より具体的なガイドライン策定が進むだろう。

企業が検討すべき対策は複数ある。まず緊急対応として、自社名での検索監査が必要だ。site:chatgpt.com/shareを使って、すでに公開された情報がないか確認すべきだ。

長期的には、明確なAI利用ポリシーの策定が不可欠だ。機密情報の入力禁止、公開共有機能の使用禁止を明文化する必要がある。エンタープライズ版AIソリューションの導入も選択肢の一つとなる。

従業員教育も重要だ。今回の事件を具体例として、AIによる情報漏洩リスクに関する研修を実施すべきだ。単なる知識提供でなく、行動変容を促す内容が求められる。

参考記事リンク