bg

コラム

AIによる情報漏洩の事例と原因とは?今すぐできる対策を分かりやすく解説

  • AI活用

はじめに


ChatGPTをはじめとする生成AIは、文章作成やアイデア出し、議事録の要約など、ビジネスの様々な場面で活用が広まっています。その驚異的な利便性の一方で、「入力した情報が漏洩するのではないか」というセキュリティ上の懸念も高まっています。実際に、国内外の企業で生成AIの利用が原因とされる情報漏洩の事例が報告されており、対策は急務です。

この記事では、生成AIの利用における情報漏洩のリスクについて、具体的な事例を交えながら、その原因と企業が取るべき対策を分かりやすく解説します。

生成AIで情報漏洩は本当に起こる?

 


結論から言うと、生成AIの利用方法を誤れば情報漏洩は現実に起こり得ます。
便利なツールであるからこそ、その裏に潜むリスクを正しく理解することが、安全な活用の第一歩となります。

生成AIの普及と情報漏洩リスクの高まり


多くの生成AIサービスは、ユーザーが入力した情報をサービス品質の向上のために「学習データ」として利用する可能性があります。つまり、従業員が業務上の機密情報や顧客の個人情報を安易に入力してしまうと、他のユーザーへの回答の情報源として利用されてしまうリスクがあるのです。企業の機密情報が、再利用されるといった事態も考えられます。

情報漏洩だけではない生成AIのセキュリティリスク


生成AIのリスクは情報漏洩に限りません。例えば、AIが事実とは異なるもっともらしい情報を作り出す「ハルシネーション」は、誤った情報に基づいた意思決定を誘発し、ビジネスに損害を与える可能性があります。また、AIが生成した偽の音声や画像(ディープフェイク)が悪用され、企業の信用を損なうような事態も懸念されています。

【国内外】生成AIによる情報漏洩の代表的な事例

 


理論上のリスクだけでなく、実際に生成AIに関連する情報漏洩事件は発生しています。
ここでは、企業が教訓とすべき代表的な事例を3つ紹介します。

【事例1】社内機密情報の入力による情報漏洩


2023年、韓国の大手電機メーカーであるサムスン電子で、従業員が社内のソースコードや会議内容といった機密情報をChatGPTに入力し、学習される事案が発生しました。プログラムのエラー修正や議事録の要約といった業務効率化が目的でしたが、機密情報をAIに入力した結果、そのデータが外部サーバーに送信・学習されてしまいました。この一件を受け、同社は生成AIツールの社内利用を一時的に禁止する措置を取りました。

【出典】이코노미스트 - [단독] 우려가 현실로...삼성전자, 챗GPT 빗장 풀자마자 '오남용' 속출

【事例2】システムのバグが原因の個人情報漏洩


2023年3月、ChatGPTにおいて、一部のユーザーに他人のチャット履歴のタイトルが表示されるという不具合が発生しました。さらに、有料プランのユーザーの一部では、氏名やメールアドレス、クレジットカード情報の一部といった個人情報が閲覧できる状態になっていたことも判明しました。原因はオープンソースライブラリのバグとされており、意図しないシステム上の欠陥が重大な情報漏洩につながることを示す事例となりました。

【出典】March 20 ChatGPT outage: Here's what happened | OpenAI

【事例3】マルウェア感染によるアカウント情報の流出


2023年6月には、ダークウェブ上で取引されていた不正データの中から、10万件以上のChatGPTのアカウント情報が発見されたことが報じられました。これは「インフォスティーラー」と呼ばれるマルウェアにPCが感染し、ブラウザに保存されていたIDやパスワードが窃取されたことが原因です。AIサービス自体への攻撃ではなく、利用者側のセキュリティ対策の不備を突かれた形であり、多角的なセキュリティ対策の重要性を示しています。

【出典】Group-IB Discovers 100K+ Compromised ChatGPT Accounts | Group-IB

なぜ生成AIで情報漏洩が起こるのか?5つの原因を解説


生成AIによる情報漏洩は、単一の原因ではなく、技術的な問題と人的な要因が複雑に絡み合って発生します。
ここでは、その主な原因を5つに分類して解説します。

原因分類 具体的な内容 主な対策
ユーザー要因 機密情報や個人情報を安易に入力してしまう ・社内ガイドラインの策定
・従業員教育の徹底
システム要因 AIサービス自体のバグや脆弱性 ・信頼性の高い法人向けサービスの選定
外部攻撃要因 サーバーへの不正アクセスや新たな攻撃手法

・アクセス制御の強化

・セキュリティツールの導入

組織要因 利用ルールの未整備、従業員の意識不足

・ガバナンス体制の構築

・継続的な啓発活動

 セキュリティ意識要因

推測されやすいパスワードの使いまわし、
公共Wi-Fiでの機密情報のやり取り、ルール不遵守など

基本的なセキュリティ対策の不足

・定期的なセキュリティ教育

・パスワード管理ツールの導入

・VPN利用の徹底

・インシデント事例の共有

【原因1】ユーザーによる機密情報・個人情報の入力


最も頻繁に指摘される原因が、ユーザー自身の誤った操作です。業務効率を優先するあまり、社外秘の資料や顧客リスト、開発中のソースコードなどを、リスクを認識しないまま生成AIに入力してしまうケースです。入力されたデータがAIの学習に利用されれば、それが意図しない形で第三者に開示される直接的な原因となります。

【原因2】AIサービス提供者のシステムのバグや不具合


前述の事例にもあったように、生成AIサービス自体のプログラムにバグや設計上のミスが存在する場合、情報漏洩につながる可能性があります。ユーザーがどれだけ注意を払っていても、サービス提供者側の問題で情報が漏れてしまう可能性はゼロではなく、利用するサービスの信頼性を見極めることが重要です。

【原因3】学習データ保管サーバーへの不正アクセス


ユーザーが入力した情報を含む学習データは、AIサービス提供者のサーバーに保管されています。このサーバーがサイバー攻撃を受け、悪意のある第三者による不正アクセスを許してしまった場合、大量の機密情報や個人情報が一度に盗み出される危険性があります。

【原因4】プロンプトインジェクションなどの新たな攻撃


生成AI特有の新たな攻撃手法も登場しています。代表的なものが「プロンプトインジェクション攻撃」です。これは、攻撃者がAIに対して巧妙な指示(プロンプト)を与えることで、開発者が意図しない動作をさせ、非公開の情報や機密データを不正に出力させる攻撃です。

【原因5】従業員のセキュリティ意識の不足


最終的には、ツールを使う「人」のセキュリティ意識が大きく影響します。会社で定められたルールを守らない、推測されやすいパスワードを使いまわす、公共のWi-Fiで機密情報を含むやり取りを行うなど、従業員の基本的なセキュリティ対策の不足が、情報漏洩の間接的な原因となることがあります。

企業が今日から始めるべき情報漏洩対策

 


生成AIの情報漏洩リスクは決して低くありませんが、適切な対策を講じることで、そのリスクを管理し、安全に活用することが可能です。企業が取り組むべき具体的な対策を4つのステップで紹介します。

【対策1】生成AI利用に関する社内ガイドラインを策定する


まず最初に行うべきは、組織としての統一ルール、すなわち「生成AI利用ガイドライン」を策定することです。このガイドラインには、利用目的の範囲、利用を許可するAIツール、そして最も重要な「入力してはいけない情報」の種類などを明確に定義します。誰が読んでも判断に迷わない、具体的で分かりやすいルーにすることがポイントです。

【対策2】入力してはいけない情報を明確化し教育を徹底する


ガイドラインを策定したら、全従業員にその内容を周知し、理解を促すための教育を実施します。特に、「顧客の個人情報」「未発表の財務情報」「技術的な機密情報」「社内の人事情報」など、入力が禁止されている情報の具体例を挙げながら、なぜそれが危険なのかという背景まで説明することが重要です。定期的な研修を行い、従業員の意識を高く維持する努力が求められます。

【対策3】入力データを学習させない設定(オプトアウト)を活用する


多くの生成AIサービスには、ユーザーが入力したデータをAIの学習に利用させないようにする「オプトアウト」設定が用意されています。例えば、ChatGPTでは設定画面でチャット履歴の保存と学習への利用をオフにすることが可能です。企業として利用を許可するツールについては、このオプトアウト設定を徹底するよう、ガイドラインで義務付けることが有効な対策となります。

【対策4】セキュリティが強固な法人向けAIサービスを選定する


個人向けの無料サービスとは異なり、法人向けに提供されている生成AIサービスは、セキュリティが強固なものが多く存在します。入力されたデータが学習に利用されないことを契約で保証していたり、アクセス管理機能が充実していたりするなど、企業のセキュリティ要件を満たす設計になっています。初期コストはかかりますが、情報漏洩によって失う社会的信用や損害賠償のリスクを考えれば、必要な投資と言えるでしょう。

まとめ


生成AIは、ビジネスの生産性を飛躍的に向上させる可能性を秘めた強力なツールです。しかしその裏側には、情報漏洩という重大なリスクが存在します。今回解説したように、情報漏洩の原因はユーザーの誤用からシステムの脆弱性、新たなサイバー攻撃まで多岐にわたります。

重要なのは、これらのリスクを正しく理解し、「ガイドライン策定」「従業員教育」「ツールの適切な設定」「安全なサービスの選定」といった多層的な対策を講じることです。リスクを恐れて利用を全面的に禁止するのではなく、リスクを賢く管理し、AIの恩恵を最大限に引き出すことが、これからの企業には求められています。

法人利用に特化したAGSの「AI-Zanmai」は、AIに機密情報を学習させない設定で、内部からの漏洩を防ぎます。また、IPアドレス制限や多要素認証など、外部からのアクセス対策も十分に施しています。高度なセキュリティ環境で、安全な業務効率化を実現してみませんか。

関連記事

業務効率化を支援する生成AIサービス「AI-Zanmai」はこちら

Pick up