usagidaブログ

生成aiの回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください。

geminiとchatgptの比較。特にセキュリティについてと 個人情報の漏洩と悪用



GeminiとChatGPTは、どちらも大規模言語モデル(LLM)を基盤とした高性能なAIチャットボットであり、多くの点で共通点がありますが、開発元(GoogleとOpenAI)のアプローチの違いから、セキュリティと個人情報の取り扱いに関する特徴も異なります。

1. セキュリティの基本的な考え方と共通のリスク

まず、どちらのAIも、その利用にはユーザー自身の注意が必要であるという共通点があります。

  • 学習データと出力: どちらのAIも、膨大な量の公開データ(インターネット上のテキストなど)を学習しています。そのため、学習データに含まれるバイアスや不正確な情報が、AIの出力に反映される可能性があります。
  • プロンプトインジェクション: 悪意のあるユーザーが巧妙な入力(プロンプト)を使って、AIの本来の指示を無視させたり、意図しない情報(システムプロンプトなど)を漏洩させたりする「プロンプトインジェクション」のリスクは共通しています。
  • データポイズニング: 学習段階で悪意のあるデータが混入されると、AIの振る舞いが歪められたり、誤情報が出力されたりする可能性があります。
  • 機密情報の入力に関する注意: どちらのAIも、入力された情報を今後のモデル改善のために利用する可能性があります(ただし、ユーザーが設定でこれをオフにできる場合もあります)。そのため、個人情報、企業の機密情報、パスワード、財務情報など、決して外部に漏らしてはならない情報をAIに入力することは、最も避けるべきリスクです。

2. Gemini(Google)のセキュリティと個人情報の取り扱い

GeminiはGoogleが開発しているため、Googleの広範なエコシステムとの統合が特徴です。

  • Googleエコシステムとの連携: GeminiはGoogle Workspace(Gmail, Google ドキュメント, スプレッドシートなど)と連携する機能を持っています。これにより、ユーザーはよりシームレスに作業を進めることができますが、連携するファイルに機密情報が含まれている場合、AIがその情報にアクセスするリスクが発生します。Geminiは現在、ファイル全体にアクセスする動作がセキュリティ懸念として指摘されることがあります。
  • 「責任あるAI」への注力: Googleは、「責任あるAI」の開発を重視しており、バイアスや有害なコンテンツの生成を抑制するための対策を講じているとされています。
  • データ利用とプライバシーポリシー: GoogleはGemini Appsでの会話や関連する製品使用情報、位置情報、フィードバックを収集します。これらの情報は、Gemini Appsアクティビティの設定で保存期間を調整できます。Googleは、これらのデータをサービスの改善のために利用すると説明しており、第三者への販売や広告目的での利用は行わないとしています。

3. ChatGPT(OpenAI)のセキュリティと個人情報の取り扱い

ChatGPTはOpenAIが開発しており、幅広いカスタマイズ性やプラグイン連携が特徴です。

  • カスタマイズ可能なメモリ機能: ChatGPTは過去の会話を記憶し、ユーザーの名前、過去のクエリ、好みの回答タイプを記憶できる機能があります。これにより、継続的な会話がスムーズになりますが、その分、過去の会話履歴に含まれる情報が(たとえ匿名化されていても)モデル改善に利用される可能性はあります。
  • プラグインとAPI連携のリスク: ChatGPTは多様なプラグインやAPIとの連携が可能です。これにより機能が拡張されますが、連携する外部サービスが適切にセキュリティ対策を講じていない場合、データ漏洩のリスクが高まる可能性があります。
  • 過去のデータ漏洩事例: 過去にはChatGPTのユーザーアカウント情報(有料ユーザーの資格情報)がダークウェブで販売された事例も報告されています。これは、AIサービス自体のセキュリティ対策だけでなく、ユーザー自身の強固なパスワード設定や多要素認証の利用の重要性を示唆しています。
  • データ利用とプライバシーポリシー: OpenAIも、ユーザーが入力したデータをモデルの改善に利用する場合がありますが、ユーザーが設定でデータ利用を停止するオプションを提供しています。

4. 個人情報の漏洩と悪用のリスク

どちらのAIも、以下の経路で個人情報の漏洩や悪用につながるリスクがあります。

  • 意図しない情報開示: ユーザーがAIに機密情報を入力してしまい、それが意図せずモデルに学習された結果、将来の他のユーザーへの回答としてその情報の一部が漏洩する可能性(非常に稀ですが、理論的にはあり得るリスク)。
  • アカウントの侵害: ユーザーのAIアカウントがハッキングされ、過去のチャット履歴や設定が不正アクセスされることで、そこに含まれる個人情報が漏洩するリスク。
  • フィッシングやソーシャルエンジニアリングへの悪用: サイバー犯罪者がAIのテキスト生成能力を利用して、より巧妙で説得力のあるフィッシングメールや詐欺メッセージを作成し、個人情報をだまし取るために悪用するケースが増えています。
  • AI生成コンテンツの誤用: AIが生成した情報が、悪意を持って特定の個人や組織に関する誤情報や誹謗中傷として拡散される可能性。

まとめと対策

GeminiとChatGPTは、それぞれ異なる強みとリスク特性を持っていますが、ユーザー側のデータプライバシー意識と適切な利用方法が最も重要です。

  • 機密情報は入力しない: 最も基本的な対策です。業務上の機密情報や個人を特定できる情報(氏名、住所、電話番号、口座番号など)は絶対にAIに入力しないでください。
  • データ利用設定を確認・調整する: AIサービスが入力データをどのように利用するか、プライバシー設定で確認し、必要に応じてデータ利用をオフにするなどの設定を検討してください。
  • 強固なパスワードと多要素認証: アカウントのセキュリティを強化するために、強固なパスワードを設定し、可能であれば多要素認証(MFA)を有効にしてください。
  • 公式発表やセキュリティ情報を確認する: 各AIサービスの開発元が提供する最新のセキュリティ情報やプライバシーポリシーを定期的に確認することが重要です。
  • 生成された情報のファクトチェック: AIが生成した情報を鵜呑みにせず、常にその正確性を確認(ファクトチェック)する習慣をつけましょう。

AIは強力なツールであると同時に、まだ発展途上の技術でもあります。そのメリットを享受しつつ、リスクを最小限に抑えるためには、賢明な利用が求められます。

×

非ログインユーザーとして返信する