ChatGPTに絶対に共有してはいけない5つの情報を、専門家が警告。すでにしてしまった場合の対処法も紹介

ChatGPTに絶対に共有してはいけないこととは ChatGPTやGemini、Copilot、ClaudeといったAIチャットボットを、日常生活の中で利用する人はますます増えている。 イーロン大学のImagining the Digital Future Centerによる最近の調査では、現在、 アメリカ人の半数 がこれらの技術を利用していることが明らかになった。 同大学が公表した 文書 で、同センターのディレクター、リー・レイニー氏は「大規模言語モデル(LLM)の導入と利用は、どの指標で見ても驚異的だ」と述べ、「特に印象的なのは、これらのツールが人々の社会生活の中に織り込まれている点」だと語った。 AIチャットボットは、メールの作成を手伝ってもらったり、診察時に医師に聞くべき質問を考えたりする際には便利である一方、どこまでの情報を共有するかについては慎重になる必要がある。 その理由が分かるのが、スタンフォード大学「Human-Centered AI研究所」による最近の 研究 だ。 研究者たちは、アメリカの主要なAIチャットシステム開発企業6社(OpenAIのChatGPT、GoogleのGemini、AnthropicのClaude、AmazonのNova、MetaのMetaAI、MicrosoftのCopilot)のプライバシーポリシーを分析し、いずれも 「デフォルトで顧客との会話をモデルの訓練および改善に使用している」 ように見えること、さらに「一部はそのデータを無期限に保持している」ことを発見した。 サイバーセキュリティ専門家の ジョージ・カミデ氏 は、「AIチャットボットに共有した情報のどれほど多くが保存され、分析され、再利用され得るかを人々は過小評価している」とハフポストUS版に語った。 「多くのLLMは、ユーザーの入力を用いて訓練または微調整されている。つまり、会話内容が直接的または間接的にモデルの将来的な反応に影響を与える可能性があるということだ」と続けた。 「もしそのやり取りに個人を特定できる情報やデリケートなデータ、機密情報が含まれていれば、それはユーザーの管理を超えたデータセットの一部となり得る。最終的に、AI企業が私たちから引き出せる最大の価値はデータなのだ」 ハフポストは専門家に、AIチャットボットに共有する前に熟考すべき情報の種類について聞いた。 個人を特定できる情報 個人を特定できる情報(PII)とは、氏名、住所、電話番号、パスポート番号や運転免許証番号などの、個人を識別できるあらゆるデータを指す。 こうした情報をチャットボットと共有することは、「そのデータが記録・処理され、なりすましやフィッシング、データ仲介といった形で悪用されるリスクを招く」と、情報セキュリティ専門家のジョージ・アル=クーラ氏は説明する。そのため、避けるのが賢明だ。 プロンプトと一緒にアップロードしたファイルも、AIモデルの訓練に使用される可能性がある。たとえば、履歴書のブラッシュアップをChatGPTに頼む場合でも、事前に個人を特定できる情報を削除しておく方が安全だ。 私生活に関するプライベートな情報 ChatGPTとの会話では、Google検索などよりもプライベートな情報を打ち明けやすいと感じる人が多い。これは、AIチャットボットが人間らしい対話のやり取りを可能にするためだ。 「それが誤った安心感を生み、静的な検索エンジンよりも多くの個人情報をチャットボットに提供してしまう傾向につながる」と、 国際プライバシー専門家協会(IAPP) AIガバナンスセンターのアシュリー・カソバン氏は語る。 こうした会話で共有された思考、行動、精神状態、人間関係に関するデリケートな情報は、法的に保護されておらず、場合によっては裁判で 証拠として使われる可能性 もある。 「AIチャットボットをセラピストやライフコーチ、さらには一種の親密な『パートナー』として利用している人の数は、すでに憂慮すべき水準にある」とカミデ氏は述べた。 自分の医療情報 医療政策団体KFFによる2024年の 世論調査 によると、成人の6人に1人が、月に少なくとも1回は健康情報や助言を求めてAIチャットボットを利用しているという。 健康問題を理解する助けになることもあるが、 正確性への懸念 に加え、プライバシー上のリスクが伴う。エモリー大学「ヒューマン・アルゴリズム協働研究所」のディレクターであるラビ・パリク医師はニューヨーク・タイムズに対し、主流のAIチャットボットの多くは、医療情報の保護を定めた HIPAA(医療保険の携行性と責任に関する法律) の適用対象ではないと語っている。 医療記録を含む個人的な医療情報は、AIチャットボットと共有しないようにすべきだ。健康に関するデータを入力する場合でも、必ず 個人を特定できる情報を削除する 必要がある。 職場の機密情報や専有情報 仕事で有利になるからとAIチャットボットを使おうとする場合は、特に注意が必要だ。アル=クーラ氏は、社内データや報告書、顧客情報、ソースコードなど、秘密保持契約(NDA)で保護されている情報は入力すべきではない、と助言する。 「多くのAIチャットプラットフォームは共有インフラ上で運用されており、強固なセキュリティ対策が講じられていたとしても、入力内容が『モデル改善』のために記録される可能性がある」と彼は述べた。 「機密情報を含むたった1つのプロンプトが、規制違反や契約違反を構成することもあり得る」 金融情報 ケンタッキー大学のITサービスは、給与明細、銀行口座や投資口座の情報、クレジットカード番号などは、 AIチャットボットと共有すべきではない と、注意を促している。 同大学のウェブサイトに掲載された記事では、「AIは一般的な金融アドバイスを提供できるが、個人的な問題については、ハッキングやデータ悪用のリスクを避けるため、ファイナンシャルアドバイザーに相談する方が安全だ」と注意喚起している。 確定申告書や収入に関するその他の書類も同様だ。 金融ライターのアダム・ヘイズ氏は投資情報サイト Investopediaの記事 で、「これらの書類が流出すれば、恐喝、詐欺、あるいは本人や家族を標的にした巧妙な ソーシャルエンジニアリング 攻撃に利用される可能性がある」と警告している。 すでに共有してしまった場合は? そして今後プライバシーを守るには? すでに共有してしまったものを取り消すことはできないかもしれない。しかし、被害を軽減するためにできることはある。 カミデ氏によれば、一度データがチャットボットの訓練データに取り込まれてしまえば、「取り戻すことはほぼ不可能」だ。それでも、アカウントが侵害された場合のデータ流出を防ぐため、 チャット履歴を削除する ことは有効だという。 れに加えてアル=クーラ氏は、今後AIチャットボットと共有してよい情報、共有すべきでない情報について考える時間を持つべきだと述べ、AIとの会話を「私的な日記ではなく、半ば公開された空間として扱う」ことを勧める。 「共有する情報は意図的かつ最小限に抑えるべき。送信する前に、『これが家族のグループチャットや会社のSlackに載っても平気だろうか』と自問してほしい」と語った。 すでに共有してしまった場合は? そして今後プライバシーを守るには? また、チャット履歴を無効にしたり、会話をモデル訓練に使用しない設定を選択したりすることで、完全ではないにせよ、プライバシーリスクを減らすこともできる。 カソバン氏は、「ツールごとに、どのデータを『記憶』するかの設定は異なる」と述べる。 「自分の懸念具合や利用目的に応じて、これらの選択肢を検討することで、適切なバランスを取ることができる」 さらに、「これらのシステムがどのように機能し、データがどのように保存され、誰がアクセスでき、どのような条件で移転されるのかを理解することが、ツールを有効活用しつつ、共有する情報に安心感を持つための鍵になる」と続けた。 プロンプトを書く際には、個人情報や機密情報の開示を避けるために、仮名を使い、より一般化した表現を用いることをアル=クーラ氏は勧める。例えば、「セント・メアリー病院の患者」ではなく「医療分野のクライアント」と書くことで、文脈を保ちつつ、個人の特定を防ぐことができるという。 ただし、責任は利用者だけにあるべきではない。 スタンフォード大学HAI の研究者らは、「包括的な連邦プライバシー規制、モデル訓練に対する明示的な同意、チャット入力から個人情報をデフォルトで除外する仕組み」を通じて、AI開発者や政策立案者が個人データ保護を強化すべきだとしている。 カミデ氏はこれを「デジタル倫理における決定的な瞬間」だと表現する。 「これらのシステムが人間のコミュニケーション様式を模倣する能力を高めるほど、親密な友人ではなく、単なるデータ処理装置であることを忘れやすくなる」と述べる。 「好奇心と慎重さ、そしてプライバシー意識を保つ文化を育み、同時に技術者が責任と透明性をもって開発を進めれば、信頼を犠牲にすることなくAIの潜在力を最大限に引き出すことができる。要するに、責任あるイノベーションのためにはガードレールが必要なのだ」 ハフポストUS版 の記事を翻訳・編集しました。 Related... 医師よりAIのアドバイスを信じる患者ーー。医師が教える、AI利用のリスクと利点 今トランプ界隈で広がる整形トレンド「マー・ア・ラゴ・フェイス」とは?保守派女性に人気のルックスが意味するもの 冬をハッピーに過ごす北欧の習慣「フリルフスリフ」とは。寒くても外を楽しむためのコツも ...クリックして全文を読む