体調の相談、仕事の資料、個人的な悩み――。いまでは多くの人が、他人に言いにくいさまざまな話を「ChatGPT」に打ち込んでいます。ところが、その「AIとの秘密の会話」が、気づかないうちに外部へ送られてしまう可能性があったとしたらどうでしょうか。
イスラエルに本社を置く世界最大級のサイバーセキュリティ企業・Check Point(正式名称:チェック・ポイント・ソフトウェア・テクノロジーズ)の研究者は、ChatGPTのコード実行環境に、ユーザーのデータを密かに外部サーバーへ送信できる脆弱性が存在していたと報告しました。
現在、この問題は“すでに修正されています”が、この発見は私たちがAIとの付き合い方を見直すべき重要な警鐘と言えるかもしれません。
“安全”なはずのAIが、データを外へ送ってしまう可能性
AIアシスタントは、これまで外部へのデータ送信を厳しく制限していると説明されてきました。たとえば、外部サービスに情報を送る場合は、ユーザーに確認ダイアログが表示される設計です。つまり、知らないうちにデータが送信されることはないという前提でした。
実際、想定されていた安全対策は次のようなものです。少し長いですが、全文を引用します。
一般的に、いくつかの理由から、チャットの内容を任意の第三者に送信することはできません。

