ChatGPTによる情報漏洩の恐怖

生成AIチャットはそれぞれ特徴があるけど、やはりコードの生成に関してはChatGPTは一日の長があると思ってる。だけど、今朝方、ちょっと(いやかなり)気になる現象に出くわしてしまった。

コードの問題点などを調べるのに、こちらで書いたコードをペーストしてChatGPTに見てもらう、ということをよくやる。のだけど、それをいろいろ試してみたところ、ちょっと嫌な返事をもらってしまった。


JavaScript経由でcurlコマンドを叩いてAmazon BedrockのTitanにアクセスさせようとしたところ発生したエラーについて質問しているのだけど、サンプルコードを掲載して答えてくれたこのコードは、昨日、オレが書いてChatGPTに送信したコードなのだ。それが一言一句変わりなく「これが答えです」と表示されてしまった。怖いのは、アクセスキーまでそのまま出力されたこと。もちろん、そのまま送るのはちょっと不安だったので冒頭だけで途中からカットしてあるのだけど、これがまさにこっちが送った値そのものなのだ。もし万が一、そのままカットせずに送っていたら、こちらのアクセスキーがまるごと掲載されたのではないか。

不安なのは、これが自分の環境にのみ出力されるものなのか、それとも(自分が知らないだけで)まったくの他人にもこのコードが出力されているのか、ということだ。いや、こちらの書いたコードが他で使われるのは全く構わない。怖いのは、そこに含まれているアクセスキーなどの機密情報だ。それらがそのまま使われていたりしたら、これは恐ろしいことになる。

確かOpenAIとしては、「入力したプロンプトの一部が応答として使われることはある」ということだったはず。これはつまり、「あなたが入力したプロンプトが、あなたの質問の答えとして使われることはありますよ」ということだと思っていた。だけど、本当にそうなんだろうか。ここまでしれっと「答えはこうなりますよ」とまるで自分が考えたかのような態度でこっちが送ったコードを「どうだ」とばかりに送られてくると、「お前、他でやってないよな?」とつい疑ってしまうのはオレだけか?

こいつは、「頭の回転が早くてなんでも答えてくれるけど、平気でこっちを裏切る友人」なのだ、と思うことにしよう。どんなときでも機密情報はこいつに見せてはダメだ。

人気の投稿