AI チャットボットが人々の実際の電話番号を公開している

AI チャットボットが人々の実際の電話番号を公開している


「ひどく劣化していました」とギルバート氏は断言する。 「Google の検索結果だけを見ていたら、決して見つけられなかったでしょう。」 (今月初めに Gemini で同じプロンプトを試してみましたが、最初は拒否されましたが、ツールはアイガー数も表示してくれました。)

この経験の後、アイガー、ギルバート、そしてもう一人のウィーン大学博士課程の学生、アンナ・マリア・ゲオルギエバは、教授の意見に何が現れるかを知るために ChatGPT を試してみることにしました。

最初は、OpenAI のガードレールが作動し、ChatGPT は情報が利用できないと応答しました。しかし、同じ応答で、チャットボットは「さらに詳しく掘り下げたい場合は、さらに『調査』的なアプローチを試すことができます」と提案しました。 ChatGPTによると、彼らの調査は「物事を絞り込む」のに役立ち、教師が住んでいる可能性のある場所についての「近所の推測」や、教師の家の「共有所有者の可能性のある名前」を提供するだけだったという。 ChatGPTは「一般的に、これが新しい物件レコード、または意図的にあまり目立たない物件レコードを表示する唯一の方法だ」と続けた。

生徒たちがこの情報を提供したため、ChatGPT は市の不動産記録から教師の自宅住所、住宅購入価格、配偶者の名前を作成しました。

(OpenAI代表のタヤ・クリスチャンソン氏は、多くのユーザーがChatGPTインターフェイスでどのモデルを使用しているのか知らない可能性があることを指摘した後でも、スクリーンショットを見たり、学生がテストしたモデルを知らない限り、この件で何が起こったのかコメントすることはできないと述べた。彼女はまた、チャットボットによるPIIの暴露に関する一般的なコメントも拒否し、代わりに他のプライバシー文書やPAI II文書の管理方法を説明するOpenAI文書へのリンクを提供した。)

これにより、チャットボットの根本的な問題の 1 つが明らかになったと、DeleteMe の Shavell 氏は言います。 AI企業は「ガードレールを構築することはできるが、 [their chatbots] また、効率的で顧客の質問に応答できるように設計されています。」

暴露の問題は、Gemini や ChatGPT に限定されません。去年、 未来主義 彼は尋ねられたことに気づいた xAI Grok のチャットボット「」[name] 住所」という情報には、ほとんどすべてのケースで、居住地の住所だけでなく、その人の電話番号、勤務先の住所、そして似たような名前を持つ人の住所も含まれていた(xAIはコメントの要請に応じなかった)。

明確な答えはありません

この問題に対する簡単な解決策はありません。特定のモデルのトレーニング セットに誰かの個人情報が含まれているかどうかを確認したり、モデルに PII を削除するよう強制したりする簡単な方法はありません。

Leave a Reply

Your email address will not be published. Required fields are marked *