近日,广受欢迎的智能聊天机器人 ChatGPT 再度引发隐私安全争议,据报道,有众多用户反映其同机器人的私人对话被泄露,其中包括个人身份及密码在内的敏感信息。
ArsTechnica 网站引用匿名读者提供的证据指出,ChatGPT 疑似泄露了大量与非用户相关的对话内容,其中包含诸多敏感信息。
泄露内容涵盖多个领域,例如一小组对话来自某药品销售门户的支持系统,暴露了门户名称、门店编号以及账户登陆凭据,另一则揭示了某演示文稿的名称和未公开的研究提案详情。
ChatGPT 的信息保护问题并非首次出现,早在 2023 年 3 月,据报道曾因故障导致聊天标题泄露,同年 11 月,研究者发现通过特定查询可以诱发ChatGPT 泄露其训练数据里大量的个人隐私信息。
面临当前情况,OpenAI 公司承诺正积极展开内部调查,并提醒广大用户在面对非自用机器人时,需格外警惕共享敏感信息的风险。
全部0条评论
快来发表一下你的评论吧 !