ChatGPT再度曝安全隐患,用户私聊及敏感信息遭泄露

描述

  近日,广受欢迎的智能聊天机器人 ChatGPT 再度引发隐私安全争议,据报道,有众多用户反映其同机器人的私人对话被泄露,其中包括个人身份及密码在内的敏感信息。

  ArsTechnica 网站引用匿名读者提供的证据指出,ChatGPT 疑似泄露了大量与非用户相关的对话内容,其中包含诸多敏感信息。

  泄露内容涵盖多个领域,例如一小组对话来自某药品销售门户的支持系统,暴露了门户名称、门店编号以及账户登陆凭据,另一则揭示了某演示文稿的名称和未公开的研究提案详情。

  ChatGPT 的信息保护问题并非首次出现,早在 2023 年 3 月,据报道曾因故障导致聊天标题泄露,同年 11 月,研究者发现通过特定查询可以诱发ChatGPT 泄露其训练数据里大量的个人隐私信息。

  面临当前情况,OpenAI 公司承诺正积极展开内部调查,并提醒广大用户在面对非自用机器人时,需格外警惕共享敏感信息的风险。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分