三星使用ChatGPT不到20天机密资料遭外泄

根据韩国媒体 Economist 和 SBS 报道,三星在引进聊天型 AI 机器人 ChatGPT 后不久,就发生了机密资料外泄事故。近期被指出,部分三星内部资料,如半导体设备测量数据和产品良率等,已经被错误地存入 ChatGPT 的学习资料库中。

内部资料变成ChatGPT学习数据

这些外洩事件主要源于三星员工在使用 ChatGPT 时的误用或滥用。据报道,共发生了三次事故,其中两次涉及半导体设备,另一次涉及会议内容。三星员工在使用 ChatGPT 查询问题并验证答案时,不慎将这些信息添加到 ChatGPT 的学习资料库中。若其他使用者在 ChatGPT 上提出相关问题,可能导致三星企业机密外泄。

三星使用ChatGPT不到20天机密资料遭外泄

提示员工勿输入敏感资料

为防止此类事故再次发生,三星正在制定相应的保护措施。如果类似事件继续发生,三星内部可能会切断 ChatGPT 服务。有消息称,三星正考虑通过其创新中心开发专属的 AI 服务。

三星已经通过公告提醒员工注意在使用 ChatGPT 时的方式,并强调在输入内容后,相关资料将被传送到外部伺服器,无法收回。使用者应避免在 ChatGPT 中输入敏感资料,以防止机密外泄。

限制提问字数

事实上, ChatGPT 的使用指南也明确要求「使用者不要输入敏感内容」。尽管最初因担心机密外泄,所以三星初时是禁止使用 ChatGPT,但自 3 月 11 日起,三星允许其半导体和设备解决方案部门(DS)使用 ChatGPT,而设备体验部门(DX)仍禁用该服务。

然而,在放宽政策不到 20 天后,就爆出机密外泄事件,引起了三星的警惕。作为应对措施,三星紧急将 ChatGPT 提问字数限制在 1,024 字节以下,以降低资料外泄风险。日后,若再次发生类似事件,三星可能会对相关人员进行惩处。

相关文章