
(八打灵再也17日讯)ChatGPT等人工智能(AI)聊天机器人日渐普及,越来越多人将其当作日常生活和工作上的“得力助手”,然而美国专家提醒用户,在与AI互动时应格外小心,尤其有5类资讯绝对不宜输入,否则可能牵涉隐私泄露或资料外泄。
5类资讯分别为企业资讯及商业机密、医疗报告与检验结果、登录账号与密码、身分识别资讯、金融账号与银行资料。
ADVERTISEMENT
史丹福大学以人为本人工智能研究所(Stanford HAI)研究员珍妮佛金接受《华尔街日报》访问时指出,一旦将某些资讯输入AI聊天机器人,用户就已失去它的掌控权。
1. 企业资讯及商业机密
不少用户在日常工作中使用ChatGPT,包括撰写电邮或编辑文件,若这些内容涉及客户资料或未公开的商业机密,便有可能在不知情下外泄。专家建议,企业若需使用AI工具,最好选择具备资料保护机制的企业版本或客制化AI程式。
2. 医疗报告与检验结果
尽管AI聊天机器人能协助解读复杂医学术语,但医疗资讯属高度敏感范畴,目前AI服务大多不受相关隐私法规所约束。若确需使用AI辅助解读,可考虑先移除报告中的个人资料,仅保留检测数据内容。
3. 登录账号与密码
虽然AI技术不断进步,但专家提醒,ChatGPT并非密码管理工具,不具备保护用户账号安全的功能。若需管理密码,应使用专门的加密软件或密码管理服务。
4. 身分识别资讯
切勿在ChatGPT等AI系统输入如身分证号码、护照编号、住址、电话号码等具身分辨识性质的资料。虽然有些聊天机器人会编辑敏感资讯,但完全避免分享这些个人资讯,才是更安全的选择。
5. 金融账号与银行资料
千万别将银行账号、投资账户等金融资讯输入AI聊天机器人,这类资料一旦被骇客掌握,可能导致资金流遭监控、盗用或其他安全隐患。
据报道,OpenAI和Google等多家AI开发公司均已在官方网站上提醒用户,避免上传任何敏感或不希望第三方接触的资料。
专家建议,若仍需处理较为敏感的事务,用户采取额外防范措施,例如使用高强度密码、启用多重要素认证,以及定期删除AI对话记录。
AI公司Anthropic也指出,用户可在每次使用完毕后删除对话记录,其系统一般会在30天后永久删除有关数据,以加强隐私保护。
ADVERTISEMENT
热门新闻





百格视频





ADVERTISEMENT