随着人工智慧(AI)聊天机器人如ChatGPT日益普及,越来越多人开始向它们倾诉各种问题——从感情烦恼、撰写工作邮件,到让宠物照片“人类化”。然而,专家警告,有5类敏感资讯绝对不宜与AI分享,否则可能带来安全风险,甚至泄露隐私或商业机密。

史丹佛大学人本人工智慧研究中心(HAI)研究员珍妮佛·金(Jennifer King)向《华尔街日报》指出:「当你把信息输入聊天机器人后,你就失去了对这些资料的掌控。」

以下是她列出的五大“禁区”资讯:


1. 企业机密资料
若你在工作中使用ChatGPT等AI工具撰写电邮、草拟文件等,可能会无意中泄露客户数据、内部文件或尚未公开的业务计划。虽然部分企业已使用安全性较高的企业版AI或自家客制化AI系统,仍必须慎防信息外泄风险。


2. 医疗检测报告
虽然医疗领域严格保护病患隐私,但AI平台并不在法规保护范围内。如果想让AI解读体检报告,建议事先去除姓名、身份证号等个人资料,仅保留必要的检测数值。


3. 帐号与密码
切勿将任何社交平台、网银、工作系统等的登录信息输入AI聊天机器人。AI并非密码管理工具,也无法保障你帐户的安全,建议使用专业密码管理软体储存这类资讯。


4. 身份资讯
像是身份证号码、护照号码、地址、出生日期、电话号码等皆属高度敏感的个人身份资料,应避免透露给任何AI系统。虽然部分平台具备资讯屏蔽功能,但最安全的做法仍是完全不输入。

OpenAI发言人指出:“我们的目标是让AI理解世界,而非了解每一个人,我们正努力降低搜集个人资料的机会。”


5. 金融账户资讯
任何银行帐户、信用卡资料、投资账户等都不应输入AI聊天平台,这些信息一旦遭黑客窃取,可能被用于监控或盗刷。

OpenAI官网明确提醒使用者:“请勿在对话中分享敏感资料。”而Google在其AI产品Gemini页面也警告使用者避免输入“你不希望审查员看到的机密信息”。


若你确实需要与AI讨论较私密的内容,专家建议采取以下安全措施:

  • 使用高强度密码。
  • 启用多重身份验证(MFA)。
  • 关闭使用历史记录。
  • 或在每次对话后手动清除内容。

Anthropic首席信息安全官贾森·克林顿也提醒,AI公司一般会在30天内清除使用者数据,建议用户主动删除对话记录,以降低风险。

上一则新闻猪肉片现绿光 顾客质疑腐烂
下一侧新闻看房“装潢太完美”还附毛巾 骗子在Airbnb假扮出租屋