华尔街已向员工发出ChatGPT禁令。
(资料图)
当地时间2月22日,据彭博社报道,投行摩根大通已限制员工使用ChatGPT,成为继亚马逊和几所大学之后,又一家在工作场所宣布限制使用OpenAI聊天机器人的组织。
摩根大通是第一家在工作场所限制使用ChatGPT的华尔街投行。彭博援引知情人士称,该禁令并非由特定事件或事故引发,而是该公司“对第三方软件的正常限制”的一部分,并表示,该类限制普遍存在于金融机构。不过,目前尚不清楚其他金融机构是否会跟进。
摩根大通已证实作出了上述决策,但对此未予置评。
《华尔街日报》指出,目前无法确定该银行有多少员工在使用该聊天机器人,也无法确定他们使用的目的。
公开资料显示,当下,ChatGPT是全球范围内,最火爆的消费级应用。其通过AI即时生产内容的技术形式(AIGC),实现了只需向ChatGPT提出需求,用户即刻获得信息搜索、文章撰写、代码编写、翻译等互动响应。ChatGPT出色的用户体验,被视为可以极大提升工作效率的生产力工具。
不过,新技术存在的“硬币两面性”很快引发重视,尤其是向AI聊天机器人提供数据时,安全专家提醒有必要谨慎行事。
《每日电讯报》此前报道中,安全软件公司Behavox发言人表示,“过去一个月,我们观察到,尤其是当ChatGPT涉及使用敏感或个人隐私数据时,客户对使用ChatGPT提出的担忧呈上升趋势”。Mishcon de Reya律师事务所的数据保护专家Jon Baines也表示,如果ChatGPT输出涉及个人数据的处理,使用ChatGPT的公司是否会面临违反欧盟《通用数据保护条例》(GDPR)的风险,也存在疑问。
《每日电讯报》称,投资银行正是出于对数据安全的担忧,开始对聊天机器人施加限制。咨询公司埃森哲也出于相同的原因,警告员工不要将客户信息暴露给ChatGPT。据外媒Insider报道,上个月,出于隐私考虑,亚马逊警告员工不要与聊天机器人工具共享机密信息。此外,香港大学日前向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,以回避内容剽窃风险。
彭博称,对于受到严格监管的金融机构而言,对引入任何新技术的谨慎态度是可以被理解的,据了解,在2021年和2022年期间,美国监管机构就其员工未经授权使用私人信息服务,向十几家银行发出了总计超过20亿美元的罚款。