目 录CONTENT

文章目录

摩根大通限制员工使用 ChatGPT

ByteNews
2023-03-18 / 0 评论 / 3 点赞 / 5,825 阅读 / 1,033 字 / 正在检测是否收录...
温馨提示:
本文最后更新于 2023-03-18,若内容或图片失效,请留言反馈。部分素材来自网络,若不小心影响到您的利益,请联系我们删除。

摩根大通限制员工使用 ChatGPT

由于对敏感数据暴露越来越感到紧张,华尔街开始限制员工使用 ChatGPT。据媒体最新报道,摩根大通已限制其员工使用 ChatGPT 聊天机器人。此前拥有 70 多万员工的科技咨询公司埃森哲也警告员工不要将客户信息暴露给 ChatGPT 等聊天工具。

近几个月来,ChatGPT 成为了一种互联网现象级焦点,从莎士比亚风格的诗歌创作到创建股票投资组合,它的未来潜力引发了人们的热议。有分析认为,ChatGPT 将对多个行业产生影响,华尔街似乎也不能例外,从财务规划到股票交易,ChatGPT 将从多个方面影响华尔街。

一些公司已经开始尝试使用这类工具来提高工作效率。然而,数据安全和法律专家表示担心,与聊天机器人共享的信息可能会被用于微调它们的算法,或者可能被付费检查其答案的外包工人访问。

受到严格监管的银行和金融机构纷纷在员工使用这项新技术时设置了护栏。分析称,银行和金融机构对引进任何新技术的谨慎态度都是可以理解的。在 2021 年和 2022 年期间,美国监管机构向 12 家银行发放了总计超过 20 亿美元的罚单,原因是它们的员工未经授权使用私人短信服务。

还有人担心聊天机器人的准确性。虽然聊天机器人被设计成能写出类似人类的句子,但它们很难区分事实和错误信息。它们也可以被哄骗提供看似精神错乱的答案,比如威胁测试这项服务的人类,或者出现完全荒谬的回答。微软的搜索聊天机器人 Bing 就在其官方发布活动中被发现提供了完全不准确的答案,而微软团队却没有发现,例如在被要求总结财务收益新闻稿时编造数字。

据媒体报道,上个月,出于隐私考虑,亚马逊警告员工不要与聊天机器人分享机密信息。亚马逊的一名律师警告员工:“我们不希望它的输出包含类似我们的机密信息(我已经看到它的输出与现有材料非常相近的例子)。”安全专家敦促在向人工智能聊天机器人提供数据时要谨慎。

与大型银行和金融机构合作监控内部安全风险的技术公司 Behavox 的发言人表示:“在过去一个月里,客户对 ChatGPT 的使用提出的担忧呈上升趋势,特别是在涉及使用私人或专有数据时。”

律师事务所 Mishcon de Reya 的数据保护专家 Jon Baines 表示,还有人质疑,如果该软件大量提供不准确的信息,使用 ChatGPT 的公司是否有违反数据法的风险。

Baines 表示:

“如果机器人的输出涉及个人数据处理,那么问题就来了,这种不可避免的不准确处理在多大程度上可能违反了《通用数据保护条例》(GDPR)要求准确处理个人数据的规定。”

3

评论区