三星禁止员工使用ChatGPT generative AI进入公司,需要采取良好的安全措施。

干货分享10个月前更新 Youzhizhan
914 0


最近,三星等大公司出于对数据安全的担忧,开始禁止员工使用ChatGPT等AI工具。

三星禁止员工使用ChatGPT generative AI进入公司,需要采取良好的安全措施。

最新的调查报告显示,超过70%的公司在部署生成型AI时仍处于”探索”阶段。这意味着开发大规模语言模型的AI开发人员需要确保其产品具有适当的数据安全机制,以满足企业用户。

最近,三星等大公司出于对数据的担忧,开始禁止员工使用ChatGPT等AI工具security.An 分析师表示,如果像微软这样的供应商希望这项技术取得成功,他们需要设计并提供为企业量身定制的解决方案。

三星禁止员工使用ChatGPT generative AI进入公司,需要采取良好的安全措施。

三星禁止员工使用ChatGPT,衍生式AI面临数据泄露风险

自上个月源代码泄露以来,三星已命令其员工避免使用聊天GPT,Bing和Google的Bard等AI工具。此前,其他科技公司也发布了类似的声明,表达了对使用生成式AI的数据安全性的担忧。

OpenAI最近证实,它正在为企业用户开发特定版本的ChatGPT平台。 该平台禁止企业用户通过以下方式在ChatGPT再培训中使用对话default.It 目前尚不清楚这是否足以解决大型企业客户的安全问题,但这些公司的高管显然渴望采用这项技术。

根据Gartner对2,500名行业高管的调查,45%的受访者认为ChatGPT推动了AI投资,70%的受访者表示他们的组织正在研究部署生成式AI的方法,19%的受访者已经处于实验或

Gartner副总裁分析师Frances Karamouzis表示:”用户对采用生成式AI的痴迷并没有减弱的迹象。许多行业组织都在争先恐后地决定投入多少资金用于生成式AI解决方案,哪些产品值得投资,何时开始,以及如何降低这种新兴技术带来的风险。”

最能说明问题的是,68%的受访者认为生成式AI的好处大于风险,只有5%的受访者认为使用这项技术的风险大于收益。

随着对生成式AI的投资加深以及数据安全的影响变得更加明显,这些情况可能会发生变化,就像三星面临的安全困境一样(该公司正在建立自己的AI模

总的趋势是,避免生成AI可能比部署AI更困难

尽管全球经济放缓和科技行业大规模裁员,但只有17%的受访者表示成本优化是投资AI的主要原因,客户体验是最重要的重点。

随着微软等公司通过Copilot在其CRM和Office365套件中部署AI,Salesforce也将聊天机器人技术添加到其全套产品中。 避免生成型AI可能比部署AI更困难。

Gartner副总裁兼分析师Avivah Litan表示,公司在使用公共大规模语言模型时面临多重风险,但有一些方法可以降低风险,包括确保他们有能力自动过滤错误信息,幻觉

她说,公司还需要确保大型语言模型供应商提供可验证的数据治理和安全保证,以确保传输到大型语言模型的机密公司信息不会被compromised.In 在透明度方面,还必须确保任何使用符合GDPR法规和欧盟AI法案等立法。

她解释说:”在满足这些要求之前,我们看到的是,谨慎的公司要么限制员工访问聊天(由于个人设备的存在,这是不可能的),要么允许有节制的实验使用,以避”

人们对部署生成型AI技术的兴趣在于其潜在的好处,特别是来自在昂贵且广泛的数据集上训练的公共模型。Litan说,”OpenAI和第三方开发的大规模语言模型的巨大价值在于用于训练它们的大量数据以及运行它们所需的庞大而复杂的超级计算机功能。公司根本没有资源来重建这些有价值的模型。”

对于OpenAI,Microsoft以及任何想要部署此技术的供应商,解决方案是通过共享安全责任协议创建技术工具。如果机密数据被泄露,供应商应该被追究责任,这也是他们前进的道路。

[ad]
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...