出于安全考虑 三星电子禁止员工使用ChatGPT等工具;AI 语音诈骗横行,只需 3 秒钟的音频就能模仿任何人的声音
2023-5-3 10:40:42 Author: 黑白之道(查看原文) 阅读量:14 收藏

出于安全考虑 三星电子禁止员工使用ChatGPT等工具

IT之家 5 月 2 日消息,据彭博社周一报道,三星已在内部备忘录告知员工,停止使用 ChatGPT 和 Bard 等生成式 AI 工具,理由是担心会带来安全风险。

此举是在上个月发生代码泄露事件后的“亡羊补牢”举措,此前消息称,三星电子引入聊天机器人 ChatGPT 不到 20 天就发生了 3 起涉及 ChatGPT 的事故,其中 2 起与半导体设备有关,1 起与会议内容有关。

报道称,内部备忘录表示,三星担心传输到谷歌 Bard 和微软 Bing 等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。

内部备忘录还显示,三星上个月进行了一项关于内部使用 AI 工具的调查,其中 65% 的受访者认为此类服务存在安全风险。备忘录透露,今年 4 月初,三星工程师将内部源代码上传到了 ChatGPT,目前还不清楚这些信息包含什么。

与此同时,三星正在开发自己的内部 AI 工具,用于翻译和总结文件以及软件开发,还在研究阻止敏感公司信息上传到外部服务的方法。“总部正在审查安全措施,以创造一个安全的环境,以安全地使用生成式 AI 来提高员工的生产力和效率。但是,在准备好这些措施之前,我们暂时限制生成式 AI 的使用。”

三星的新政策禁止在公司自有的电脑、平板电脑和手机以及内部网络上使用生成式 AI 系统,不会影响销售给消费者的设备,例如 Android 智能手机和 Windows 笔记本电脑。三星甚至在消费者设备中积极推广生成式 AI,据IT之家此前报道,三星近日向旗下所有的手机以及平板电脑产品推送了微软 Bing AI 更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软 Bing AI。

三星代表向彭博社证实这一份内部备忘录。三星在备忘录中表示:“我们要求您认真遵守我们的安全指南,否则可能会导致公司信息泄露,违者进行纪律处分,甚至包括解雇。”

AI 语音诈骗横行,只需 3 秒钟的音频就能模仿任何人的声音

IT之家 5 月 2 日消息,网络安全公司 McAfee 最新发布的一份报告显示,越来越多的人被人工智能(AI)语音诈骗所骗。调查发现,10% 的成年人曾经被这种诈骗方式针对,另外 15% 的人认识有人被骗过。

令人震惊的是,AI 只需要三秒钟的音频就能模仿任何人的声音。这样一来,不法分子就可以利用这种技术给受害者留下假的语音邮件,或者冒充他们的好友打电话给他们。在受害者中,有 77% 的人表示在诈骗中损失了钱财,其中三分之一的人损失了超过 1000 美元(IT之家备注:当前约 6930 元人民币),还有 7% 的人损失了 5000 到 15000 美元之间的大笔钱款。

McAfee 首席技术官 Steve Grobman 称:“人工智能带来了难以置信的机会,但任何技术都有可能被恶意使用。这就是我们今天所看到的,AI 工具的获取和使用变得越来越容易,也让网络犯罪分子能够以更加难以识破的方式进行诈骗。”

那么,你该如何保护自己不受这种诈骗的侵害呢?McAfee 给出了一些建议,首先,其建议你和你的联系人建立一个暗号,这样你们就可以用暗号来确认对方是真人而不是 AI 伪造的。另一个建议是质疑来源,如果你对来电有所怀疑,你应该立刻挂断电话,并用你保存的电话号码回拨给对方,这样你就大概率可以避免被骗。

文章来源 :IT之家

精彩推荐



文章来源: http://mp.weixin.qq.com/s?__biz=MzAxMjE3ODU3MQ==&mid=2650569009&idx=1&sn=44194a9432d3b2537f5c832cf3fe3609&chksm=83bd1cd5b4ca95c339a602abed6e65305e74fd789805eb11003407e27461ec45388ce42ff316#rd
如有侵权请联系:admin#unsafe.sh