福布斯技术委员会发布20条AI时代企业数据隐私最佳实践
2023-12-6 19:7:20 Author: 谈思实验室(查看原文) 阅读量:1 收藏

在各个行业中,人工智能正在以各种方式悄然(而不是那么悄然)增强业务运营,从简化流程到改善客户体验(以及介于两者之间的一切)。然而,有效的人工智能解决方案需要数据,而其中大部分数据包含敏感的客户或专有业务信息。

随着人工智能越来越多地融入日常运营中,组织需要确保他们建立并遵循稳健、全面的数据隐私实践,并且他们所服务的客户需要知道他们这样做。下面,福布斯技术委员会的 20 名成员讨论了每个企业都应该了解和采用的基本、有效的数据隐私实践。

实现数据匿名化

人工智能时代组织的一项重要最佳实践是实施强大的数据匿名化技术。通过有效地匿名化敏感数据,企业可以保护个人隐私,同时仍然利用数据集中的宝贵见解。这可确保遵守隐私法规并建立与客户的信任。

--Akaash Ramakrishnan,AdSkate 公司首席运营官

采取零信任方法

对于组织来说,对人工智能采取零信任方法变得越来越重要,尤其是随着生成式人工智能的出现。人工智能工具和第三方服务应根据公司隐私和安全政策进行审查,以确保供应商和服务提供商不会使组织、员工和客户面临风险和漏洞。尽早让法律顾问参与进来。

--Leonard Lee,next Curve 创始人兼任执行分析师

仔细评估人工智能服务的安全性

组织需要像评估其他云提供商一样评估人工智能服务。寻找他们的安全认证、渗透测试结果和信任中心。这是每个企业之间共同安全责任的一部分,但请确保您确切地知道您正在分担哪些责任以及对您的数据和隐私采取了哪些保护措施。

--Lee Mangold,Fortress 信息安全 首席信息安全官兼安全副总裁

应用强大的数据治理实践

在将数据隐私应用于数千个包含数据的字段之前,请开始分析哪些字段对业务很重要并对它们应用数据治理。通过向上游查看,确保您了解它们是如何填充的。努力清理这些数据。查看您现有的控制措施:验证规则、数据隐私、数据如何通过屏幕更新、自动化和导入。

--Ian Gotts,Elements.cloud 创始人兼首席执行官

将“最后一英里”的决定委托给人类

人工智能显着提高了效率和优化,但认识到人类直觉和判断的价值至关重要。在采取任何果断行动之前,只有人类才应该承担“最后一英里”的决定。这将技术的精确性与人类智能融合在一起,防止潜在的偏见、错误或疏忽,并保持对人类智能的理解深度。

--尼克·赫伯特,富士通 全球政府与公共安全高级总监

删除不必要的敏感数据

在当今日益由人工智能驱动的商业世界中,保护数据隐私的一个关键做法是在将数据用于人工智能算法之前仔细地从数据集中删除不必要的敏感信息。这一重要步骤有助于防止意外共享或滥用隐私敏感数据,最终加强组织对现代企业中负责任的人工智能使用的承诺。

--Jeff White,Gravy Analytics 创始人兼首席执行官

从设计上考虑隐私

采用“隐私设计”方法至关重要,确保隐私不仅集成到人工智能中,而且还集成到业务运营和其他技术产品中。这是为了让隐私成为默认标准,而不是事后的想法。这种整体方法是成功保护数据隐私的关键。

--阿伦·库马尔,Revature 信息技术主管

限制和监控生成式人工智能的使用

我公司倡导以下两个核心原则,以确保专有数据的安全性和保密性。首先,最初仅将生成式人工智能应用于封闭数据集,以确保所有数据的安全性和机密性。其次,确保利用生成式人工智能的用例的开发和采用受到专业人员的监督,以确保人类参与其中。

--维韦克·杰特利,EXL  执行副总裁兼全球分析主管

使用强加密方法

对于在业务流程中使用人工智能的公司来说,数据加密是至关重要的数据隐私最佳实践。它需要使用强大的加密方法来保护传输和存储过程中的敏感数据。这个额外的安全层可以保护数据免受潜在的破坏和不必要的访问,从而减少隐私问题和数据泄露。

--Neelima Mangal,Spectrum North 技术主管| 联合创始人

提高透明度

提高透明度是人工智能从业者可以做的最重要的事情之一,以促进数据隐私并确保整体上更加道德和值得信赖的人工智能开发。您需要向用户提供有关人工智能运行方式的透明度和保证,包括如何优先考虑数据隐私以及如何减少或消除偏见。

--迈克布里顿,Abnormal Security 首席信息安全官

使用 PII 进行培训时要小心

理想情况下,不要在训练数据集中包含个人身份信息。如果有必要,请在使用人工智能时实施强大的数据匿名技术来保护隐私。这可确保敏感信息被去识别化,同时保持数据实用性并遵守隐私法规。

--Vivek Bhandari 博士,Powerledger 首席技术官

建立治理框架

建立人工智能可接受使用的治理框架,及时审查历史记录并处理敏感数据。实施教育、用例和监督的政策和程序。传达数据使用限制和质量保证要求,尤其是在使用在线人工智能模型时。这些实践增强了人工智能驱动的业务流程中的数据隐私和安全性。

--Cristian Randieri,Intellisystem Technologies 创始人

发布人工智能道德宪章

人工智能和透明度的融合带来了信任。通过发布人工智能道德宪章,组织阐明了其对数据隐私的奉献精神。透明的人工智能道德章程不仅仅是一份文件;约定了。通过公开共享,组织宣布其对道德数据实践的坚定承诺,向利益相关者保证他们的信息受到尊重和保护。

--Justin Goldston,环境资源管理 - ERM 供应链合作伙伴- ERM | 教职员工和研究生顾问委员会 - 乔治城大学

实施身份治理和管理政策

组织为确保数据隐私并满足合规性要求而必须采用的一项最佳实践是为人类和机器用户实施身份治理和管理策略。IGA 政策帮助公司管理和控制用户可以访问哪些信息以及可以使用这些信息做什么。最好的解决方案将自动报告欧盟的《通用数据保护条例》、《加州消费者隐私法》、《健康保险流通和责任法》以及其他法规。

--Jim Taylor,RSA 安全公司 首席产品官和首席技术官

避免使用第三方人工智能工具

随着人工智能的日益普及,数据隐私变得至关重要。明智的做法是避免使用可能存储并可能使用您的数据的第三方人工智能工具。相反,请考虑开发内部人工智能解决方案和/或利用以其数据安全功能而闻名的区块链技术。虽然人工智能对于端点保护和响应很有价值,但应谨慎管理维护数据完整性。

--Sheraz Ahmed,STORM 合作伙伴 管理伙伴

隔离第三方数据

公司必须避免将第三方数据与其他数据源混合;它必须被隔离并建立在自己的平台上。如果公司能够做到这一点,那么有效地设置和管理安全设置就会变得简单。因此,数据受到保护,平台能够独立运行,同时在必要时仍可同时利用。

--凯文·帕里克,Avasant 董事长兼首席执行官

左移数据治理

当数据治理在数据访问链中应用得太晚时,管理数据治理就非常困难。组织应该在捕获和存储数据之前尽早制定保护数据访问的策略和策略。通过在创建数据时融入数据治理,组织可以提供既灵活又安全的数据访问策略。

--戴夫·马里亚尼 (Dave Mariani),AtScale 首席战略官

教育员工

教育、教育、教育!这是组织必须采取的保护数据隐私的最关键方法。大多数员工并不想造成伤害,但他们可能没有意识到,与生成式人工智能工具的看似私密的“对话”实际上可能会被平台提供商访问。实施政策是必然的,但教育员工是防止数据泄露的最关键做法。

--Satpreet Singh,Aflac 福利解决方案 首席数字顾问

实施定期审核

实施定期审计并确保持续遵守 HIPAA 和 GDPR 等数据保护法规至关重要。我们执行严格的数据存储、传输和处理机制审核政策,确保它们符合所有相关法律框架。这不仅可以保护数据,还可以增强应用程序在用户和利益相关者之间的可信度和信任。

--Marc Fischer,Dogtown Media LLC 联合创始人兼首席执行官

混淆数据

组织应考虑实施人工智能数据混淆:在数据集中故意引入微小的错误,使它们对恶意意图毫无用处,但保留其对人工智能流程的实用性。这种微妙的改变有助于维护数据隐私,使原始数据提取的价值降低,同时仍然能够实现准确的人工智能驱动的见解和预测。这是一种平衡实用性和安全性的方法。

--Marc Rutzen,HelloData.ai 首席执行官兼联合创始人


文章来源: http://mp.weixin.qq.com/s?__biz=MzIzOTc2OTAxMg==&mid=2247529995&idx=1&sn=b8a523171ab159a3b27c8193623c5448&chksm=e92732d0de50bbc679fd871830a9885a2d0ec3549d5c2cab4ecbf97ab49c19a95291ee95ae67&scene=0&xtrack=1#rd
如有侵权请联系:admin#unsafe.sh