人工智能有潜力彻底改变各种规模的企业,但引入这项技术也存在较高的风险。是的,您必须确保您的AI系统可靠,同时也需要保护它免受潜在的黑客攻击和侵犯。
然而问题在于,目前,AI技术尚处于发展初期,对于构建、部署和维护这些复杂系统仍然缺乏广泛适用的标准。为了推广一套统一的安全AI标准,谷歌发布了一个概念框架,名为SAIF(Secure AI Framework)。
谷歌隐私、安全和保护工程副总裁Royal Hansen和谷歌云首席信息安全官Phil Venables表示,公共和私营部门都必须采纳这样的框架,以减轻诸如机密信息被提取、黑客通过向训练数据中添加错误信息来污染系统,甚至窃取系统本身等风险。
打下坚实基础
首要之务是审视您所拥有的资源,如果您已经是一位企业所有者,那么您可能已经拥有了针对数字基础设施的行业标准保护措施。
但这些保护措施需要进行调整,以有效应对人工智能领域存在的潜在安全风险。在评估当前预防措施与您的人工智能应用案例之间的对应关系后,制定解决漏洞的计划。
例如,谷歌表示,SQL(结构化查询语言)注入是一种不断增长的网络攻击威胁,攻击者利用恶意代码突破人工智能系统的防御。
这种攻击的风险可以通过防御过滤来减轻,即自动检查提示是否符合特定标准。如果发现提示未达到接受的标准,将阻止其继续执行。
提升威胁检测速度
谷歌表示,当您的人工智能系统遭受网络攻击时(这种情况肯定会发生),最重要的是迅速应对威胁,可以通过提升对此类事件的检测来实现。
根据这家科技巨头的建议,一个值得关注的领域是创建强大的内容安全政策。由于人工智能能够从零开始创建图像、音频和视频,其产生有害内容的潜力是显而易见的。
通过制定并执行内容安全政策,您可以保护系统免受恶意使用,同时保护您的品牌。
自动化您的防御措施
为了进一步保护系统免受数据泄露、恶意内容创建和人工智能偏见等威胁,谷歌建议实施自动化解决方案,例如数据加密、访问控制和自动审计。
这些自动化防御措施非常强大,可以节约专业人员的时间,自动进行耗时的任务,例如对恶意软件二进制代码进行逆向工程。
然而,谷歌指出,在重要决策上,如确定何为威胁以及如何应对威胁,仍然需要人类参与并行使判断。
确立一致的战略
一旦您将人工智能纳入您的业务,您需要建立一个流程来定期检查该工具在您的组织中的使用情况。如果您发现组织的各个部分对技术有不同的控制或框架,您可能需要做出改变。
谷歌表示,分散的控制增加了复杂性,并在团队之间造成了严重的重叠,从而增加了成本和效率低下。
随时做好调整的准备
每天,在人工智能领域都有新的进展,这意味着威胁也在不断演变。为了不断改进您的安全性,一种方法是进行“红队”演练,这是一种由道德黑客团队尝试利用系统中的漏洞的进行测试方法。
通过这样做,您可以在坏人发现系统漏洞之前修补它们。
确定您的风险承受能力
在您实施任何基于人工智能的方案之前,您需要确定两件事:您的应用案例是什么,以及您愿意容忍多少风险。
当您明确了这些信息后,您可以使用它来开发一个流程,用于评估不同类型的第三方机器学习模型。
通过此过程,您可以确定每个模型如何与您的预期用例的匹配程度,以及与之相关的风险级别。
发布者:5840,转转请注明出处:https://www.5840.cn/lives/216.html
评论列表(0条)