自动驾驶技术、智能助理、人脸识别、智能工厂、智慧城市等人工智能技术现已广泛落地,这些令人难以置信的技术正在快速改变我们的生活。但相关领域安全事件也在快速增加,这使得研究人员和使用者对人工智能的安全性担忧不断提高。人工智能应用带来的红利和其引发的安全隐患,犹如一个硬币的两面,需要全行业高度关注并找到有效的应对方法。在开发过程中我们容易忽略的问题。
忽视数据隐私
在AI项目开发过程中,数据隐私保护是一个非常敏感的问题,需要额外的关注和重视,尤其是AI模型中包含有未成年人的数据时,问题就更复杂了。例如,针对青少年的一些借记卡选项,银行必须确保其安全标准符合监管合规要求。所有以任何形式或途径收集客户信息的公司都需要制定数据保护政策。这样,客户就可以知道组织如何处理他们的数据。AI服务器,国内CDN加速,DDOS防御,GPU服务器,AI安全,然而,用户如何知道他们的数据是否流入了人工智能算法的应用中?很少(或者可以说几乎没有)有开发人员会关注这些信息。
我们正在步入人工智能驱动的时代,对于个人来说,了解企业如何使用人工智能、人工智能的功能及其对数据的影响将变得非常重要。企业组织必须定期进行安全审计,并在人工智能开发的所有阶段实施强有力的数据保护实践。隐私风险可能发生在数据生命周期的任何阶段,因此为所有利益相关者制定统一的隐私安全策略非常重要。第三方数据存储监管机构,
忽视持续性监测
随着日常数据和底层模式的变化,AI模型的算法可能会过时或不那么准确。这些变化可能源于不断变化地消费者行为、市场趋势演变、竞争格局的变化、法规政策的修改等因素。这种现象也被称为“概念漂移”(concept drift)。因此,持续性地监控AI模型的性能表现和准确性是至关重要的。尽管该模型最初可能提供了准确的预测,但随着时间的推移,由于上述现实数据的变化,其准确性可能会显著降低。
为了解决这样的问题,公司需要根据实际需求持续跟踪模型的输出,并实时监控性能指标。此外,应用增量学习技术也是至关重要的。这种方法使模型能够从新数据中学习,同时保留从以前观察到的数据中获得的有价值的知识。通过采用这些策略,企业可以有效地适应概念漂移,并确保对AI模型应用需求的准确把握。
日前,安全研究人员梳理总结了目前人工智能技术在实践应用中经常要面对的7个数据安全威胁。
威胁1模型中毒
模型中毒(Model poisoning)是一种对抗性攻击形式,旨在操纵机器学习模型的结果。威胁行为者可以尝试向模型中注入恶意数据,进而导致模型对数据进行错误分类并做出错误的决策。例如,工程图像可以欺骗机器学习模型,将它们分类到与人类最初分类不同的类别中(例如,将猫的图像标记为老鼠)。研究发现,这是一种欺骗AI系统的有效方法,因为在输出之前,不可能判断特定的输入是否会导致错误的预测。
为了防止恶意行为者篡改模型输入,企业组织应该实施严格的访问管理策略来限制对训练数据的访问。
威胁2隐私泄露
隐私保护是一个敏感的问题,需要额外的关注和重视,尤其是AI模型中包含有未成年人的数据时,问题就更复杂了。例如,针对青少年的一些借记卡选项,银行必须确保其安全标准符合监管合规要求。所有以任何形式或途径收集客户信息的公司都需要制定数据保护政策。这样,客户就可以知道组织如何处理他们的数据。然而,用户如何知道他们的数据是否流入了人工智能算法的应用中?很少(或者可以说几乎没有)隐私策略包含这些信息。
我们正在步入人工智能驱动的时代,对于个人来说,了解企业如何使用人工智能、人工智能的功能及其对数据的影响将变得非常重要。同样地,攻击者可能会试图使用恶意软件窃取包含信用卡号码或社会安全号码等个人信息的敏感数据集。企业组织必须定期进行安全审计,并在人工智能开发的所有阶段实施强有力的数据保护实践。隐私风险可能发生在数据生命周期的任何阶段,因此为所有利益相关者制定统一的隐私安全策略非常重要。
威胁3数据篡改
数据操纵、暴露和篡改所带来的风险,在AI规模化应用背景下正在被不断放大,因为这些系统需要基于大量数据进行分析决策,而这些数据很容易被恶意行为者操纵或篡改。此外,算法偏见是人工智能规模化应用中所面临的另一个主要问题。人工智能算法和机器学习程序应该是客观和公正的,但事实却并非如此。
人工智能算法的数据篡改威胁是一个巨大的问题,这没有简单的解决方案,但它需要引起重视。如何确保输入算法的数据是准确、可靠且不被篡改的?如何确保数据不会以令人讨厌的方式使用?所有这些问题都是非常现实的问题,但目前行业还没有找到明确的答案。
威胁4内部威胁
就数据安全而言,来自内部威胁无疑是最危险的一种,也是代价最高昂的一种类型。根据最新的《内部威胁成本:全球报告》显示,在过去两年中,内部威胁事件的数量上升了44%,每起事件的平均损失成本为1538万美元。
内部威胁之所以如此危险,是因为他们的动机不一定是金钱,还可能是出于报复、好奇心或人为错误等其他因素。正因如此,它们比外部的攻击者更难预测和阻止。
对于那些涉及公民健康的公司来说,内部威胁无疑是更有害的。以医疗保健服务商HelloRache为例,该公司使用了AI模式的虚拟记录员(virtual scribes,协助医生处理计算机相关任务的助手)工具,因此他们可以远程协助医生护理病人,做病情记录工作。但如果内部人员找到了方法,可能会导致系统被错误连接,甚至可以监控获取患者的医疗信息。
威胁5针对性蓄意攻击
一项研究数据显示,86%的企业组织开始将人工智能作为未来数字化发展的“主流”技术,并加大投资各种数据驱动的AI技术,以帮助企业做出更好的决策、改善客户服务并降低成本。但有一个问题:对人工智能系统的蓄意攻击正在增加,如果没有适当的控制措施,它们可能会为组织带来超百万美元的损失。
“蓄意攻击”是指有目的地通过侵入人工智能系统来破坏一个组织的业务运作,目的是获取领先于对手的竞争优势。在蓄意攻击场景中,对AI和ML的数据安全威胁可能尤其具有破坏性。因为这些系统中使用的数据通常是专有的,具有很高的价值。当人工智能系统遭到针对性的蓄意攻击时,其后果不仅仅是数据被窃取,而是公司的竞争能力被破坏。
威胁6大规模采用
人工智能是正在快速增长的行业,这意味着它们仍然很脆弱。随着AI应用越来越受欢迎,并在世界范围内被采用,黑客将会找到新的方法来干扰这些程序的输入和输出。AI通常是一套复杂的系统,以至于开发人员很难知道他们的代码在各种应用情况下会如何表现。当无法预测会发生什么时,就很难阻止它的发生。
保护企业免受大规模应用威胁的最佳方法是结合良好的编码实践、测试流程,并在发现新漏洞时及时更新。当然,不要放弃传统形式的网络安全预防措施,例如使用托管数据中心来保护服务器免受恶意攻击和外部威胁。
威胁7AI驱动的攻击
研究人员发现,恶意攻击者正在将人工智能武器化,帮助他们设计和实施攻击。在这种情况下,“设计攻击”指的是选择一个目标,确定他们试图窃取或破坏什么数据,然后决定一种传输方法。非法攻击者可以使用机器学习算法寻找绕过安全控制的方法来进行攻击,或者使用深度学习算法,根据真实世界的样本创建新的恶意软件。安全专家必须不断防御愈发智能的机器人,因为一旦他们阻止了一种攻击,另一种新的攻击就会出现。简而言之,人工智能使攻击者在当前安全保障措施中寻找漏洞变得更容易。