Kubernetes的这些原理
“事实上,世界各地大多数人工智能模型的最大风险并不在人工智能中,”人工智能机构Urvin AI的产品经理、国际非盈利安全研究机构ISECOM的联合创始人Peter Herzog说。他说,问题出在人的身上。“没有一个人工智能模型是没有安全问题的,因为是人们决定了如何训练他们,是人们决定了包括什么数据,是人们决定了他们想要预测什么,是人们决定了暴露多少信息。” AI和ML系统特有的另一个安全风险是数据中毒,攻击者会将信息馈送到系统中,迫使系统做出不准确的预测。例如,攻击者可以通过向系统提供具有与恶意软件类似指标的合法软件示例,诱使系统认为恶意软件是安全的。 Raff说,这是大多数组织高度关注的问题。“现在,我还不知道有任何人工智能系统在现实生活中受到了攻击,”他说。“这是一个真正的威胁,但现在攻击者用来逃避杀毒的经典工具仍然有效,所以他们不需要变得更加花哨。” 避免偏差和模型漂移 当AI和ML系统用于企业安全(例如,用户行为分析、监控网络流量或检查数据过滤)时,偏差和模型漂移也会带来潜在风险。低估特定攻击或很快过时的训练数据集会使组织易受攻击,尤其是在越来越依赖人工智能进行防御的情况下。“你需要不断更新你的模型,”Raff说。“你需要让它成为一个连续的东西。” 在某些情况下,训练可以是自动的。例如,使模型适应不断变化的天气模式或供应链交付时间表,可以帮助它随着时间的推移而变得更加可靠。当信息源涉及恶意参与者时,就需要小心的管理训练数据集,以避免中毒和被操纵。 企业已经在处理产生伦理问题的算法了,比如当进行面部识别或招聘平台歧视女性或少数民族时。当偏见渗透到算法中时,它也会产生合规性的问题,而在自动驾驶汽车和医疗应用的情况下,甚至还会导致人员死亡。 就像算法可以在预测中注入偏差一样,它们也可以用来控制偏差。例如,Othot在帮助大学实现优化班级规模或实现财务目标等。在没有适当约束的情况下创建模型就很容易产生偏见,Othot的Abbatico说。“对偏见的核算需要更加勤奋。添加与多样性相关的目标将有助于建模理解目标,以及消除偏差,如果不将多样性目标作为约束条件纳入数据录取中,这种偏见就很容易被纳入。” AI的未来是阴云密布的 AI和ML系统需要大量的数据、复杂的算法和强大的处理器,以便在需要时进行扩展。所有主要的云供应商都致力于提供一个数据科学平台,将一切都放在一个方便的地方。这意味着数据科学家将不需要等待IT来为他们提供服务器。他们只要上网,填几张表格,然后就可以开始做生意了。 根据德勤的人工智能调查,93%的企业正在使用某种形式的云计算人工智能。“这会让入门变得更容易,”德勤的Loucks说。这些项目随后变成了操作系统,而随着规模的扩大,配置问题也成倍增加。有了最新的服务,集中式、自动化的配置和安全管理仪表板就可能不再可用,公司必须自己编写,或者等待供应商来填补空白。 当使用系统的人是公民数据科学家或理论研究人员时,因为他们没有强大的安全背景,就可能会是一个问题。此外,供应商历来都是首先会推出新的功能,其次才是安全性。当系统快速被部署,然后更快速地进行扩展时,就可能是一个问题。我们已经在物联网设备、云存储和容器上看到了这种情况。 人工智能平台供应商越来越意识到了这种威胁,并从错误中吸取了教训,Raff说。“考虑到历史上‘安全第一’的思维方式,我看到包括安全在内的计划会比我们预期的来的更加积极,”他说。“ML社区对此也比较关注,滞后时间可能会更短。” 德勤的首席人工智能联席主管Irfan Saif对此表示赞同,尤其是在支持大型企业人工智能工作负载的主要云平台方面。“我会说,是的,就网络安全能力的发展而言,它们可能会比以前的技术更加成熟。” 人工智能项目的安全清单 以下清单有助于确保人工智能项目的安全,来自德勤的企业人工智能现状第三版: •保留一个所有人工智能实现的正式清单 •将AI风险管理与更广泛的风险管理努力相结合 •由一名高管来负责人工智能的相关风险 •进行内部审计和测试 •使用外部供应商进行独立审计和测试 •培训从业人员如何认识和解决人工智能的道德问题 •与外部各方合作,建立领先的人工智能道德规范 •确保AI供应商提供无偏见的系统
•建立政策或董事会来指导人工智能伦理 (编辑:南通站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |