雨果巴拉:行业北极星Vision Pro过度设计不适合市场

人工智能AI正在占领网络安全

编者按:AI越来越牛逼了。

YiVian讯 2016年11月24日)谷歌的机器学习系统最近创建了属于自己的加密算法,这是AI在网络安全中获得的最新成功。但当我们把数字安全越来越多地被移交给智能机器时,又将会产生怎样的影响呢?

谷歌机器学习研发部门Google Brain不久前成功通过三个神经网络之间的相互攻击,成功让系统创建了属于自己的算法。名为Bob和Alice的两个神经系统会向彼此收发消息,而第三个神经系统Eve则会试图窃取并解码消息。没人告诉它们如何加密信息,但Bob和Alice自行开发出共享的安全密匙,让Eve无法访问具体内容。

据TechCruch报道,在大多数测试中,Bob与Alice可以很快找出安全的通讯方式,让Eve无法破译密码。有趣的是,这些神经系统使用了一些特别的方法,在我们人类开发的加密系统中很少出现。

这些方法很有可能比人类所设计的最好方法还要复杂,但由于神经网络会以不透明的方式来解决问题,很难破解他们的具体运作方式。

这提出了一个问题:人类破译计算机生成的加密到底有多容易呢?据New Scientist报道,但这也很难保证这种系统到底有多安全,这有可能会限制其实际应用。此外,Eve的表现似乎也可证明了人们的怀疑:神经系统并不擅长破译加密信息。

但研究人员表示,神经网络在理解通信元数据方面和计算机网络流量分析上相当有效。许多人认为机器学习在这些领域上可为网络安全作出贡献,因为现代AI很擅长发现模式,而且跟人类相比,现代AI还可以处理更多的数据。

随着网络安全专家缺口在不断扩大,这将是巨大的市场。

在今年夏季举行的Black Hat黑客大会上,安全公司SparkCognition发布了杀毒软件DeepArmor,它可以利用AI技术不断了解新恶意软件的行为,并识别出病毒是如何发生变异以尝试绕过安全系统。

据TechCrunch报道,当前的机器学习仍然会出现大量的误报,而且无法发现许多由人类黑客发起的更为微妙的攻击。

这也是为什么许多方法都专注于让AI与人类进行协同合作。

荷兰安全厂商F-Secure与麻省理工大学计算机科学与人工智能实验室进行了合作,并开发出一套机器学习网络分流系统。该系统可过滤大量可疑的信息,大幅减少需要人类专家处理的潜在威胁。

IBM希望可以更进一步,并利用Watsons AI的自然语言处理能力,让Watsons从大量的威胁报告、研究论文和博客文章中学习。他们希望在今年年底前提供云服务,让其成为人类专家的超级助理。

全自动系统也正在取得进展。

在8月份,DARPA举行了年度Cyber Grand Challenge网络挑战赛。这是首次机器之间的黑客攻击竞赛。这些机器人会使用各种不同的AI方法,自动检测软件的漏洞,然后自行修复漏洞或利用漏洞进行攻击。

这些AI还远不够完美,有的在大部分比赛时间中都处于休眠状态,而有的则不小心破坏了自己试图保护的系统。最终获胜的机器人Mayhem继续参赛,在DEFCON黑客大会上与人类展开对决。虽然最终落败,但结果依然令人印象深刻。许多观察家对机器人的成熟度和超人般的操作速度感到惊讶。

这是一场军备竞赛,黑客们也在利用这些新技术。

美国路易斯维尔大学AI和网络安全副教授罗曼·扬波斯基(Roman Yampolskiy)在接受TechEmergence的采访时称,他已经遇过这样的程序,这些程度会利用AI自动寻找系统的安全漏洞,或是预测密码。

他说:“我们正开始看到非常智能的电脑病毒,能够修改无人机代码、改变它们的行为。”

AI的另一个优势是模拟人类的能力。

网络安全公司Darktrace技术总监戴夫·帕尔默(Dave Palmer)告诉Business Insider称,他认为智能恶意软件很快就可以利用你的电子邮件来学习你的通讯方式,并创建出看似是由你发出的被感染信息。据《金融时报》报道,黑客正在通过鼠标动作或不同的打字速度模拟人类登陆,试图绕过安全系统来访问特定网站。

在Darpa Grand Challenge之后,电子前线基金会(Electronic Frontier Foundation)警告称,自动处理漏洞的过程可能会产生意想不到的严重后果,研究人员需要达成统一的行为准则来应对这些威胁。

如果这些系统能摆脱开发者的控制,那么没人能够保证自动防御系统能够有效对抗它们。电子前线基金会指出,因为并不是所有计算机都能轻易修复漏洞,尤其是那些不经常访问或难以进行更新的物联网设备。

他们表示,研究人员需要考虑这些问题:防御工具到底有多轻易就能被改造成进攻工具?什么样的系统最容易成为攻击目标,它们到底有多脆弱?如果这些工具失去控制,最糟糕的后果是什么?

知名专栏作家维奥莱特·布卢 (Violet Blue) 在Engadet上写道,EFF的担忧为时过早,他预测真正的AI黑客可能会在30年后才会出现,过度监管只会拖慢AI技术的进步。正如Mayhem团队所说的一样:“如果你只集中于防御,你会发现自己总是处于追赶者的地位,可能永远无法超越攻击者。”

但是随着网络安全日益成为机器人之间的战争,我们应该尽早开始思考这些问题的答案。毕竟,随着技术进步,机器人的操作方式会变得越来越难以捉摸,我们可能会不知道它们到底是我们的朋友还是敌人。

引用参考singularityhub

本文链接https://news.nweon.com/24206
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯