从医学教科书中汲取灵感可以提供更强大的机器学习系统

2019-07-26 09:38:14

与预防疾病疫苗相同的编程技术可以保护机器学习系统免受恶意网络攻击。该技术由澳大利亚国家科学机构CSIRO的数字专家组开发,最近在美国加利福尼亚州长滩举行的机器学习国际会议上发表。

机器学习系统或神经网络在现代社会中变得越来越普遍,在现代社会中,它们被广泛应用于交通管理,医疗诊断和农业等领域。它们也是自动驾驶汽车的关键部件。

它们在初始训练阶段运行,在该阶段中,它们被馈送给定任务的数万次可能的迭代。然后,由此产生的算法具有学习的能力 - 增加其自身的可能性并相应地采取行动,而无需进一步的人为输入。

然而,尽管它们是高效的,机器倾斜系统 - 像任何计算机驱动的机制 - 仍然容易受到黑客攻击。发生这种情况的主要方式是引入“噪声” - 干扰和扭曲输入信号的附加数据点 - 这样外部元素就会被错误分类。

该方法在业务术语中称为将“对抗性示例”引入系统。通过添加噪声(并且通常不是非常大的噪声),可以将机器学习算法误导为将熊猫的图像分类为长臂猿的图像。

更有针对性的是,鉴于自动驾驶汽车的兴起,他们可以被黑客攻击并说服将停车标志归类为绿色交通灯。

使机器学习系统具有抗破坏性是一个生动的研究领域,最近的研究发现,现实世界的例子很容易被使用,而不是使用比智能手机相机更复杂的东西。

由Richard Nock领导的研究人员采用的最新方法从公共卫生中获得了启发。

在医学上,接种疫苗的做法取决于将身体的免疫系统暴露于病原体的弱或死版本(例如导致流感或脊髓灰质炎的病毒)的合理想法,促使特定抗体的发展。然后免疫系统“记住”病原体,以便下次遇到它时 - 全力和真实 - 它会识别它并立即消除它。

Nock和同事以同样的方式接近他们的任务。

“我们的新技术使用类似于疫苗接种的过程来防止对抗性攻击,”他解释道。

“我们实施对手的弱版本,例如对图像集合的小修改或失真,以创建更”困难“的训练数据集。当算法针对暴露于小剂量失真的数据进行训练时,得到的模型更加强大并且不受对抗性攻击。“

该方法仍处于早期阶段,尚未在真实情况下针对真正的恶意入侵企图进行测试,但结果很有希望。它们在此处提供的预印纸中详细描述。

虽然显然需要进行更多的检测,但现阶段没有证据表明疫苗接种可能会导致计算机自闭症。