从有电脑开始,就有理论指出电脑病毒的可能,恶意程式的历史与电脑一样久,用近期热门科技 AI 来侦测恶意程式也成显学。但资安专家警告,如果不注意 AI 训练资料的局限性,将受制于资料,容易做出错误的结果出来。
在 12 月 12 至 13 日举行的 HITCON Pacific 大会上,大会演讲上奥义智慧创办人邱铭彰 Jeremy 提及 AI 训练不够严谨的状况。像是喂给 AI 的资料多样性不够,会造成算法训练出问题。像是用虎斑猫来训练 AI 辨识,如果突然叫训练好的 AI 看酪梨的照片,由于酪梨的颜色很像虎斑猫,很大的机会将酪梨辨识成虎斑猫。
如果上述例子要训练好的 AI 辨识浩克的图片,可能也会不小心辨识成完全不同的事物。这就告诉我们训练样本的多样性其实是相当重要的事情。尽管辨识图片还不是什么生命攸关之事,但 AI 用在民生相关之事,AI 的训练也就要越严谨。
▲ 讲者提及 AI 的盲点,人类能轻易辨别之物,对机器却是相当困难,需有充分有代表性的训练资料才不会出错。(Source:科技新报)
自驾车是时下热门的技术,而且将是实际生活中最贴近人生活的 AI。近期特斯拉的镜头辨识不出三角椎,导致车子没有像人类驾驶看到三角椎减速甚至停下来,最终造成车祸。
回到防毒程式运用 AI 的例子,Jeremy 则举最近防毒公司推销用 AI 做行为分析型的防护方案,却不是万灵丹。你以为你的办公室环境是干净的,拿来当背景值训练算法找出异常行为。却忽略公司网络早已经是毒窟了。行为分析再怎么做,分析网络流量也纠不出异常连线。
Jeremy 还提及 AI 为基础的防毒软件还有时候遇到简单状况误判的情形,简单的 Hello World 程式,却因为非正规写法,被误判成恶意程式。
不少人想靠 AI 去分析股票走势,却由于自己是局内人也在做交易,所以预测结果并不准。反倒是可以从大户的交易行为,训练算法预测大户未来的交易行为。或者是不要做精准的股票指数预测,预测是涨或是跌的走势。
整场演讲告诉我们台下的听众,AI 并非万灵丹,而且需要很坚强的统计学基础。在防毒程式中就是会漏掉,像是型 1 错误,实际上有恶意程式存在,却没被侦测到。如果不注意资料问题,所谓 garbage in garbage out,反映输入资料的本质,像是人类偏见影响资料而误判。
(首图来源:科技新报)