无人驾驶还有哪些坎儿——访中国工程院院士郑南宁
文库划重点:下围棋属于逻辑推理脑力劳动,而驾驶汽车却是感知、运动等结合的脑力劳动。人类经过驾校训练,相对容易就可以掌握这个技能,但是用机器实现它却遇到了艰难挑战。这种情况在人工智能领域被称为莫拉维克悖论。“它意味着人类觉得简单的事情,计算机却难做到,人类觉得难度大的事情,计算机却完成得很轻松。”主要面临对环境的可靠感知、预行为理解、应对意外等方面的难题。
现如今,人工智能已经在下围棋方面胜出,可在驾驶汽车时,却似乎比人类显得笨拙。今年美国的一辆无人驾驶汽车在城市道路上做实验时,将一位横穿马路的行人撞倒。这起事故,也让这一备受热捧的新技术受到一些争议。无人驾驶下一步该从哪些技术角度进行完善,我国的无人驾驶技术近来有哪些进展?日前,在由中国自动化学会主办、西安交通大学承办的2018中国自动化大会上,中国工程院院士郑南宁对此进行了解读。
乘客在上海交通大学校园内体验实验性运行的无人驾驶小巴。新华社发
人类擅长感知预测 计算机擅长逻辑推理
下围棋属于逻辑推理脑力劳动,而驾驶汽车却是感知、运动等结合的脑力劳动。人类经过驾校训练,相对容易就可以掌握这个技能,但是用机器实现它却遇到了艰难挑战。
这种情况在人工智能领域被称为莫拉维克悖论。“它意味着人类觉得简单的事情,计算机却难做到,人类觉得难度大的事情,计算机却完成得很轻松。”郑南宁说,早在20世纪80年代,人工智能研究者就发现了这个挑战,对计算机而言实现逻辑推理等人类高级智慧只需要相对很少的计算能力,而实现感知、运动等智慧行为却需要巨大的计算能力。
这种情况是由二者的基本特性决定的。如果把人脑和计算机做一个比较,计算机显然是在逻辑性、可重复性和规范性方面超过了人类,但是人类的大脑具有动态性、复杂性,还具有创造性和想象力。“人类思维是在记忆经验和知识的基础上进行预测、模式分类以及学习的。特别要注意这个预测能力,每个人的大脑中都有预测的模型,所以说从本质上来讲,大脑就是一个预测的机器,而对于驾驶行为而言,预测能力非常重要。”郑南宁说:“但计算机要实现这种预测则非常困难。”
无人驾驶没那么快进入生活
从对错误的容忍度来说,人工智能系统可以分成两大类:一类犯了错误可以重来,另一类在统计意义上不能够犯错误,无人驾驶属于后者。
从这一现实来看,郑南宁认为当前的无人驾驶技术主要面临对环境的可靠感知、预行为理解、应对意外等方面的难题。
“对环境的可靠感知,也就是说无论在任何路况和天气状况下,无人驾驶汽车都能准确而周密地感知周围环境。”郑南宁说,而预行为理解即对对方可能产生的行为进行准确的预估和判断,另外还有就是对意外遭遇的处理,包括如何对交警的手势作出反应,如何应对突然从路边闯进一个小孩等意外情况。“这样的突发异常情况是无人驾驶必须要解决的,但目前还无法事先为这类场景编码,也无法用简单的基于规则的模型来应对。”
郑南宁表示,针对这些难题所开展的尝试,需要把深度学习网络、长短期记忆、选择性注意机制以及提取知觉物体等技术,整合在基于认知计算引擎的自主驾驶系统中,这是无人驾驶研究领域值得研究的方向。
他介绍说,在11月份由国家自然科学基金委员会组织的2018中国智能车未来挑战赛上,西安交通大学研制的“先锋号”智能汽车进入高架道路后,平稳汇入多辆有人驾驶车辆的自然车流。这辆无人驾驶实验车还在没有GPS信号的情况下,在高架桥下的地面道路,由计算机自主驾驶通过了S形的弯道和各种路障。
尽管取得了这些进展,但郑南宁认为对无人驾驶仍然应该保持冷静,并没有那么快就进入生活。“真实的交通环境复杂多变,实现完全自主的无人驾驶是一个令人兴奋却又望而生畏的艰难挑战。”
发现人工智能的突破点还需更多时间
那么,最终有没有可能找到一种终极算法,能使某种智能不仅能完成单一的任务,还能具有非常强大的普遍适应性能力,来解决无人驾驶等任务呢?
郑南宁表示,未来需要从脑认知和神经科学研究中得到启发,发展一种新的学习机器。
“将神经科学和脑认知作为新的机器学习算法和架构的灵感来源,使用这些知识来帮助我们思考在人工智能系统中如何实现同样的功能,是未来人工智能发展重要的研究方向之一。”郑南宁说,“我们需要更多时间来发现受脑认知和神经学科启发的人工智能突破点在哪里,也需要多学科的实验科学家和理论科学家的合作。”
他同时提醒,面对近年来人工智能的热潮,更应该将基础研究建立在严谨的理论、模型建造、实验验证与分析的基础上。
“如果让社会的期望值过高,又没有达到预期的目标,它就有可能给学科发展带来低潮,甚至是灾难性影响,使最初期望的目标成为‘皇帝的新衣’。”郑南宁说:“面对人工智能的研究与其在无人驾驶等领域的应用热潮,我们需要保持冷静的思考,踏踏实实推进基础研究和实验验证。”
《光明日报》( 2018年12月07日 08版)
收录于哈希力量,手机站省略本文固定网址