AI歧视我们 或者我们歧视AI?

导读:另一个方面,我们总在说算法歧视了我们,人类是否也在歧视算法呢? 一个广为人知的自动驾驶的反对论,有一个著名的无人驾驶车实验,在一次驾驶事故中,一辆车不得不往左或者往右拐,左边有一个人,右边有4个人,这个时候无人驾驶的人工智能应该怎么选择呢?...

另一个方面,我们总在说算法歧视了我们,人类是否也在歧视算法呢?

一个广为人知的自动驾驶的反对论,有一个著名的无人驾驶车实验,在一次驾驶事故中,一辆车不得不往左或者往右拐,左边有一个人,右边有4个人,这个时候无人驾驶的人工智能应该怎么选择呢?或者进一步讲左边是一个小孩,右边是4个老人,这个时候又应该怎么选呢?人工智能的反对者会指出,无论无人驾驶车怎么选,都会存在伦理道德上的问题。而如果这辆车是人驾驶的,无论他/她怎么选都不存在这个问题。

当然,我们必须承认,人类司机的民事责任承担能力是支持人类成为决策主体的基矗问题是,AI也并不是做判断的主体,做判断的背后是这个无人驾驶AI的算法设计者(训练者,以及训练数据),如果这个算法完全学习和模拟了人类最佳(最常见的,最合理的)决策模式,那为什么这个算法就要被反对,基于人类反应的方式就可以接受呢。也许我们可以说,因为人类驾驶员受过了严格驾校训练,驾照考试,他/她的行为是受整个交通制度背书的,出了事故,排除人的原因,责任应该是整个交通系统。

那如果自动驾驶程序也经过无数训练,认证,而且所有这些过程数据都可以被人类溯源和认证呢?反对者们还是会说,不行,人工智能来做判断就是不行。这在笔者看来,就是"技术种族主义者",非我族类,其心必异。当然无人驾驶还存在一些风险和弱项,比如人可以判断地上的遮挡物是石头,还是塑料袋,是小鸭子还是小鸟,从而可以决策是需要减速停车,还是可以一脚油门过去,但这些都不超越技术范畴,通过技术升级都是可以克服的。

核心的问题还是,我们能不能接受算法在在危急时刻的应急反应能够接近甚至超越人类?事实上,因为不受情绪和环境干扰因素的的影响,AI在需要紧急反应时,高概率比人类反应更理性更有机会降低事故损失,在V2X普及后,车车,车路,车人等之间的通讯,更可以保险地提前避免事故。

笔者有一次调研一家无人驾驶技术公司,这家公司后装的无人驾驶汽车,已经在全球无安全事故行驶超过260多万公里,在商业运营里接送客户超过8万人次,在这个范围里,几乎已经极少有人类驾驶员能够不出事故。而这家的无人驾驶出租车,笔者也体验了一下,驾驶风格极为保守,明显是对安全风险相关的预防性操作的阈值非常低。 仅代表尹智个人观点 Ken's personal view only