近期,网络上的部分刹不住的特斯拉 被推上了热搜,华为极狐电车的问世,人们的关注点被智能科技"揪住了",却忽略了人工智能应用在具有潜在危险的汽车上,会带来哪些影响。在人工智能(AI)研发技术突飞猛进的今天,我们面临着一个新的伦理问题。我们以汽车上搭载的人工智能根据周围情况进行驾驶的自动驾驶技术为例,来考虑人工智能的伦理。 例如,假设你让人工智能来驾驶汽车。结果,在汽车行进的方向上,突然迎面跑来3个人。如果你打方向盘避让的话,虽然可以避免撞倒这3个人,但会把站在其他方向上的另一个人撞倒。在"牺牲3人还是牺牲1人"必须二选一的情况下,人工智能应该如何选择呢? 这个问题是以被称为"电车难题"的著名伦理学问题为基础而设置的,把不能停下来的电车换成了自动驾驶汽车。你也许会想,与其牺牲3个人,还不如牺牲1个人。那种"让更多的人得到更多幸福的选择是正确的"的想法在伦理学上称为"功利主义"。 不过,假设迎面跑来的3个人不遵守交通规则,而站在切换后方向上的那个人却是认真遵守交通规则的,我们该怎么办呢?假设迎面跑来的3个人是老年人,而站在切换后方向上的另一个人是儿童的话,又该怎么办呢? 电车难题没有让每个人都满意的正确答案。重要的是要尽量避免出现电车难题那样的状况,但如果出现了这种情况,那么应该怎样设定人工智能的判断标准?哲学家们就这一问题争论不休。 谁来承担自动驾驶汽车的事故责任? 现在,在配有自动驾驶功能的汽车上,坐在驾驶座上的司机有义务时刻监视驾驶状况。自动驾驶时,一旦发生交通事故,责任由司机承担。但是,将来随着技术的进步与提高,司机没有必要监视驾驶状况时,事故责任该由谁承担呢?是坐车的人还是研发了车载人工智能的人?还是自动驾驶汽车的生产厂家?或者应该考虑由做出了判断的人工智能承担责任? 围绕这个问题,哲学家在不断思考"人工智能能承担责任吗?""到底什么是责任?"等难以回答的问题。 自动驾驶的汽车面临此种情况,当作何选择? 当AI技术被应用到汽车等有一定潜在危险的产品上,它就不仅仅是科学发展体现的范畴,而会上升到伦理、哲学的范畴了。 回到现在能不能刹住的问题,它只属于科技范畴,特斯拉还处在最初阶段;如何识别汽车运动中的人、事、物,华为极狐也是研究,当外界处于理想化状态时,所做出的智能判别。 将要进入智能化的时代的我们,有些时候也是应该全方位的看待问题,用哲学的思维去审视事物,才能真正拥有新事物带来的美好。