专题活动

您的位置:首页 > 专题活动 > 专题活动

周涛:未来亲自驾车可能和过去的酒驾入刑一样充满争议

时间:2018-05-07

1526027751797.jpg

2018年5月4日,由成都新经济发展研究院和封面新闻举办的“新青年 新未来 第二届AI+移动媒体大会”上,电子科技大学教授、成都新经济发展研究院执行院长周涛发表了题为《人工智能对社会经济和伦理规范的挑战》的演讲,阐述了他对近年来蓬勃发展的大数据和人工智能技术为社会带来的变革及自己的看法。

大数据时代是跨越性的 没有人能置身事外

不管大家愿意还是不愿意,人类都进入了一个一切都被记录的大数据时代,不管是我们在公共场合的发言,还是和最亲密的对象私语,这些内容可能都会被记录下来。

“人类现在掌握的数据量对于几十年前而言,是不可想象的,现在的数据量已经十分庞大,再过8年还会涨十倍。但是掌握了这么多数据,并不意味着我们就能够真正驾驭它们。”周涛说。

在大数据时代,我们面临的第一个挑战就是信息的复杂性很高。周涛举了这样一个例子,现在的消费者们,可以从淘宝12亿商品中准确选出自己需要的商品和信息,但其实这庞大的商品和信息,绝大部分都是我们没有看过的。

在当今的社会生活中,人们获取信息很大程度上被动的。周涛用了这样一个类比来描述我们获取信息的场景:在某种程度而言,分发信息的平台,或者说掌管信息分发的算法,可以理解成一种中介;信息中介与我们的关系就像是保姆与婴儿一样,即使我们不知道对方喂过来的食物是否有营养,是否存在有害的成分,我们都吃了下去 ,因为没有选择。

大数据时代的到来,是人类历史上的跨越式发展,没有人能置身事外。“如果站在信息的角度来看,我们人类开始直立行走,经历了数百万年的进化;但在这之后,人类从一个高度信息贫乏的时代走到现在这样一个眼花缭乱的信息爆炸时代,只用了不到一个世纪。”周涛说。

两个进化阶段的耗时差距如此悬殊,对此周涛坦言,“我们的社会是否已经真正为我们进入这样一个信息高度丰富的时代做好了准备,是值得思考的。”

1526028008424.jpg

算法未必“绝对中立” 迎合人类喜好的背后隐藏着“歧视”

所以说我们在常见的这种个性化广告、个性化推荐中,其实潜藏了我们对用户原有喜好的一些分析和揣测。我们推给富人和穷人的东西是完全不一样的。

关于人工智能伦理方面,周涛首先引出了算法的中立性问题。

“一般而言大家会认为算法天然就是中立的,在半个多世纪以前,美国的罗根他给美国的城市设计公路、花园等等,他在一个花园里面设计了一个桥,但是桥洞很矮,设计了这样的一个入口使得当时公共汽车是没有办法通过的,只有私人的小轿车可以通过。但是那个时候绝大部分的穷人,包括有色人种都是坐公共交通的,只有富人才能开得起轿车,所以这个设计本身表面上看起来是中立的,但实际上是有了区别对待的。它使得中央公园中桥后的区域,只有富人才能进入。这在当时看来非常正常,但如果放到现在,就是很严重的歧视问题,如果我们处在互联网领域,这种歧视可能更加隐秘。”周涛表示。

到了互联网领域,在进行个性化推荐的研究时,周涛发现很多开发者在设计商品推荐系统的时候,会考虑用户对价格的敏感性。如果一个用户经常在三级品类比如钢笔中,每一次购买的商品都选这个品类中比较便宜的,开发者设计的算法就判定这个用户价格敏感度高、比较“穷”。这时系统要对他进行推荐、或者关键词排序的时候,会优先把一些特别便宜的东西推给他。

1526028291263.jpg

如果未来人类自身处理信息的能力进一步减弱,很有可能是因为机器推给我们的信息更多了,人类变得更愿意依赖算法和机器。

周涛说:“比如说到一个城市去旅游,可能我们需要机器推荐一个一流的游玩路线;我们到了一个教育系统里,可能希望能获得优质的课程推送,甚至职业规划和人生规划等方案供我们选择。这个时候我相信计算机会根据你以前的行为、你的家庭背景、消费习惯等等作出在算法看来最适合你的推荐。于是穷人和富人可能会抵达不同的城市的角落,可能会在很早的时候就有不同的人生规划和目标。在那个时候尽管我们表面上可以获取的信息更多了,但是因为这个信息都是某些信息中介推到我们这儿的,所以说贫穷和富裕之间的差距到底会增大还是缩小,不好说。”

对酒驾的惩罚其实就是数据时效性的应用案例

那么我们应该选择什么样的生活呢?我们是生活得更自在还是生活的压力更大?我们是不是必须遵循某种全社会大部分都认可的价值观,战战兢兢、如履薄冰的时候,我们的特立独行、我们的自由意志是否还能保持,这是数据时效性大幅增长以后,人们不得不面对的问题。

人类是否可能为一些还没有发生的事情付出代价?这是很多人都在思考的一个问题。

在《大数据时代》中,作者讲了一个很可怕的例子,到了大数据更加成熟的时候,系统可能会推算出一个人什么时候会犯罪。周涛表示,很庆幸这个情景如今还并没有发生。

“但是有时候我们为了安全的原因会去猜测一个人的不安全因素有多大,比如美国就会分析一个乘客的资料来看他是否是恐怖分子,如果危险因素过高他就会被留在机场。尽管一定程度上他的被拒登机,总体提升了其他乘客的安全程度,但这样做的代价是有一小部分人作为无辜者在这个系统中遭受到了不公平的待遇。”周涛表示美国的航空业已经有了类似的案例。

到了我们更加熟悉的环境里,周涛举了酒驾的例子来解释数据时效性的应用。

“十多年前酒驾的危害刚开始被讨论的时候,争论是很大的。实际上在世界上很多国家酒驾是很正常的事情。从某种意义来讲,对于酒后驾车,有很多的证据表明它会提高发生交通事故的概率。因为这个原因,尽管有些人酒后驾车还没有产生交通事故,但也可以基于数据的支撑对其进行处罚,如今酒驾已经入刑,我个人非常赞同这个规定,它对我们的交通安全很有帮助。我们可以想象一下20年以后我们的自动驾驶占到了很大的比例时,未来绝大部分的交通事故应该是因为人造成的,如果到了那个时候,真人驾车是不是就是最危险的一种?”周涛说。

除了对酒驾的处理,数据实效性也实实在在影响着个人的征信记录。周涛说:“中国有一句古话叫浪子回头金不换。讲的是一个人犯了错误,要改变自己,你的亲友可能会相信你,也应该相信你,所以你有了一个新的机会。但是计算机可不会这么想,比如你中学的时候打了架,可能大学的时候因为虚荣借了校园贷款没有还,这些事情过了一二十年可能会使你很难再次贷款,可能会影响你的婚恋,因为计算机绝对不会忘记数据。”

1526028502031.jpg

面对不同立场,人工智能如何选择?

周涛认为,人工智能和大数据的存在已经开始改变人类的伦理体系。

想象一下,假使有朝一日,人类伦理道德的规则必须要由机器来帮我们写,又该如何?

周涛据了一个简单的例子:比如我们在路上开车,如果突然一群不遵守交通规则的人冲到车前,这时候你面临三种选择,一是开过去直接撞上这些人,因为他们主动违反了交通规则;第二个是左转,这样会撞到一旁等候的人;还有一个选择是冲出这个围栏,可能自己会受伤甚至死亡。不管做什么样的选择,这个选择的主题首先是人,你可能是一个自私的人,也有可能是一个大公无私的人,但是这个拷问的回答者终归是人类。

“实际上去年有一篇很有趣的关于无人驾驶的文章。大体的意思就是说如果你把自己代入一个场景,你是一个坐在副驾驶上的人,你买了一辆无人驾驶的汽车,这个时候如果出现严重的交通意外,我们首先是保护路人的安全还是保护车主的安全?大部分人会选保护车主的安全,但是假设你在休息室等待的时候,你看到一个场景你被代入了,你是一个路人,看到无人车在路上跑,你回答同样的问题,绝大部分人他会认为首先保护路人的安全,其次是车主的安全。”周涛表示这其实就是个立场的问题。

“人的大脑和道德准则本身就是很复杂的。但是现在当我们真的有了无人车的时候就由不得你了,汽车就会做出判断。当机器人、这些设备高度的融入我们的生活时候,当人类的行为必须通过冷冰冰的代码选择,所以未来很大一部分的道德主题的选择,这个时候我们人类的尊严,他的可选择性是否还有价值?”周涛表示了他对人工智能的顾虑。

1526028627364.jpg

人工智能是毁灭性技术?

但是我认为有一种技术对人类而言是最危险的,就是我们最终对大脑的认识。

关于未来,周涛也道出了了自己的看法和担忧:“任何一种物种都有盛衰,猴子变成了人,猴子就衰退了,原来属于森林的土地上我们建了高楼大厦,猴子如果知道后果肯定会很仇恨第一只走路的猴子。人类有可能会毁灭,有可能是行星装地球,有可能是来自于可怕的战争,有可能是大家担心的某种人工智能对人的替代。

但是我自己的观点是人工智能不是一个会毁灭人类的技术,因为人工智能发展到现在,他所有的要去优化的目标函数等都还是由人来设计的,至今我们还没有看到一群机器人自己设计自己,也没有看到一群机器认识到了自我。但是我认为有一种技术对人类而言是最危险的,就是我们最终对大脑的认识。

其实在好几十年前,我们就已经很清楚的知道了小白鼠它所有的感觉、感知是什么样子,所以说我们放下一个杠杆,小白鼠他就会获得快感。如果我们某一天我们通过一个电机就获得各种各样的快感,或者在几天之内就走过我们的人生,那如果是这样那我们普通人,拼命的跋涉、拼命努力的动力从何而来?

所以我认为真正有可能影响我们社会、影响人类未来的可能是我们对大脑的设计。”

1526028743224.jpg

演讲的最后,周涛也表达了自己对年轻人的建议:以人工智能为牵引的新的科技时代已经到来,希望大家不管从事任何的领域,一定要去拥抱这个新的时代,但凡想要阻挡这个时代到来的人都只会成为旧时代的提灯者。

“我非常欣赏一句话——胜利总是属于有准备的头脑。希望大家都成为新时代的拥抱者。”周涛说。