为什么Alphago(阿尔法围棋)到到今天大家对AI比较关注,算法本身没有太革命性的变化,我二十年前做AI的时候是神经原网络,没有特别本源的变化,为什么然爆发出来?两个因素:一是计算力的提高,二是数据的飞快爆炸。在中国这两年来AI的变化,一个是C端的,特别是人脸识别相关的图像处理的应用,也包括这种价值,已经产业化了。另一个比较大的是To B的,我一直认为To B很多时候,所谓的AI应用还是对于数据的加工和处理,以及在数据加工处理背后产生的商业价值。很多公司都是B服务能够挣钱,没在To C产品上挣很多钱,我跟Face++很熟。他们最早也想做To C,最后还是在To B上赚比较多的钱。这两年按成绩和进展来讲,是To C在图像、视觉这些方面的进展,以及在To B的数据上的应用。
关于瓶颈,技术上来讲的瓶颈就是人机交互。大家很希望电脑和人之间能够有很自然的语言交互,但目前还是没有明显的突破,虽然翻译有了很好的进展,但还是基于大数据的学习。电脑还是不理解你在说什么。再一个瓶颈就是人才。已经有越来越多的人关注到AI(,投入到AI产业中来,我认识的很多原来是做系统工程的工程师都转行去做AI了,因为很赚钱,作为资深的系统工程师,年收入是80万、100万,不是那么资深的AI工程师是100万、200万,但人才依然是瓶颈。还有技术上的瓶颈,深度学习对高维的数据有比较好的处理能力,但对日常生活中的数据,更多的是需要逻辑推导和泛化的能力。
先从自动驾驶讲起,自动驾驶据我在美国Google和特斯拉的工作,现在做得最好的是特斯拉,因为特斯拉有所有车上路的数据,他们内部在做自动驾驶的时候,有第一手的数据。但Google真正在路上跑的数据规模还很小,Google自己不造车,这是无关紧要的。PC时代的Intel+Windows,芯片+操作系统这件事情,类比到AI时代,说中国没有发展的机会我是不认同的,AI跟PC的架构最大的差别在于PC的图灵的架构,这么多年来电脑一直是遵循硬件的架构,所以它的硬件架构决定了它的上层的软件系统,上层软件系统再决定上层的应用,是自底向上、从硬到软的过程。但AI体系里面,最大的变数是在于AI的算法,为什么有GPU的体系,然后去支撑,是因为现在还用的是深度学习的网络这套算法来做这件事情。
我也很多年没有实际在AI体系里面做研究了,但我一直认为,深度学习的这套机制跟大脑的思维的逻辑还是不完全一致的。新的对于深度学习网络的 算法的完全的颠覆,另外一套AI算法体系来支撑现在所有的基于学习和基于计算的体系,整个GPU的计算体系就废掉了,我就不需要基于GPU来做这套体系,而是用另外一套算法,操作系统。操作系统对底层硬件有新的要求,于是整个生态就会发生变化。AI的核心算法还没有完成大意上的突破,所有的理论模型还是在20年前、30年前已经大部分定下来的,有一些是术上面的变化,包括对抗学习这种东西,它是术上面的优化。有道层面的AI(ARTIFICIAL INTELLIGENCE,人工智能)算法的变革,那一天中国是有机会翻盘的。
第三个是To B和To C场景的应用。大的To C公司拥有足够多的数据,所以AI一定要基于大数据,基于深度学习这套机制。但有一些AI是跟大数据无关的,你真的无法判定下一代AI,AI基础科学的研究还没有到那个突破的点。我20年前去美国读博士,是想有一些突破。但机缘巧合我回来创业了,但我自己认为AI领域还是会有不同的东西。不能用PC架构来模拟的AI的架构,不能用PC上面的美国的强来说在未来的10-20年中国没有机会在这个领域翻盘。客观说,中国大的生态不适合这样做基础研究的公司发展起来,高校没有这样的环境,业界没有这样的环境,我是认同的。但你说机会,要是有天纵奇才,也许会有一些其他的东西在里面,它不是应用产品决定的,而是教育生态不具备在底层有一些突破。