连个盟校双博士都做不到的人,天大的机会白白送到他面前,他捡都捡不起来。
另外一方面,顾玩也深谙地球上人工智能发展的另一个重要契机——在深度学习和卷积神经网络发展起来之前,这条技术路线的认可度并不高,因为这条技术路线哪怕试水到04年,初步原理略微跑通了,学界也依然发现有问题:这个算法的缺点,是训练效率太低。
也就是说消耗的算力极大,而机器学习的进步速度其实很慢,还无法进行白盒逻辑解释,也就无法通过人工干预/
“教导”来让机器的学习速度加快。当时还有另外两三条技术路线,那些路线的优缺点正好与深度学习相反。
那些训练方法白盒化程度更高,也就是机器学习的决策过程的可解释性,人类更能理解,也就更容易干预,便于人类
“手把手教机器快速进步”。而这些算法的缺点,就是
“学习进化的上限比较低”(这里是笼统概括,实际科学原理比这个复杂得多。
但是写给外行人看,只能这样不太准确地类比一下了。)换句话说,要是人类继续被摩尔定律束缚、靠电脑CPU运算速度的技术提升,来满足训练算力的话,那么那些白盒度更高、更容易用少量算力就初步训练出成绩的人工智能学习路径,说不定就能在历史选择中胜出
“深度学习/卷积神经网络”这条技术路线了。但是,地球上偏偏在你2007~2009年,诞生了分布式架构算力设计。
这玩意儿,最初是出现在很多硅谷IT公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个
“分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有CPU共同分包编译。
分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了
“云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗CPU的算力了——机器人自己的CPU不够快,可以接入云,用云上的几千几万台机器的CPU帮你一起算。
这时候,摩尔定律就不重要了。只要算力任务能高效拆分,单颗CPU弱一点就弱一点了,咱可以芯海战术堆数量嘛。
如此一来,其他那些
“算力效率更高、白盒可解释性更强、但训练上限和自动化程度更低的算法”,一下子就争不过深度学习了。
本章未完,请点击下一页继续阅读! 第2页/共3页