AI创业是时代的最强音:AI创业的五大基石


  每个时代的创业有每个时代的特点。人工智能创业就与此前的互联网时代创业、移动互联网时代创业很不相同。

  按照我的归纳和总结,人工智能时代的创业有五个前提条件:

  清晰的领域界限:人工智能创业,要解决的领域问题一定要非常清晰,有明确的领域边界,因为这一类问题是今天以深度学习为代表的人工智能算法最善于解决的。例如,同样是做机器人,如果做一个借助视觉传感器更好地规划扫地线路、提高清洁效率的扫地机器人,将机器人的需求限定在一个有限的问题边界内,这样的解决方案就相对靠谱;如果上来就要做一个长得像人一样、可以与人交流的人形机器人,那以今天的技术,做出来的多半不是人工智能,而是“人工智障”。

  闭环的、自动标注的数据:针对要用AI解决的领域问题,最好要在这个领域内,有闭环的、自动标注的数据。例如,基于互联网平台的广告系统可以自动根据用户点击以及后续操作,收集到第一手转化率数据,而这个转化率数据反过来又可以作为关键特征,帮助AI系统进一步学习。这种从应用本身收集数据,再用数据训练模型,用模型提高应用性能的闭环模式更加高效。谷歌、百度等搜索引擎之所以拥有强大的人工智能潜力,就是因为他们的业务,比如搜索和广告本身,就是一个闭环的系统,系统内部就可以自动完成数据收集、标注、训练、反馈的全过程。

  千万级的数据量:今天人工智能的代表算法是深度学习。而深度学习通常要求足够数量的训练数据。一般而言,拥有千万级的数据量是保证深度学习质量的前提。当然,这个“千万级”的定义过于宽泛。事实上,在不同的应用领域,深度学习对数据量的要求也不尽相同。而且,也不能仅看数据记录的个数,还要看每个数据记录的特征维数,特征在相应空间中的分布情况,等等。

  超大规模的计算能力:深度学习在进行模型训练时,对电脑的计算能力有着近乎“痴狂”的渴求。创新工场曾经给一个专注于研发深度学习技术的团队投资了1000万人民币。结果,团队建设初期才两三个月时间,仅购买深度学习使用的计算服务器就花掉了700多万。今天,一个典型的深度学习任务,通常都要求在一台或多台安装有4块甚至8块高性能GPU芯片的计算机上运行。涉及图像、视频的深度学习任务,则更是需要数百块、数千块GPU芯片组成的大型计算集群。在安装了大型计算集群的机房内,大量GPU在模型训练期间发出远比普通服务器多数十倍的热量。许多机房的空调系统都不得不重新设计、安装。在一些空调马力不足的机房里,创业团队甚至购买巨大的冰块来协助降温。

  顶尖的AI科学家:今天的人工智能研发还相当依赖于算法工程师甚至是AI科学家的个人经验积累。水平最高的科学家与普通水平的算法工程师之间,生产力的差异不啻千百倍。人工智能创业公司对顶尖AI科学家的渴求直接造成了这个领域科学家、研究员的身价与日俱增。谷歌雇佣杰弗里·辛顿、李飞飞,Facebook雇佣扬·勒丘恩,据说都开出了数百万美元的年薪。国内AI创业公司如旷视科技,也用令人瞠目的高薪,将机器视觉领域的顶尖科学家孙剑“挖”了过来,担任公司的首席科学家。(文/李开复)