AI、机器学习、人工智能网络,是现在芯片厂商非常喜欢提及的领域。苹果A14也好,还是高通骁龙888,华为麒麟9000,都已经拥有了独立的AI芯片,而且这部分的性能提升,在过去这两年里也极为可观。
拿苹果A14的神经网络引擎来说,它的核心数从前代的8个提升至16个,峰值算力翻倍至11 TOPS,而骁龙888在AI算力上更是达到了26TOPS,每瓦特性能较前代平台提升高达3倍。
这种倍数级别的提升,和数年前智能手机刚诞生时,CPU/GPU性能大跃进情况十分相似,时过境迁,作为新前沿技术的人工智能,如今也开始享受到这种突飞猛进的红利。
但极高的算力代表了什么,又会让我们的手机发生怎样的变化,大部分用户不了解,手机厂商也很难给出一些场景化的东西,这是之前一直存在的困扰。
今年苹果在A14上其实给了不少通俗的案例。拿iPhone来说,图像合成算法,相册自动分类,电源管理系统,很多我们察觉不到的后端处理,其实都会有机器学习技术的参与。
更具体去说的话,手机摄影算是目前对AI依赖较高,我们也感知较强的部分。比如Google经常说的‘计算摄影’,苹果的‘DeepFusion’合成技术,以及华为用NPU芯来做视频渲染等,都是由AI芯片和ISP图像传感器协同工作达成的,也都已经是很成熟的应用。
而从人机交互的角度来看,一些应用会用上手势追踪、语义识别等,也都会倚重AI芯片提供的算力。尤其是在运行特定AI算法的效率上,一颗专用的AI芯,确实会比直接调用CPU、GPU来得有效得多。