26家芯片企业力挺华为你知道吗这背后藏着怎样的产业链秘密

在小朋友问父母问题的场景里,父母其实就充当的是小朋友的推荐系统,但普通人的知识储备毕竟有限。互联网时代,有了搜索引擎,但还不足够。AI技术的兴起,帮助了推荐系统大步前进,无论是购物平台的商品推荐,直播平台的主播推荐,还是视频平台的视频内容推荐,越来越多的人开始感叹,AI更懂自己。

但要加速这些AI推荐系统,不止是从CPU迁移到GPU这么简单。嵌入表(Embedding)被用于将输入数据中的离散特征映射到向量,以便下游的神经网络进行处理,这通常是一个内存带宽和容量密集型,对于计算需求不大,但需要很大的内容容量和带宽进行快速读取,这对于CPU而言是一个明显挑战。

NVIDIA Merlin作为一个针对推荐系统近似端到端解决方案,为预处理提供了NVTabular,可以实现加速。此外,还有Distributed-Embeddings可以方便TensorFlow 2 用户用短短几行代码轻松完成大规模的推荐模型训练,并且性能表现也十分突出。

然而,加速计算巨大的想象空间并不是一蹴而就的事情。摩尔定律已经放缓,从最初每年1.5倍性能提升,现在只有1.1-1.2倍。这意味着接下来的十年,将会面临如何才能实现AI更多应用的一个重要考验。而英伟达CEO黄仁勋表示:“接下来十年的所有计算任务都将被加速。”

因此,加速度成为了一种必然趋势,而这背后的算力演进,是我们必须关注的问题。在这个过程中,我们是否能找到一种既能够满足复杂算法需求,又能够降低成本、提高效率、促进普及的大规模加速度解决方案呢?这是未来的一个重大课题,也是当前我们共同探讨的话题之一。

猜你喜欢

站长统计