发布时间:2020-05-15
浏览次数:246
近年来,人工智能算力得到的长足的进展,并呈现出一定的趋势:人工智能算力需求暴增,异构计算成为主流、GPU仍然是人工智能计算的主要算力供给、传统高性能计算正在与人工智能融合为“先进计算"、边缘人工智能算力持续提升。
人工智能算力需求暴增,异构计算成为主流:随着算力需求的暴增,对算力的合理利用和不同计算单元的协作就变得日益重要,将CPU、DSP、GPU、ASIC、协处理器、FPGA等各种计算单元、使用不同的类型指令集、不同的体系架构的计算单元组成一个混合的系统执行计算,让每一种不同类型的计算单元都可以执行自己最擅长的任务,从而大幅度提高人工智能计算的效率和速度。总的来说,不同处理器芯片在构建异构计算方面有着自己的鲜明特点,CPU、GPU领域存在大量的开源软件和应用软件,任何新的技术首先会用CPU实现算法,因此CPU编程的资源丰富而且容易获得,开发成本低而开发周期。FPGA的或现采用Verilog/VHDL等底层硬件描述语言实现,需要开发者对FPGA的芯片特性有较为深入的了解,但其高并行性的特性往往可以使业务性能得到量级的提升;同时FPGA是动态可重配的,当在数据中心部署之后,可以根据业务形态来配置不同的逻辑实现不同的硬件加速功能。ASIC芯片可以获得最优的性绵,即面积利用率高、速度快、功耗低;但是AISC开发风险极大,需要有足够大的市场来保证成本价格,而且从研发到市场的时间同期很长,不适合例如深度学习CNN等算法正在快速迭代的领域
GPU仍然是人工智能计算的主要算力供给:值得注意的是,越来越多的人工智能计算服务器开始使用8GPU甚至16GPU卡,这意味着随着数据的爆发式增长、深度神经网络日趋复杂,单系统可提供更高密度、更高性能的AI基础架构,将在Al线下训练场景中得到更广泛应用。此外,GPU计算正朝着"Non-CPU"方向发展,即不需要计算系统中使用CPU,用户可构建起完全由GPU组成的计算系统。
传统高性能计算正在与人工智能融合为“先进计算":事实上,现在有可用的大型数据集合和强大的计算资源,这样的组合允许这个领域取得很大的进步。人工智能,特别是机器学习和深度学习,需要庞大的计算资源,随着数据的增长,计算力变得越来越重要,只有拥有更好的、与人工智能计算相匹配的计算系统,比如提供GPU计算能力或是深度学习算法框架平台才能更好的训练深度学习模型。这一计算系统正是先进计算系统。
边缘人工智能算力持续提升:随着物联网边缘设备对人工智能能力的要求不断提升,对即时、高吞吐量的边缘人工智能算力的需求也在持续增加,边缘设备需要借助人工智能及与之相匹配的算力,即时做出分析、判断和决策,与此同时,2025年,预计将会有1500亿台机愿传感器和物联网设备持续输出数据,这比当今使用智能手机的个人用户所产生的数据要高出几个数量级,因此,无论是市场规模还是算力需求规模都极为庞大。
以上就是我们给您带来的关于人工智能算力的发展趋势的相关分享,如果您有更多想要咨询的相关问题欢迎您与我们联系。