1. 八十讯首页
  2. 元宇宙

集成显卡有显卡吗 gpu是集成显卡吗

BAIDU_CLB_fillSlot(“557705”);

  针对目前人工智能技术发展,Intel认为目前将GPU运算效能用于超级计算机作为平行运算的普及作法,其实只是人工智能技术的一部分,重点依然在于如何让深度学习以更具效率方式完成训练,藉此建立各类人工智能技术应用。 而对于近年来ARM架构处理器持续强调的端点运算 (Edge Computing),Intel也强调本身从终端装置到云端服务器均有完整布局,同时在软硬件部分也有相当完整的技术发展,藉此对应不同人工智能技术运算需求。

本文引用地址:

  根据Intel数据中心事业群副总裁暨人工智能解决方案技术长Amir Khosrowshahi说明,强调目前借助GPU执行效能的平行运算架构,其实仅只是人工智能技术的一部分,许多深度学习应用反而更聚焦在如何让机器以更具效率方式分析不同数据,并且从中找出有价信息,进而让机器能以学习结果反应在各类互动,例如让自动驾驶车辆「 看见」前方路人时,即会自动启动煞车让车辆停下,或是在诸多记录找出规律的行为模式。

  事实上,以现行的深度学习运算架构来看,许多设计其实多少还是采用GPU加速缩短学习时间,或是用于平行运算架构缩短运算所需时间,但确实如Intel说明,应用GPU的运算方式在所有运算架构设计里确实仅为其中一部分,更重要的还是取决人工智能技术应用模式,以及背后学习框架、学习模型如何设计。

  举例来说,假设人工智能技术以反复学习正确应对的模式居多,或是需要短时间内完成运算的情况,确实藉由GPU加速会是较好的运算模式,而若涉及更多装置端的运算,或是必须有更多逻辑演算与判断的话,借助多组处理器的运算架构就显得更为重要。 因此以Intel的立场而言,导入GPU的演算架构固然重要,目前在许多超级计算机、云端运算也均借助NVIDIA、AMD等厂商GPU组件硬件效能进行加速,但在特定运算需求依然少不了处理器的执行能力。

  不过,就目前Intel在人工智能的软件技术布局部分,虽然Amir Khosrowshahi强调Intel人工智能技术是采跨部门资源整合发展,除了本身硬件技术优势之外,软件方面也从基层韧体、软件工具到服务器端都有完整布局,同时投入发展资源比例几乎与硬件相同,但以目前Intel在人工智能技术的深度学习使用框架, 除了本身透过收购Nervana取得的Neon学习框架资源,似乎尚未计划建造针对本身处理器架构深度优化的学习框架,主要还是与第三方厂商如Google TensorFlow,或是其他开放架构设计学习框家如Torch、Caffe或CNTK等合作,并且提供不同学习模型供开发者使用、修改。

  但或许是考虑目前人工智能发展技术仍处于初期阶段,因此Intel与其他厂商同维持以尝试、观望等情况投入技术研发,预期在技术发展方向更为明确,同时相关技术也更为成熟之余,Intel可能会以更俱全的软硬件整合布局人工智能技术发展。

  从终端装置到云端服务器均有完整技术资源

  而针对目前ARM架构处理器经常强调的端点运算模式,Intel表示目前Intel在装置端其实也有人工智能技术应用布局,例如在终端装置学习用户操作习惯,让自动驾驶车辆可依据驾驶操作行为进行学习,同时在通讯连接、云端服务器也都有完整技术资源,因此认为本身更具市场竞争优势。 不过,Intel方面也坦承ARM架构处理器在行动装置具有相当技术优势,但本身同时具备装置到云端的技术解决方案,甚至也能结合、对应ARM架构处理器使用,在市场更具多元发展机会。

–>

本文紧供阅读参考,请自行核实其真实性。发布者:小八,转转请注明出处:https://www.80xun.com/metaverse/26474.html

发表评论

邮箱地址不会被公开。 必填项已用*标注