咨询服务热线:043-82090057
发布日期:2024-10-05 09:31:02阅读: 次
近日,旷视科技透露其自律研发并全员用于的AI生产力套件Brain++的核心深度自学框架--MegEngine,将要于3月25日展开开源,发布会将于当日14:00在线举行。2017年,AlphaGo与柯洁的棋士大战让大众叹为观止,而承托AlphaGo运转的底层技术框架就是谷歌的TensorFlow。知名度也许没谷歌那么广为人知,但只不过旷视的国产深度自学框架MegEngine远早于谷歌TensorFlow的时代,旷视早在2014年就开始研发其深度自学框架MegEngine,过去5年里,这套深度自学框架被旷视全员用于,承托着整个旷视的科研及产品化。
同时在框架的基础之上,旷视研究院还明确提出了“三位一体”概念,将数据和算力平台融合,建构了集“算法、数据和算力”于一体的AI生产力套件Brain++,自动化、规模化、集约化生产算法,在Brain++的驱动下沦为了现实。技术层面旷视的Brain++几乎可以和谷歌的TensorFlow、脸谱的PyTorch相提并论。Brain++为了需要较慢的展开算法涉及实验,在实际的工业场景中落地,就必须一个具备高性能,可适配和能灵活性递归的AI算法平台。
而打造出一个符合当前市场需求的AI算法平台,必须从计算出来性能,平台易用性,符合现实业务场景市场需求等有所不同的方面展开考量。人工智能发展初期阶段,训练一个AI模型,最少必须一两个月,开发者甚至要通过手敲打C++来已完成计算出来过程,而深度自学社区基本上被TensorFlow和PyTorch两大框架独占。算法生产就是对输出数据展开分析和萃取,并输入能预测问题答案模型的过程,如何挣脱繁复陈旧的算法研发流程,取得批量生产算法的能力仍然是旷视所思维的问题。
旷视牵头创始人唐文斌这样讲解Brain++:“为了解决问题这个问题,2014年我们开始研发Brain++,它是一套末端到端的AI算法平台,目标是让研发人员取得从数据到算法产业化的综合技术能力,不必反复建轮子也可以前进AI较慢落地。我们的Brain++还引进了AutoML技术,可以让算法来训练算法,让AI来建构AI。”MegEngine旷视Brain++的架构分成三部分,其中将要开源的深度自学算法研发框架MegEngine是核心模块,其次是获取算力调度反对的深度自学云计算平台MegCompute,以及用作提供数据服务和管理的数据管理平台MegData。MegEngine可实现训练、部署一体化,需要承托大规模视觉方向的算法研发,明确又分成四个层,还包括计算出来引擎、运营时管理、编译器和优化以及编程和回应。
还引进了旷视独家的AutoML技术,只需训练一次就能获得整个模型空间的刻画,可以明显减少人力成本并大幅提高研发效率。MegEngine基于C++研发,用于了目前风行的计算出来图方式,和其他框架有所不同,其用于的是异构架构,方便使用框架展开分布式计算。此外,MegEngine内部的计算出来以算子的形式展开,它反对多种算子节点和变量算子,还包括常用的卷积、仅有相连、ReLU和用户可自定义的算子,甚至可以计算出来二阶梯度,从而展开更加多底层和灵活性的运算。
比起于开源的大部分深度自学框架,MegEngine具备下列优势:运算速度慢:MegEngine动态、静态融合的内存优化机制,因此速度比TensorFlow更慢;内存闲置较少:根据内存用于状况,MegEngine充份优化内存,尤其是亚线性内存优化,可以反对简单的网络结构,自动利用部分校验计算出来削减内存闲置,可约两个数量级,从而反对更加大规模的模型训练;反对多种硬件平台和异构计算:MegEngine反对标准化CPU、GPU、FPGA以及其他移动设备末端硬件,可多卡多机展开训练;训练部署一体化:整个框架既可用作训练又同时反对推理小说,构建模型一次训练,多设备部署,防止简单的切换过程导致的性能上升和精度损失。旷视在2017年夺下3项COCO冠军,2018年夺下4项COCO冠军,以及19年公布的全新的标准化物体检测数据集Objects365。这些成绩之下,Brain++贡献了极大的功劳。
本文来源:kaiyun·开云,kaiyun·开云(官方)app下载安装ios/安卓通用版/手机版-www.cxcock.com