服务器 频道

如果不是造化弄人,我现在已经是某某公司的CEO了……

最近上海垃圾分类以来,许多人都变了:珍珠奶茶也不喝了,外卖也不点了,丢个垃圾战战兢兢跟期末考试一样,继“今天谁洗碗?”之后,两口子间的争执又多了一个:“今天谁去倒垃圾?”

看到这些新闻,我一拍大腿,“啊呀”叫出声:造化弄人啊,如果我几年前提的AI分类付诸实施现在的人哪需要受这种罪啊!而且我的想法绝对符合时代需要,要是当初落地了,没准儿我现在就是个CEO了

事情还要从几年前说起

当时我们五六个人组队参加大学生创业比赛,以设立一家公司的形式,对公司前期筹备、后期经营、财务管理状况做出规划,最终形成商业计划书提交。

第一步我们要开动脑筋,想一下生活中人们有哪些需求没有被满足?先把公司业务确定下来,一周后咱们碰碰想法。”组长在第一次开会中总结道。

生活中那些不便和痛苦的细节里往往隐藏着无限商机

为此,我绞尽脑汁遍历生活里各种不便的瞬间,终于梳理出一个非常有前景的朝阳项目

利用AI进行垃圾分类

每次提着一袋子垃圾,来到标着“可回收物”、“不可回收物”的垃圾桶面前,我都要犹豫好几秒钟——这到底是可回收还是不可回收?究竟哪些是可回收的,哪些又是不可回收的?自己心里没谱儿,现场查资料又费劲,最后只得凭感觉投递,结果当然不可避免地错误百出,也导致这个可回收和不可回收的垃圾桶失去了意义。

快速简便地进行垃圾分类就是需求,这么多垃圾,人为分类麻烦,不如叫机器替我们做在垃圾桶上安放智能AI系统,来垃圾了扫描一下,自动判断该投入什么垃圾桶,绝对省时高效,对环境相当友好!

我喜不自胜,在第二次会议上提出这个点子,等着大家的认可。

然而,组长一句权威引用,让这个会在未来大放异彩的朝阳项目胎死腹中——

没用的,某当红明星说过,他曾经特别认真地把垃圾分好类,分别投进可回收和不可回收垃圾桶,然而保洁阿姨清理时却一股脑地把所有垃圾都混在一起任你之前分得多仔细都没用!”组长摇头否决。

好吧(°ー°〃),碍于这位明星的权威,我没再坚持,转而跟大家谈论别的点子,虽然最后方案交上去以后,我们组惨遭淘汰多年来,我也默认了垃圾分类无法贯彻的结论,这个历史难题就交给历史去解决吧,有关AI智能分类的想法渐渐随风逝去……直到今年上海推出垃圾分类管理条例后,支付宝上线的垃圾分类小程序火速蹿红,我才感到会心一击这不就是我几年前被扼杀的点子吗?当年被认为无用的垃圾分类,竟然站到了历史高点,成为举国参与的大运动!

 

可悲可叹!我就问一句,组长你后悔了吗

我把这个事情讲给朋友听,朋友不以为然,垃圾分类固然是大势所趋可你那AI分类太难了目前的科技还没达到那个水平吧……

那你可低估AI了,它不会的可以学呀

垃圾分类交给AI

在这个言必谈AI的时代,人们一提到AI,伴随而来的就是ML(机器学习)、DL(深度学习),这三者之间究竟有什么关系呢?

 

人工智能(AI)

在1956年作为一个独立学科诞生,其理论包括计划、理解语言、识别物体和声音、学习和解决问题。AI又分为强AI和弱AI:强AI即科幻电影里无所不能的机器人,所有技能都强于人类;现在我们谈的AI大多是弱AI,像AlphaGo通过不断学习、改进算法,在下围棋这件事情上能够战胜人类棋王,但在其他领域一无所能。

机器学习(ML)

AI的一个子集,顾名思义,让机器具备获取知识的能力,利用算法解析原始数据,不断学习来对发生的事务做出判断和预测。机器的学习思维和人脑有很大的差距,在底层需要大量的数学理论作为技术支撑,常见的如决策树、贝叶斯网络、支持向量机等。

深度学习(DL)

目前实现AI先进的技术,利用多层人工神经网络构建的算法模型,得出我们所期望的结果。深度学习分为训练和推理两个阶段,训练阶段中,从原始数据经过算法分析得到预估值的过程称为前向传播,将预估值与原始数据之间的差异迭代修正参数的过程称为反向传播,在这不停地试错过程中得出一个趋近完美的模型。将训练好的模型放到实际生产业务中应用,即推理阶段。

简单一句话:机器学习是实现人工智能的一种方式,深度学习是机器学习的一种技术手段。

就像垃圾分类小程序里,输入某种垃圾会有相应分类跳出来,我们也可以把这些原始素材库“喂”给AI,建立模型进行训练,最终让它学会垃圾自动分类并应用出去,而且这两年随着AI崛起,计算机视觉系统自动筛选也让智能垃圾分类成了可能。

从此,人们再也不用为那些“珍珠奶茶几步走,“到底多大尺寸的猪大骨才算干垃圾标准下的猪大骨等五花八门的分类要求心烦了——垃圾桶前一扫描,AI告诉你怎么放,人做着不容易的,交给机器去做,岂不是简单快捷、省时省力?

 要实践,要落地

那么问题来了如何落地?机器学习大量建模、调参、训练的过程,肯定离不开一个高性能基础平台吧!

那当然,OpenAI研究报告显示:2012年起AI消耗的计算力平均每3.5个月增长一倍,过去6年已增长了30万倍。人工智能产业快速发展驱动AI计算向精细化、集群化、多元化迈进,如今构建高性能的AI基础架构平台,更需要端到端进行基础架构设计。

这不,今年夏天戴尔易安信就推出了一款AI基础架构平台——DSS 8440

DSS 8440是一款2路4U服务器,搭载2个Intel®Xeon®处理器可扩展系列,每个处理器最多24个内核/2个LGA3647/英特尔C620,专为机器学习应用程序和其他需要最高计算性能的高要求工作负载设计,配备多达10个加速器、高速PCIe结构和大量的本地存储,非常适用于机器学习、训练应用程序以及其他计算密集型工作负载。

DSS 8440专门针对复杂的训练阶段进行设计,可提供更高算力,快速处理复杂的工作负载(如图像识别、面部识别及自然语言处理)。

(机器学习训练流程)

机器学习包括两个阶段:训练(training)和推理(inference),虽然这两个阶段都可以通过GPU进行加速,但是它们实现的方式却不相同。

机器学习训练阶段通过加权的多层算法,将大量数据迭代计算“训练”出模型,与特定的目标结果进行比较、不断调整参数使其最终形成一个“训练有素”的模型;

推理阶段是将训练好的模型用于生产中,基于生产数据做出相应预测。

(机器学习推理流程)

除了超高算力,DSS 8440还具备以下特点:

特 点

 GPU密度高

4U机箱内可支持10块NVIDIA Tesla V100 GPU,相比友商8卡机型,单机密度提升25%;针对大模型训练,更多GPU卡同时参与任务训练,提升数据并行或者模型并行的训练速度;针对多用户共享GPU平台,更多GPU卡可支持更多用户在线进行模型训练

 环境适应能力强

在35℃环境中支持高达205W CPU,配置性能更强的处理器,提供模型训练更高的数据处理能力和调度性能;在机器前端有12个大尺寸风扇,充分保障GPU自身散热,使GPU保持好的性能状态,并且减少机房空调耗电,起到绿色节能的作用

 更多本地存储空间

机箱内部支持10块本地硬盘(NVMe SSD和SAS/SATA SSD),满足本地训练数据集存储容量要求和KB级别小文件(图像、语音)IO性能要求,提高文件数据导入导出速度。

  I/O扩展能力好

在满配了10块GPU后,依然可以提供10个x16 PCI-E槽位用于扩展IO流量;扩展Infiniband 100Gb EDR,100Gb/25Gb低延迟以太网络,并且支持RDMA技术实现GPU direct computing;提供远程节点间GPU直接访问,可大程度降低GPU服务器之间的通信延迟

DSS 8440适合的工作负载:

 深度学习

DSS 8440的高密集型加速器非常适合机器学习训练任务——(例如:图像识别、气候建模、自然语言处理等),能够为各种开源软件框架及其相关的优化数学库提供高性能。

此外,它还支持创建高度复杂的多层神经网络,在更低的成本基础上,提供和同等竞争性训练产品一样的速度。

 HPC/计算密集型

DSS 8440可为科学和工程环境中的建模、仿真和预测分析等需要大量计算的工作负载提供更高的效率和生产力水平;DSS 8440单个机箱中使用多达10个GPU,为多个部门和工作负载提供资源,使用户获得更高的操作灵活性。
有了这样的利器,垃圾分类不再发愁

上海滩之垃圾分类

纸巾~(噔噔噔~)

干垃圾~(噔噔噔~)

不管多湿它都是干垃圾~

 

瓜子皮~(噔噔噔~)

湿垃圾~(噔噔噔~)

不管多干它都是湿垃圾~

了解更多数字化转型方案查看此链接:

https://www.dellemc-solution.com/home/index.html


特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。
0
相关文章