服务器 频道

参加全球超级计算大会SC08的一些体会

   【IT168 专稿】2008 年11 月15 日-21 日,在美国Austin 召开了SuperComputing 2008 大会。我正好在美国做访问学者,这次终于有机会亲自参加了SC 的大会,下面是一些零散的体会。

关于SuperComputing

    SuperComputing 是一个很大型的会议。今年是SC 的20 周年,虽然金融危机的阴影还在,SC08 仍然能吸引1 万多名参会人员和3000 多家展商。SC08 的会场在Austin 的Convention Center,相当于北京的国展,有很大的展厅和多个大型的会议室。

    SC 是个很“Industrial”的会,据说主要参加SC 的是美国的几个优异实验室,他们是潜在的HPC 大买家,很多公司都来向他们展示自己的产品。而IPDPS 等则是偏“academic”的会,有些学术圈的人并不参加SC。参加SC 的人也有很大一部分只是看展览,不参加学术会议。

    尽管如此,SC的日程还是安排的很满,会前3 天就排满了Education,Tutorial 和Workshop,正式开会3 天同时举办展览,会后还有半天的panel 时间,整个下来要一星期左右。SC 高峰期经常同时有4-5 个以上的session 举行,在中午和下午还有数不清的BoF(Birds of a feather,一种对某个主题感兴趣的人凑在一起非正式讨论小组)。一个人要想了解整个会议的进程除非有分身法不可。

关于ExaScale(百亿亿级)计算的讨论

    ExaScale 在这次会议上是一个热点的词。既然Petaflop 已经成了即成事实,大家很自然的关注起下一个milestone 来。

    基本上公认的是2018 年左右Exaflops 就会出现,处理器规模可能要达到上百万。但Exaflops 首要问题还不是应用和编程的问题(对美国这些大的实验室看起来计算能力是来者不拒),而是功耗的问题。估计按现有的技术路线,到时候Exaflops 的功耗将达到100MW以上,而能被接受的只有20MW,存在一个巨大的鸿沟。其中计算本身的功耗占的比重并不大,而主要的是memory 的功耗问题,有人提出Cache 要针对功耗而不是性能进行优化。与会者比较看好flash 技术的发展。

    我参加了一个Exabyte Storage 的workshop,发现不是讨论类似google 的海量数据处理,而是专门讨论Exascale 时存储怎么支持check point。据估计到时候,平均每个时刻有100~1000 个故障的部件要动态的处理。大规模系统的部件故障问题这次参加曙光5000 测试的人应该有体会。
 

0
相关文章