第392章 液冷技术-《大学没毕业,你怎么登上福布斯了》


    第(2/3)页

    现在他拿着救命的现金流跑去建连个盈利模式都看不见的数据中心,还要砸钱搞校企合作,简直就是疯子的行径。

    但是,别人看不懂,林渊自己却再清楚不过。因为他是一个从未来回来的人,他比这个时代的所有人都清楚,未来的世界,绝对是人工智能(AI)与深度算法模型的天下。

    谁掌握了算力,谁就掌握了下一个十年的入场券。

    林渊今天来,就是为了搞清楚一件事。

    “三位教授。”林渊目光诚恳地看向他们,“我虽然也懂点底层代码,但在大型实验室的顶尖硬件设备采购上,我那点常识肯定不如各位专家。咱们这个实验室如果想出世界级的成果,到底需要配备什么级别的设备?”

    李院长沉吟了一下,率先开口:“如果要搭建稳定的底层运算环境,我们院里之前的设想是,主要采购惠普或者 IBM 的塔式企业级服务器,求个安稳。”

    周志华教授跟着补充道:“小林,既然你有自己的数据中心,我们的建议是上国产的‘曙光’系列刀片服务器集群。做咱们这种机器学习的算法模型,传统的 CPU 阵列在并行处理上是业内最成熟的方案。”

    林渊听完,摇了摇头问:“传统的 CPU 算力上限太低了。既然咱们要搞最前沿的底层算法,为什么不直接搭建 GPU 显卡算力集群?”

    王主任叹了口气,解释道:“林总,你可能对目前的硬件市场不太了解。我们不是没想过用 GPU,但是英伟达(Nvidia)今年刚推出的新一代架构,存在很严重的质量问题。”

    “是的。”周志华接话道,“他们这一代核心的漏电率和发热量大得离谱,简直就是个火炉。如果我们在实验室里满载高并发跑上几天,不仅散热是个大麻烦,甚至有直接烧毁主板的风险,这采购成本谁吃得消?所以大家现在都不建议搞英伟达,还是买曙光稳妥。”

    林渊若有所思地点了点头:“原来是这样。发热和次品率确实是个大问题。但除了硬件本身,英伟达的 CUDA 并行计算架构生态,目前在市面上是不是没有任何替代品?”

    周志华有些惊讶于林渊对专业名词的敏感度,点头确认:“确实,单论并行计算框架,CUDA 确实是目前最好的选择。但硬件缺陷摆在那,没办法硬上。”

    林渊笑了笑:“如果只是发热问题,我们可以在机房基建的时候,直接抛弃传统的风冷,引入定制的液冷机柜系统。同时,我这边可以带人写一套底层的功耗墙限制脚本,通过软件层面在它临界过热前自动降频调度。这样就能完美规避烧毁风险。”

    这下轮到对面三个人震撼了。

    李院长瞪大了眼睛:“林同学……你连机柜液冷散热和显卡底层驱动调度都懂?这种技术性的难题,你真的可以解决吗?”

    林渊笑着说,“其实我也不知道,反正试试看吧,正好我马上要去美国签一下合同。这批设备我打算直接去硅谷,找英伟达原厂采购,专门定制一批企业级的 TeSla 加速卡,绝对比市面上的民用显卡靠谱得多。”

    周志华若有所思地看了一眼林渊:“不要太为难自己。如果你真的能把这个问题解决,那么小林同学,你可是牛大发了,你可比我们这几个人加起来都要厉害。”

    随后,双方又在底层架构以及技术难题各方面探讨了一会,尤其是液态制冷这个超越时代的概念着重了解了一下。
    第(2/3)页