科研快讯 | 14篇论文被信号处理领域顶级国际会议ICASSP录用

ICASSP 2023

近日,2023年IEEE声学、语音与信号处理国际会议(2023 IEEE International Conference on Acoustics, Speech, and Signal Processing,ICASSP 2023)发布录用通知,清华大学人机语音交互实验室(THUHCSI)有14篇论文被录用。

ICASSP是由IEEE电气电子工程师学会主办的信号处理领域的顶级国际会议,在国际上享有盛誉并具有广泛的学术影响力。 本年度会议的主题是“人工智能时代下的信号处理”。

此次被录用的14篇论文涉及智能语音交互领域的诸多研究方向,包括语音合成、歌唱合成、数字人生成、舞蹈生成、语音识别、关键词识别、说话人识别、语音增强、语音分离、说话人提取、自然语言处理等。 论文工作将学术科研与产业应用紧密结合,合作伙伴包括: 香港中文大学、腾讯、元象、小米、地平线、华为、平安、传音、好未来等。

1.  Context-aware Coherent Speaking Style Prediction with Hierarchical Transformers for Audiobook Speech Synthesis

作者: Shun Lei, Yixuan Zhou, Liyang Chen, Zhiyong Wu, Shiyin Kang, Helen Meng

合作伙伴: 元象科技有限公司、香港中文大学

如何为有声读物中多句连续文本生成符合上下文语境且具有连贯性的说话风格,对提升有声读物合成语音的表现力至关重要。 本文为有声读物合成提出了一种结合多模态、多句子上下文信息的说话风格预测方法。 我们设计了一个基于层级变换器(Hierarchical Transformer)的上下文感知风格预测器,在混合注意力掩码机制的帮助下同时考虑文本侧的上下文信息和语音侧的历史语音风格信息,以更好地预测上下文中每句话的说话风格。 在此基础上,我们提出的模型可以逐句生成具有连贯说话风格和韵律的长篇语音。 实验表明,该方法可以为单一句子和多个连续句子生成比基线更具有表现力和连贯性的语音。

 

2. LightGrad: Lightweight Diffusion Probabilistic Model for Text-to-Speech

作者: Jie Chen, Xingchen Song, Zhendong Peng, Binbin Zhang, Fuping Pan, Zhiyong Wu

合作伙伴: 地平线信息技术有限公司、WeNet开源社区、香港中文大学

本文提出了基于扩散概率模型的轻量化语音合成声学模型LightGrad。 如今,大量语音合成模型被部署在云端以向客户提供语音合成服务。 基于云服务的语音合成服务存在高延迟、泄露隐私的问题。 将轻量化语音合成模型部署在终端设备可以有效解决上述问题。 但是,将基于扩散概率模型的语音合成声学模型部署在终端设备需解决两个问题: (1)现有的扩散概率模型参数量较多; (2)现有的扩散概率模型推理时需要较多的去噪步数,推理时延较高。 本文提出了一个轻量化U-Net扩散解码器,同时应用了一个无需重新训练模型的快速采样方法,有效降低了基于扩散概率模型的语音合成声学模型的参数量和模型推理时延。 除此之外,LightGrad中还引入了流式合成以进一步降低推理时延。 在中文和英文数据集上的实验表明,与Grad-TTS相比,LightGrad在减少了62.2%的模型参数和65.7%的推理延时的同时,保持了合成语音的质量。

 

3. A Synthetic Corpus Generation Method for Neural Vocoder Training

作者: Zilin Wang, Peng Liu, Jun Chen, Sipan Li, Jinfeng Bai, Gang He, Zhiyong Wu, Helen Meng

合作伙伴: 传音科技有限公司、北京世纪好未来教育科技有限公司、香港中文大学

神经声码器因其合成高保真音频的能力而受到青睐。 然而,训练一个神经声码器需要大量高质量的真实音频语料库,且音频录制过程往往需要大量的人力物力财力。 为此,我们提出了一种用于神经声码器训练的合成语料库生成方法,它可以在几乎没有成本的情况下轻松生成数量不限的合成音频。 我们同时对多个目标领域的音频的先验特征进行建模(例如演讲、歌唱的声音和器乐作品等),使生成的音频数据具备这些特征。 通过该方法,在不需要任何真实音频的情况下,使用我们的合成语料库训练神经声码器就可以取得非常有竞争力的合成结果。 为了验证我们所提出方法的有效性,我们对语音和音乐语料进行了主观和客观指标的实证实验。 结果表明,用我们的方法产生的合成语料库所训练的神经声码器可以泛化到多个目标场景,并具有出色的歌唱声音(MOS: 4.20)和器乐作品(MOS: 4.00)的合成结果。

 4. Enhancing the Vocal Range of Single-Speaker Singing Voice Synthesis with Melody-Unsupervised Pre-Training

作者: Shaohuan Zhou, Xu Li, Zhiyong Wu, Ying Shan, Helen Meng

合作伙伴: 腾讯科技有限公司、香港中文大学

基于单歌手数据所训练出来的歌声合成模型往往受限于单歌手的音域范围,无法较好地合成音域之外的歌声。 我们的工作提出了一种在多歌手数据集上进行旋律无监督预训练的方法,以提高单歌手的歌唱音域范围,同时不降低音色的相似度。 具体来说,在预训练阶段,我们设计了一个音素预测器来预测帧级别的音素信息,一个说话人编码器用于建模不同歌手的声音,并且直接从音频中预测f0值以提供音高信息。 这些预先训练好的模型参数作为先验知识被送入到微调阶段,以提高单歌手的音域范围。 此外,我们的工作还有助于提高合成歌声的声音质量和韵律自然度: 通过首次引入一个可微分的时长调节器来提升韵律自然度,以及一个双向流模型来提高声音质量。 实验结果表明,所提出的歌声合成系统在更高的音域范围上其歌声质量和自然度方面都优于基线模型。

 5. WavSyncSwap: End-to-End Portrait-Customized Audio-Driven Talking Face Generation

作者: Weihong Bao, Liyang Chen, Chaoyong Zhou, Sicheng Yang, Zhiyong Wu

合作伙伴: 平安科技(深圳)有限公司

具有肖像定制功能的音频驱动虚拟数字人生成,可以增强数字人在不同场景下 应用 的灵活性,如在线会议、混合现实和数据生成等。 在现有方法中,音频驱动虚拟数字人生成和换脸通常被视为两个不同的独立任务,其通过级联的方式以实现相应的目标。 在使用最新的Wav2Lip和SimSwap方法来实现该目标的过程中,我们遇到了一些问题: 受影响的口型同步、丢失的纹理信息和缓慢的推理速度等。 为了解决这些问题,我们提出了一种结合了两种方法优点的端到端模型。 所提方法借助预训练的语音-口型同步判别器生成高度同步的口型。 此外,我们引入ArcFace和ID注入模块以提供身份信息,因为它与面部纹理具有很强的相关性。 实验结果表明,我们的方法实现了与真实视频相当的口型同步准确度,并且相比级联方法保留了更多的纹理细节,并提高了推理速度。

 6. GTN-Bailando: Genre Consistent Long-Term 3D Dance Generation based on Pre-trained Genre Token Network

作者: Haolin Zhuang, Shun Lei, Long Xiao, Weiqin Li, Liyang Chen, Sicheng Yang, Zhiyong Wu, Shiyin Kang, Helen Meng

合作伙伴: 元象科技有限公司、香港中文大学

音乐驱动的3D舞蹈生成是 近 年来 热门的研究方向。 现有大多数的舞蹈生成方案缺乏对于舞蹈流派信息(Genre)的考虑,导致生成的舞蹈动作中流派不一致,影响观感。 此外,舞蹈流派与音乐之间的相关性也没有被考虑。 为了解决该问题,我们提出了一个新颖的舞蹈生成框架GTN-Bailando。 具体来说,首先,我们提出流派令牌网络(Genre Token Network),其可以从音乐推断流派,并将所推断出的流派信息引入至舞蹈生成框架中,以满足生成舞蹈的流派一致性。 其次,为了提升流派令牌网络的泛化能力,我们对其采用了预训练和微调的策略。 在AIST++数据集上的实验结果表明,所提出方案在舞蹈质量和流派一致方面皆优于现有最佳的舞蹈生成方案。

 

7. TrimTail: Low-Latency Streaming ASR with Simple but Effective Spectrogram-Level Length Penalty

作者: Xingchen Song, Di Wu, Zhiyong Wu, Binbin Zhang, Yuekai Zhang, Zhendong Peng, Wenpeng Li, Fuping Pan, Changbao Zhu

合作伙伴: 地平线信息技术有限公司、WeNet开源社区

本文提出剪尾(TrimTail)这一简单粗暴却有效的技巧,不需任何额外的对齐信息,可与任意训练损失(如Transducer损失及CTC损失)或任何模型架构在任意数据集使用,可成为解决ASR领域标签延迟问题的“通解”。 剪尾 (TrimTail) ,具体而言,是指对原始音频的末尾进行一定长度的修剪,对应地,剪头(TrimHead)指对原始音频的头部进行修剪,拓尾(PadTail)指在原始音频的尾部补一段值为零的序列,而拓头(PadHead)是在头部补一段值为零的序列。 本文提出一个观点,认为修剪这个操作可以压缩语音-文本的对齐空间,剪尾可迫使预测标签与先前的语音帧对齐,将对应的概率峰向前“挤”,如此可有效削减延迟。 剪头虽然也可以压缩空间,但是由于开头信息被剪导致缺失,致使语音-文本失配严重。 拓头、拓尾的实验结果(与剪尾相比,严格遵循了单一变量法则)表明延时增加,由于拓头、拓尾相当于拓增了对齐空间,延迟增加也反向证明了所提观点/解释的正确性。 实验结果表明,相比于原模型,经过剪尾训练的模型,能够在保持词错率基本不变或性能微掉的情况下,在中文普通话ASR数据集AISHEEL-1及英文ASR数据集Librispeech上取得约0.1至0.2s的延迟削减。

8. CB-Conformer: Contextual Biasing Conformer for Biased Word Recognition

作者: Yaoxun Xu, Baiji Liu, Qiaochu Huang, Zhiyong Wu, Shiyin Kang, Helen Meng

合作伙伴: 元象科技有限公司、香港中文大学

由于源域和目标域不匹配的问题,如何充分利用热词信息(biased word)对提升语音识别模型的性能至关重要。 在本工作中,我们提出了CB-Conformer,通过在传统Conformer中引入上下文偏置模块和自适应语言模型来提高热词识别的性能。 上下文偏置模块结合了音频片段和上下文信息,参数量只占原始Conformer模型参数的0.2%。 自适应语言模型根据热词召回率和精确度修改热词在语言模型内部的权重,从而更加专注于热词识别; 与普通的固定权重的语言模型相比,所提的自适应语言模型与原始语音识别模型更为契合。 此外,我们基于WenetSpeech数据集构建并开源了一个普通话热词数据集。 实验表明,与Conformer相比,所提出的方法的语音识别字错误率降低了15.34%,热词识别召回率提高了14.13%,热词识别F1-score提高了6.80%。

9. Keyword-Specific Acoustic Model Pruning for Open Vocabulary Keyword Spotting

作者: Yujie Yang, , Kun Zhang , Zhiyong Wu, Helen Men

合作伙伴: 华为诺亚方舟实验室语音语义组、香港中文大学

开放词汇语音唤醒系统允许用户自定义唤醒词,但由于语音唤醒需要被部属在端侧,其应用急需轻量化的模型设计。 为了识别所有可能的唤醒词,声学模型需要具有识别人类所有发音的能力,但对特定的唤醒词,声学模型过剩的表达能力必然存在冗余的参数。 我们的工作旨在裁剪掉声学模型中对识别关键词无贡献的参数。 为此,我们设计了一个动态声学模型,其参数与输入有关。 我们首次发现,动态声学模型会使用相似的子网络来处理具有相似发音的声学信号,不同的参数有助于识别不同的音素。 基于这一观察,我们在音素识别任务中,进一步约束具有相同音素伪标签的子网络之间的结构相似性,从而可以修剪出识别不同音素的独立子网络。 应用于端到端语音唤醒系统中时,仅有识别关键词中音素的子网络将被合并为一个识别当前关键词的声学模型,而那些对识别关键词没有贡献的参数将被修剪掉。 实验表明,在开放词汇语音唤醒任务中,我们的针对唤醒词的声学模型剪枝方法可以减少80%的声学模型参数而不会导致唤醒系统性能下降。

10. DASA: Difficulty-Aware Semantic Augmentation for Speaker Verification

作者: Yuanyuan Wang, Yang Zhang, Zhiyong Wu, Zhihan Yang, Tao Wei, Kun Zou, Helen Meng

合作伙伴: 平安科技(深圳)有限公司、香港中文大学

数据增强对于提升深度神经网络模型的泛化能力和鲁棒性是至关重要的。 目前说话人识别中常用的增强方法大都是直接在语音信号级别上进行数据增强,不但耗时,而且增强的样本缺乏多样性。 在本文中,我们针对说话人识别提出了一种基于难度感知的数据增强(DASA)方法。 该方法可以在说话人特征空间中生成多样化的训练样本,同时引入的额外计算成本可以忽略不计。 首先,我们从说话人相关的协方差矩阵中获得增强方向,以此扰动说话人特征来增加训练样本。 其次,在训练过程中为了估计出更准确的协方差矩阵,我们引入了DAAM-Softmax来获得更鲁棒的说话人特征。 最后,我们假设增强的样本数量达到无穷大,并结合DAAM-Softmax推导出DASA的封闭上界形式,从而实现了更好的兼容性和更高的效率。 我们进行了充分的实验,结果表明所提出的方法可以显著改进说话人识别的性能。

11.  Inter-SubNet: Speech Enhancement with Subband Interaction

作者: Jun Chen, Wei Rao, Zilin Wang, Jiuxin Lin, Zhiyong Wu, Yannan Wang, Shidong Shang, Helen Meng

合作伙伴: 腾讯天籁实验室、香港中文大学

基于子带的语音增强方法通过共享参数的模型并行处理子带,以学习局部频谱的共性,进而达到降噪的目的。 通过这种方式,它们以较少的参数取得了显著的降噪效果。 然而,在一些复杂的声学环境中,由于缺乏全局频谱信息,这些基于子带的语音增强方法的性能会出现严重的下降。 为此,在本文中,我们提出了子带交互方法(Subband Interaction)作为一种补充全局频谱信息(如跨频带依赖和全局频谱模式)的新方式,并在此基础上提出了一个新的轻量级单通道语音增强框架,称为Inter-SubNet。 在DNS Challenge - InterSpeech 2021数据集上的实验结果表面,我们所提出的InterSubNet相较于子带模型性能有了巨大的提升,并超过了其它最先进的语音增强方法。 这证实了我们所提出的子带交互方法的有效性。

 12. AV-SepFormer: Cross-Attention SepFormer for Audio-Visual Target  Speaker Extraction

作者: Jiuxin Lin, Xinyu Cai, Heinrich Dinkel, Jun Chen, Zhiyong Yan, Yongqing Wang, Junbo Zhang, Yujun Wang, Zhiyong Wu, Helen Meng

合作伙伴: 小米科技有限公司、香港中文大学

视觉信息可以作为目标说话人提取的一个有效线索,对提高提取性能至关重要。 在本文中,我们提出了AV-SepFormer,一个基于SepFormer的双尺度注意力模型,利用交叉和自注意力融合和建模来自音频和视觉的特征。 AV-SepFormer将音频特征分割成若干块,使其分辨率与视觉特征相当,然后采用交叉与自注意力来对多模态特征进行建模。 此外,我们还使用了一种新型的二维位置编码,该编码引入了块间和块内的位置信息,并获得了比传统位置编码更显著的收益。 我们的模型有两个优点: 音频分块后特征的时间分辨率与视觉特征相同,这缓解了音频和视频采样率不一致带来的危害; 通过结合交叉和自注意力,特征融合和语音提取过程被统一在一个注意力范式中。 实验结果表明,AV-SepFormer明显优于其它现有方法。

 13. TFCNet: Time-Frequency Domain Corrector for Speech Separation

作者: Weinan Tong, Jiaxu Zhu, Jun Chen, Zhiyong Wu, Shiyin Kang, Helen Meng

合作伙伴: 元象科技有限公司、香港中文大学

目前主流的语音分离方法是基于时域的方法,即直接使用神经网络模型对语音波形信息进行编码,提取特征,最终解码得到分离后的语音。 虽然时域方法在语音分离上取得突出的性能,但它在编码上存在着不稳定性。 这主要是因为时域方法在编码中用可学习的卷积代替了语音信号处理中的快速傅里叶变换(STFT),这种方法虽然能学习到一定的隐藏频谱空间,但不一定和真实的频谱空间一致,导致分离的语音和真实的语音在频谱上存在幅度及相位误差。 在本文中,我们提出了TFCNet,其由时域的分离器和频域的校正器构成。 频域校正器针对时域分离器的不足而特别进行设计,以便从幅度和相位两部分纠正错误的频谱信息。 在WSJ0-2mix和Libri-2mix数据集上的实验结果表明,加入校正器后分离性能有了巨大提升,超过了之前最先进的语音分离方法。

14. Lexicon-Injected Semantic Parsing for Task-Oriented Dialog

作者: Xiaojun Meng,Wenlin Dai,Yasheng Wang,Baojun Wang,Zhiyong Wu,Xin Jiang,Qun Liu

合作伙伴: 华为诺亚方舟实验室语音语义组 

对话系统使用基于层次表征的语义解析已经引起了广泛的关注。 面向任务的解析(TOP)是一种以意图和槽值作为嵌套树节点标签的树表示方法,被用于解析用户的话语,以分析用户意图等。 之前的TOP解析方法在利用词典信息方面受到了限制,而词典信息通常用于指导真实的对话系统。 为了解决这个问题,我们首先提出了一种新的基于跨度解析器的跨度分割表示,它的性能优于现有的表示方法; 然后提出了一种新的基于词汇注入的语义解析器,它收集树表示中语句词语的槽值标签作为词典,并将槽值标签作为特征注入到解析器的跨度表示中。 模型的槽值消歧模块使用基于BERT预训练的二分类模型,对匹配结果进行正/误分类,删除词典中不适当的跨度匹配。 实验表明,我们的解析器在TOP数据集上得到了最好的解析精度(87.62%),也证实了我们提出的基于词汇注入的解析器和槽值消歧模型的有效性。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/65044.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2022ChinaVis会议笔记

ChinaVis2022会议记录 7.22课程一、基于OBE理念的可视化教学探索与实践课程二、图布局基础、方法及应用 7.23一、大会特邀报告1二、圆桌论坛1:人文遇见可视化三、专题03交互可视化四、安全可视化五、论文报告2AI4VIS 7.24一、可视化工具与平台二、Multi-dimensional…

【OpenCall】ICASSP2023通用会议理解及生成挑战赛邀请函

ICASSP2023 通用会议理解及生成挑战赛(General Meeting Understanding and Generation Challenge,缩写为 MUG)是ICASSP2023 系列大挑战(SPGC)之一,由魔搭ModelScope社区、阿里巴巴达摩院语音实验室&语言技术实验室,阿里云天池联合浙江大学数字媒体计…

学术会议参会经验分享上(参会前的准备工作)

前前后后参加了两次学术会议,一次是今年三月份在深圳,另一次是在五月份在南宁,并且两次都进行了主题演讲。总的来说,我感觉参加学术会议重要的是自身能力的提升,比如说演讲、PPT制作等更方面的能力。下面我来分享一些我…

杭州内推 | 网易互娱AI Lab招聘NLP算法工程师、图形/图像算法实习生

合适的工作难找?最新的招聘信息也不知道? AI 求职为大家精选人工智能领域最新鲜的招聘信息,助你先人一步投递,快人一步入职! 网易互娱AI Lab 网易互娱AI Lab成立于2017年,是专注于游戏领域的人工智能实验室…

天猫精灵连接蓝牙摸索1 关于阿里巴巴蓝牙MESH芯片TG7100B LINUX 开发环境塔建图文说明

天猫精灵连接蓝牙摸索1 关于阿里巴巴蓝牙MESH芯片TG7100B LINUX 开发环境塔建图文说明 环境搭建好后,再结合我的第二篇博文,可以实现以下效果(点击可以查看第二篇博文): 天猫精灵连接蓝牙摸索2-TG7100B安装好LINUX编译…

当你和天猫精灵对话时,它在想什么?阿里智能对话技术深度解读

摘要: 术语对齐 TaskBot引擎: 核心处理对象是“技能”,我们把技能定义成结构化(querycontent)、垂直场景化的任务,比如实时场景查询、工具类、控制类等QABot引擎:包括KG-QA引擎、QAPair引擎、DeepQA引擎。 术语对齐 Ta…

三个步骤教你如何通过天猫精灵控制智汀,实现不同生态设备相互联动

我们在市面或某宝上看到很多智能设备,但是是隶属于不同智能家居品牌的,而智能家居品牌和生态之间是不互通,不兼容的;也就是说,虽然都能被智能生态语音控制,但是设备之间是有办法联动的,除非你买…

基于巴法云平台的天猫精灵控制开关

天猫精灵已经出来很久了,因为他的语音识比较精准,所以很多智能家居的开发者想通过天猫精灵来控制一些家电。于是天猫精灵,小度音响等一些列具有语音识别功能的音响问世。我了解到的最多的还是支持天猫精灵和小度音响。 今天讲的是利用巴法云来…

马云推出的“天猫精灵”到底有多牛? 细思极恐怖

这个时代的变化有多莫测? 开网店、改变银行的马云,搞起了机器人! 搞搜索、做地图的百度,完成了无人驾驶! 马云又打响一枪 马云大动作不断。三个重磅后,今天又打了对手一个措手不对。 天猫精灵——马云为…

15位大模型应用优秀代表出炉丨记2022大模型创新论坛 · 应用展示与交流

2022年,随着DALL-E2、ChatGPT等新模型的陆续发布,我们更深刻地认识到,超大规模预训练模型和基础模型等具有非凡的AI能力,他们懂语言、会写代码、能绘图画、演奏音乐,甚至开始具有身体。 2022年末,智源研究院…

斯坦福“草泥马”火了:100美元就能比肩GPT-3.5!手机都能运行的那种

梦晨 金磊 发自 凹非寺量子位 | 公众号 QbitAI 一夜之间,大模型界又炸出个big news! 斯坦福发布Alpaca(羊驼,网友口中的“草泥马”): 只花100美元,人人都可微调Meta家70亿参数的LLaMA大模型&…

TFBoys谁最红?BTS和EXO谁更红?杨幂杨颖谁更漂亮?看看ChatGPT怎么答送命题的(狗头)

最近大火的ChatGPT,不知道各位有没有玩,我倒是拿它来帮我编辑邮件内容、写述职报告、写文章等等的,简直太好用了哈哈哈 突然心血来潮,我想问问它娱乐圈的三大送命题:TFBoys谁最红?BTS和EXO谁更红?杨幂杨颖…

液压比例溢流阀R901170278、DBET-62/200G24-8K4V

DBET 型比例溢流阀是一种采用阀座设计的远程控制阀,可用于限制系统压力。借助带对中螺纹和可拆卸线圈的比例电磁铁进行操作。线圈的内部与油口 T 连接,并装满液压油。根据电气控制值的不同,这些阀门对要限制的系统压力进行无级设置。 这些阀…

浸液式液冷:数据中心主流液冷技术,龙头全梳理

引言 如今,随着人工智能的不断发展,数据中心越来越被重视。而数据中心的发展需要大量的IT设备,这些设备的持续运行将产生大量热量,需要不断被散发。为了保证数据中心的稳定运行,降温散热是必不可少的。当前液冷技术是数…

知识分享!冷却液温度传感器的结构、特性及功能-道合顺大数据

(一)冷却液温度传感器结构 冷却液温度传感器为负温度系数电阻计NTC,内部是由一个半导体热敏电阻构成,它具有负温度系数NTC。 当发动机冷却液温度逐渐升高时,热敏电阻的阻值将逐渐下降,相反则增大,结果发动机冷却液温…

数据中心服务器冷却技术,盘点数据中心液体冷却系统

多年来,由于增加服务器的密度并减少其体积的大小,服务器的密度变得越来越高,数据中心正日益产生更多的热量。因此,每平方英尺产生热量的瓦数正在不断上升,这种功率密度的增加严重制约了传统的冷却方法和技术。液体冷却作为是数据中心最新的制冷技术,正在被人们所接纳并应…

微流控芯片进样用多通道正负压力控制器的解决方案

摘要:在微流控芯片进样、化学反应进样和长时间药物注射领域,都需要能提供正负气压可精密控制的压力控制器。本文特别针对微流控芯片进样对多通道压力控制器的技术要求,提出了相应的解决方案,并详细介绍了方案中多通道气路结构、控…

厂商踊跃、数据中心观望 液冷距离爆发还差一场风

近年来,液冷技术在数据中心领域的遭遇可以用一个词形容:又冷又热。 技术冷:作为冷却介质,液体的冷却效能远远高于空气,所以在冷却效果上比风冷更“冷”一筹。 关注热: 随着技术发展与产业环境、政策变化&am…

浪潮信息:2025年,实现数据中心风冷、液冷同价

算力作为一种重要的生产力,俨然成为数字经济发展的关键驱动力。而数据中心作为算力的最重要的“输出方”,其作用不言而喻。特别是近来人工智能大模型相关产业的发展,对算力的需求呈指数级增长。大力发展数据中心、提升算力,成为经…

让用户真正放心的液冷技术来了

纵观人类历史,每次技术革新都伴随着生产要素和生产力的跨越式发展。如今,随着全球算力日益增长,数据中心单位空间中产生的热量正在不断增加、功率密度持续增大。赛迪顾问预测,快速增长的数据中心算力将推动高功率单机柜快速普及&a…