对音频切分成小音频(机器学习用)

我是把so-vits中小工具,分析源码然后提取出来了。以后可以写在自己的程序里。

-------流程(这是我做的流程,你可以不用看)

从开源代码中快速获取自己需要的东西

如果有界面f12看他里面的接口,然后在源码中全局搜索,没有接口比如socket,看他的消息字段,然后推测。然后提取补齐代码就行了

-------

你需要看的

提取出来有3个类

run.py是我自己写的

其他是我提取的源码,首先你得install一些包

numpy,librosa,soundfile

slicer2.py

import numpy as np# This function is obtained from librosa.
def get_rms(y,*,frame_length=2048,hop_length=512,pad_mode="constant",
):padding = (int(frame_length // 2), int(frame_length // 2))y = np.pad(y, padding, mode=pad_mode)axis = -1# put our new within-frame axis at the end for nowout_strides = y.strides + tuple([y.strides[axis]])# Reduce the shape on the framing axisx_shape_trimmed = list(y.shape)x_shape_trimmed[axis] -= frame_length - 1out_shape = tuple(x_shape_trimmed) + tuple([frame_length])xw = np.lib.stride_tricks.as_strided(y, shape=out_shape, strides=out_strides)if axis < 0:target_axis = axis - 1else:target_axis = axis + 1xw = np.moveaxis(xw, -1, target_axis)# Downsample along the target axisslices = [slice(None)] * xw.ndimslices[axis] = slice(0, None, hop_length)x = xw[tuple(slices)]# Calculate powerpower = np.mean(np.abs(x) ** 2, axis=-2, keepdims=True)return np.sqrt(power)class Slicer:def __init__(self,sr: int,threshold: float = -40.,min_length: int = 5000,min_interval: int = 300,hop_size: int = 20,max_sil_kept: int = 5000):if not min_length >= min_interval >= hop_size:raise ValueError('The following condition must be satisfied: min_length >= min_interval >= hop_size')if not max_sil_kept >= hop_size:raise ValueError('The following condition must be satisfied: max_sil_kept >= hop_size')min_interval = sr * min_interval / 1000self.threshold = 10 ** (threshold / 20.)self.hop_size = round(sr * hop_size / 1000)self.win_size = min(round(min_interval), 4 * self.hop_size)self.min_length = round(sr * min_length / 1000 / self.hop_size)self.min_interval = round(min_interval / self.hop_size)self.max_sil_kept = round(sr * max_sil_kept / 1000 / self.hop_size)def _apply_slice(self, waveform, begin, end):if len(waveform.shape) > 1:return waveform[:, begin * self.hop_size: min(waveform.shape[1], end * self.hop_size)]else:return waveform[begin * self.hop_size: min(waveform.shape[0], end * self.hop_size)]# @timeitdef slice(self, waveform):if len(waveform.shape) > 1:samples = waveform.mean(axis=0)else:samples = waveformif samples.shape[0] <= self.min_length:return [waveform]rms_list = get_rms(y=samples, frame_length=self.win_size, hop_length=self.hop_size).squeeze(0)sil_tags = []silence_start = Noneclip_start = 0for i, rms in enumerate(rms_list):# Keep looping while frame is silent.if rms < self.threshold:# Record start of silent frames.if silence_start is None:silence_start = icontinue# Keep looping while frame is not silent and silence start has not been recorded.if silence_start is None:continue# Clear recorded silence start if interval is not enough or clip is too shortis_leading_silence = silence_start == 0 and i > self.max_sil_keptneed_slice_middle = i - silence_start >= self.min_interval and i - clip_start >= self.min_lengthif not is_leading_silence and not need_slice_middle:silence_start = Nonecontinue# Need slicing. Record the range of silent frames to be removed.if i - silence_start <= self.max_sil_kept:pos = rms_list[silence_start: i + 1].argmin() + silence_startif silence_start == 0:sil_tags.append((0, pos))else:sil_tags.append((pos, pos))clip_start = poselif i - silence_start <= self.max_sil_kept * 2:pos = rms_list[i - self.max_sil_kept: silence_start + self.max_sil_kept + 1].argmin()pos += i - self.max_sil_keptpos_l = rms_list[silence_start: silence_start + self.max_sil_kept + 1].argmin() + silence_startpos_r = rms_list[i - self.max_sil_kept: i + 1].argmin() + i - self.max_sil_keptif silence_start == 0:sil_tags.append((0, pos_r))clip_start = pos_relse:sil_tags.append((min(pos_l, pos), max(pos_r, pos)))clip_start = max(pos_r, pos)else:pos_l = rms_list[silence_start: silence_start + self.max_sil_kept + 1].argmin() + silence_startpos_r = rms_list[i - self.max_sil_kept: i + 1].argmin() + i - self.max_sil_keptif silence_start == 0:sil_tags.append((0, pos_r))else:sil_tags.append((pos_l, pos_r))clip_start = pos_rsilence_start = None# Deal with trailing silence.total_frames = rms_list.shape[0]if silence_start is not None and total_frames - silence_start >= self.min_interval:silence_end = min(total_frames, silence_start + self.max_sil_kept)pos = rms_list[silence_start: silence_end + 1].argmin() + silence_startsil_tags.append((pos, total_frames + 1))# Apply and return slices.if len(sil_tags) == 0:return [waveform]else:chunks = []if sil_tags[0][0] > 0:chunks.append(self._apply_slice(waveform, 0, sil_tags[0][0]))for i in range(len(sil_tags) - 1):chunks.append(self._apply_slice(waveform, sil_tags[i][1], sil_tags[i + 1][0]))if sil_tags[-1][1] < total_frames:chunks.append(self._apply_slice(waveform, sil_tags[-1][1], total_frames))return chunksdef main():import os.pathfrom argparse import ArgumentParserimport librosaimport soundfileparser = ArgumentParser()parser.add_argument('audio', type=str, help='The audio to be sliced')parser.add_argument('--out', type=str, help='Output directory of the sliced audio clips')parser.add_argument('--db_thresh', type=float, required=False, default=-40,help='The dB threshold for silence detection')parser.add_argument('--min_length', type=int, required=False, default=5000,help='The minimum milliseconds required for each sliced audio clip')parser.add_argument('--min_interval', type=int, required=False, default=300,help='The minimum milliseconds for a silence part to be sliced')parser.add_argument('--hop_size', type=int, required=False, default=10,help='Frame length in milliseconds')parser.add_argument('--max_sil_kept', type=int, required=False, default=500,help='The maximum silence length kept around the sliced clip, presented in milliseconds')args = parser.parse_args()out = args.outif out is None:out = os.path.dirname(os.path.abspath(args.audio))audio, sr = librosa.load(args.audio, sr=None, mono=False)slicer = Slicer(sr=sr,threshold=args.db_thresh,min_length=args.min_length,min_interval=args.min_interval,hop_size=args.hop_size,max_sil_kept=args.max_sil_kept)chunks = slicer.slice(audio)if not os.path.exists(out):os.makedirs(out)for i, chunk in enumerate(chunks):if len(chunk.shape) > 1:chunk = chunk.Tsoundfile.write(os.path.join(out, f'%s_%d.wav' % (os.path.basename(args.audio).rsplit('.', maxsplit=1)[0], i)), chunk, sr)if __name__ == '__main__':main()

auto_slicer.py

import os
import numpy as np
import librosa
import soundfile as sf
from slicer2 import Slicerclass AutoSlicer:def __init__(self):self.slicer_params = {"threshold": -40,"min_length": 5000,"min_interval": 300,"hop_size": 10,"max_sil_kept": 500,}self.original_min_interval = self.slicer_params["min_interval"]def auto_slice(self, filename, input_dir, output_dir, max_sec):audio, sr = librosa.load(os.path.join(input_dir, filename), sr=None, mono=False)slicer = Slicer(sr=sr, **self.slicer_params)chunks = slicer.slice(audio)files_to_delete = []for i, chunk in enumerate(chunks):if len(chunk.shape) > 1:chunk = chunk.Toutput_filename = f"{os.path.splitext(filename)[0]}_{i}"output_filename = "".join(c for c in output_filename if c.isascii() or c == "_") + ".wav"output_filepath = os.path.join(output_dir, output_filename)sf.write(output_filepath, chunk, sr)#Check and re-slice audio that more than max_sec.while True:new_audio, sr = librosa.load(output_filepath, sr=None, mono=False)if librosa.get_duration(y=new_audio, sr=sr) <= max_sec:breakself.slicer_params["min_interval"] = self.slicer_params["min_interval"] // 2if self.slicer_params["min_interval"] >= self.slicer_params["hop_size"]:new_chunks = Slicer(sr=sr, **self.slicer_params).slice(new_audio)for j, new_chunk in enumerate(new_chunks):if len(new_chunk.shape) > 1:new_chunk = new_chunk.Tnew_output_filename = f"{os.path.splitext(output_filename)[0]}_{j}.wav"sf.write(os.path.join(output_dir, new_output_filename), new_chunk, sr)files_to_delete.append(output_filepath)else:breakself.slicer_params["min_interval"] = self.original_min_intervalfor file_path in files_to_delete:if os.path.exists(file_path):os.remove(file_path)def merge_short(self, output_dir, max_sec, min_sec):short_files = []for filename in os.listdir(output_dir):filepath = os.path.join(output_dir, filename)if filename.endswith(".wav"):audio, sr = librosa.load(filepath, sr=None, mono=False)duration = librosa.get_duration(y=audio, sr=sr)if duration < min_sec:short_files.append((filepath, audio, duration))short_files.sort(key=lambda x: x[2], reverse=True)merged_audio = []current_duration = 0for filepath, audio, duration in short_files:if current_duration + duration <= max_sec:merged_audio.append(audio)current_duration += durationos.remove(filepath)else:if merged_audio:output_audio = np.concatenate(merged_audio, axis=-1)if len(output_audio.shape) > 1:output_audio = output_audio.Toutput_filename = f"merged_{len(os.listdir(output_dir))}.wav"sf.write(os.path.join(output_dir, output_filename), output_audio, sr)merged_audio = [audio]current_duration = durationos.remove(filepath)if merged_audio and current_duration >= min_sec:output_audio = np.concatenate(merged_audio, axis=-1)if len(output_audio.shape) > 1:output_audio = output_audio.Toutput_filename = f"merged_{len(os.listdir(output_dir))}.wav"sf.write(os.path.join(output_dir, output_filename), output_audio, sr)def slice_count(self, input_dir, output_dir):orig_duration = final_duration = 0for file in os.listdir(input_dir):if file.endswith(".wav"):_audio, _sr = librosa.load(os.path.join(input_dir, file), sr=None, mono=False)orig_duration += librosa.get_duration(y=_audio, sr=_sr)wav_files = [file for file in os.listdir(output_dir) if file.endswith(".wav")]num_files = len(wav_files)max_duration = -1min_duration = float("inf")for file in wav_files:file_path = os.path.join(output_dir, file)audio, sr = librosa.load(file_path, sr=None, mono=False)duration = librosa.get_duration(y=audio, sr=sr)final_duration += float(duration)if duration > max_duration:max_duration = float(duration)if duration < min_duration:min_duration = float(duration)return num_files, max_duration, min_duration, orig_duration, final_duration

run.py

import os
from auto_slicer import AutoSlicer
import librosa
def slicer_fn(input_dir, output_dir, process_method, max_sec, min_sec):if output_dir == "":return "请先选择输出的文件夹"if output_dir == input_dir:return "输出目录不能和输入目录相同"slicer = AutoSlicer()if os.path.exists(output_dir) is not True:os.makedirs(output_dir)for filename in os.listdir(input_dir):if filename.lower().endswith(".wav"):slicer.auto_slice(filename, input_dir, output_dir, max_sec)if process_method == "丢弃":for filename in os.listdir(output_dir):if filename.endswith(".wav"):filepath = os.path.join(output_dir, filename)audio, sr = librosa.load(filepath, sr=None, mono=False)if librosa.get_duration(y=audio, sr=sr) < min_sec:os.remove(filepath)elif process_method == "将过短音频整合为长音频":slicer.merge_short(output_dir, max_sec, min_sec)file_count, max_duration, min_duration, orig_duration, final_duration = slicer.slice_count(input_dir, output_dir)hrs = int(final_duration / 3600)mins = int((final_duration % 3600) / 60)sec = format(float(final_duration % 60), '.2f')rate = format(100 * (final_duration / orig_duration), '.2f') if orig_duration != 0 else 0rate_msg = f"为原始音频时长的{rate}%" if rate != 0 else "因未知问题,无法计算切片时长的占比"return f"成功将音频切分为{file_count}条片段,其中最长{max_duration}秒,最短{min_duration}秒,切片后的音频总时长{hrs:02d}小时{mins:02d}分{sec}秒,{rate_msg}"input_dir="F:\sliper\input"#输入文件夹(这里面可以放多个wav)
output_dir="F:\sliper\output"#输出文件夹
process_method="丢弃"#如果音频小于3就丢弃
max_sec=15#音频最长为15
min_sec=3#音频最小为3
slicer_fn(input_dir,output_dir,process_method,max_sec,min_sec)

测试输入

得到

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/153243.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

U盘部分文件无故消失?3招帮你恢复数据!

“怎么会这样呢&#xff1f;我的u盘有一段时间没用了&#xff0c;今天把它插入电脑后发现有些文件无故消失了&#xff0c;明明我也没有删除这些文件啊。还有办法可以找回它们吗&#xff1f;” U盘作为便捷小巧的存储工具&#xff0c;逐渐成为人们数据存储的好帮手。但在使用u盘…

从0开始python学习-31.selenium 文本输入框、下拉选择框、文件上传、时间插件选择元素定位

目录 1. 纯文本输入框 2. 存在默认值的文本输入 3. 下拉选择框 4. 输入后下拉选择框 5. 文件上传 6. 时间插件 1. 纯文本输入框 driver.find_element(By.XPATH,/html/body/div[2]/td[2]/input).send_keys(测试名称) 2. 存在默认值的文本输入 注意&#xff1a; 1. 这种存…

PET/MRI:技术和方法

前言 多模态信息通常用于诊断或研究的目的&#xff0c;因为每种成像技术提供了互补的信息&#xff0c;例如有关解剖学、生理学或代谢的信息。正电子发射断层扫描(PET)测量体内特定分子的分布和浓度&#xff0c;磁共振成像(MRI)反映质子密度和组织弛豫时间&#xff0c;计算机断…

非线性权重纵横交叉t分布改进麻雀算法

目录 1 横向交叉操作 2 纵向交叉操作 3 非线性惯性权重 4 基于t分布变异 5 实验结果 1 横向交叉操作 横向交叉操作类似于遗传算法中的交叉操作&#xff0c;是在不同 种群的相同维度中进行交叉运算。针对麻雀搜索算法全局 搜索能力不强的问题&#xff0c;本文应用横向交叉策…

VR酒店虚拟仿真情景实训教学演示

在传统的酒店管理教学过程中&#xff0c;学生往往缺乏实践操作经验&#xff0c;难以将理论知识与实际工作相结合。而VR酒店虚拟仿真情景实训教学应用可以为学生提供一个逼真的、沉浸式的酒店管理环境&#xff0c;使学生能够在模拟实践中掌握酒店管理的各项技能。 VR酒店虚拟仿真…

阿里云 腾讯云 配置二级域名并解析指向非80端口操作指南

目标&#xff1a;主域名 imps.com 已完成配置&#xff0c;新增配置 kpi.imps.com 等二级域名并指向 8083 端口。 &#xff08;此操作需要主域名已经通过备案3天后&#xff0c;最好指向的IP地址网站也通过了备案申请&#xff0c;否则会提示域名没有备案。&#xff09; 操作流程…

使用 nodejs,SpringBoot 两种方式实现 WebSocket

前言 WebSocket 是一种在单个 TCP 连接上进行全双工通信的协议&#xff0c;它可以让浏览器和服务器之间实现实时双向数据传输。 WebSocket 的优点是&#xff1a; 可以节省服务器资源和带宽&#xff0c;提高性能和效率可以让服务器主动向客户端推送数据&#xff0c;实现实时响…

HarmonyOS/OpenHarmony原生应用-ArkTS万能卡片组件Stack

堆叠容器&#xff0c;子组件按照顺序依次入栈&#xff0c;后一个子组件覆盖前一个子组件。该组件从API Version 7开始支持。可以包含子组件。 一、接口 Stack(value?: { alignContent?: Alignment }) 从API version 9开始&#xff0c;该接口支持在ArkTS卡片中使用。 二、…

alsa pcm接口之pcm设备的状态STATE

应用和库之间的协作: ALSA pcm api设计使用状态来确定应用程序和库之间的通信阶段,实际的状态可以被决定通过使用snd_pcm_state调用,下面列举出来状态: SND_PCM_STATE_OPEN: 表示pcm设备被打开的状态,使用了snd_pcm_open()之后进入该状态,并且让snd_pcm_hw_params()调用失败后,…

linux,write:xxx has messages disabled 与 Ubuntu多用户同时登录的问题 ubuntu 20.04

write&#xff1a;xxx has messages disabled 问题 被这问题折磨了好久&#xff0c;搜都搜不到&#xff0c;还是灵机一动想到的。 很多 帖子说&#xff0c;要使用 mesg y用了还是没有用&#xff0c;后面我登录了很多用户&#xff0c;发现只有root用户可以给别的用户使用write…

各类高危漏洞介绍及验证方式教程(一)

本期整理的漏洞验证教程约包含50多类漏洞&#xff0c;分多个章节编写&#xff0c;可从以下链接获取全文&#xff1a; 各类高危漏洞验证方式.docx (访问密码: 1455) 搭建dvwa测试环境基础教程.docx(访问密码: 1455) web逻辑漏洞挖掘快速入门基础教程.docx(访问密码: 1455) 01 Ca…

实验1机器学习之线性回归实验

一、实验目的&#xff1a; &#xff08;1&#xff09;理解一元线性回归和多元线性回归的数学原理&#xff0c;能够利用sklearn中相关库解决现实世界中的各类回归问题&#xff1b; &#xff08;2&#xff09;掌握利用matplotlib对一元线性回归模型进行可视化的方法&#xff0c…

【数据结构初阶】七、非线性表里的二叉树(堆的实现 -- C语言顺序结构)

相关代码gitee自取&#xff1a; C语言学习日记: 加油努力 (gitee.com) 接上期&#xff1a; 【数据结构初阶】六、线性表中的队列&#xff08;链式结构实现队列&#xff09;-CSDN博客 1 . 非线性表里的 树(Tree) 树的概念及结构&#xff1a; 树的概念 树是一种非线性的数据…

【计算机网络】高级IO初步理解

文章目录 1. 什么是IO&#xff1f;什么是高效 IO? 2. IO的五种模型五种IO模型的概念理解同步IO与异步IO整体理解 3. 阻塞IO4. 非阻塞IOsetnonblock函数为什么非阻塞IO会读取错误&#xff1f;对错误码的进一步判断检测数据没有就绪时&#xff0c;返回做一些其他事情完整代码myt…

黑马JVM总结(二十九)

&#xff08;1&#xff09;语法糖-重写桥接 &#xff08;2&#xff09;语法糖-匿名内部类 &#xff08;3&#xff09;类加载-加载 类加载可以分为3个阶段&#xff0c;加载、连接、初始化 我们知道java类编译成字节码以后&#xff0c;运行呢需要类加载器把类的字节码加载到方法…

git的基本使用

git地址 https://git-scm.com/ git首次安装必须设置签名代码&#xff0c;否则无法提交代码 git init git status 14 idea中连接gitee file-setting中安装gitee插件&#xff0c;安装gitee插件后可以在version control中看到gitee&#xff0c;点击 添加gitee账号&#xff…

Kafka和RabbitMQ的对比

Rabbitmq比kafka可靠&#xff0c;kafka更适合IO高吞吐的处理&#xff0c;比如ELK日志收集 Kafka和RabbitMq一样是通用意图消息代理&#xff0c;他们都是以分布式部署为目的。但是他们对消息语义模型的定义的假设是非常不同的。 a) 以下场景比较适合使用Kafka。如果有大量的事…

聊聊MySQL的聚簇索引和非聚簇索引

文章目录 1. 索引的分类1. 存储结构维度2. 功能维度3. 列数维度4. 存储方式维度5. 更新方式维度 2. 聚簇索引2.1 什么是聚簇索引2.2 聚簇索引的工作原理 3. 非聚簇索引&#xff08;MySQL官方文档称为Secondary Indexes&#xff09;3.1 什么是非聚簇索引3.2 非聚簇索引的工作原理…

Win10系统打开组策略编辑器的两种方法

组策略编辑器是Win10电脑中很实用的工具&#xff0c;它可以帮助用户管理和设置计算机的安全性、网络连接、软件安装等各种策略。但是&#xff0c;很多新手用户不知道打开Win10电脑中组策略编辑器的方法步骤&#xff0c;下面小编给大家介绍两种简单的方法&#xff0c;帮助打开快…

Gitlab+Jenkins自动化部署,解放双手

项目打包 ​ 在部署项目前需要对源码进行打包&#xff0c;一个简单的SpringBoot项目默认是打包为jar包&#xff0c;也就是在pom.xml中的<packaging>jar</packaging>方式&#xff0c;当然也会有一些打包成war包方式&#xff0c;使用外置的Tomcat应用服务器部署war包…