第四篇【传奇开心果系列】Python文本和语音相互转换库技术点案例示例:pyttsx3自动化脚本经典案例

传奇开心果短博文系列

  • 系列短博文目录
    • Python文本和语音相互转换库技术点案例示例系列
  • 短博文目录
    • 前言
    • 一、雏形示例代码
    • 二、扩展思路介绍
    • 三、批量处理文本示例代码
    • 四、自定义语音设置示例代码
    • 五、结合其他库和API示例代码
    • 六、语音交互系统示例代码
    • 七、多语言支持示例代码
    • 八、添加语音提示和反馈示例代码
    • 九、结合图形界面示例代码
    • 十、文本预处理和语音合成示例代码
    • 十一、导出语音文件示例代码
    • 十二、语音识别和语音合成的结合示例代码
    • 十三、归纳总结

系列短博文目录

Python文本和语音相互转换库技术点案例示例系列

短博文目录

前言

在这里插入图片描述
在这里插入图片描述使用pyttsx3库创建自动化脚本有几个主要作用:

  1. 语音提示和反馈:通过将文本转换为语音输出,你可以为自动化脚本添加语音提示和反馈功能。这样,你可以通过语音提示告知用户脚本的进度、状态或结果,提供更直观和人性化的交互体验。

  2. 语音报告和通知:自动化脚本可以将生成的报告或通知以语音形式输出,使得用户可以通过听取语音报告来获取脚本执行的结果或重要信息。这对于需要在视觉上无法直接观察脚本输出的场景非常有用。

  3. 辅助无障碍功能:pyttsx3库可以帮助实现无障碍功能,使得视觉障碍用户能够通过听取语音输出来与自动化脚本进行交互。这样,无障碍用户也可以享受到自动化脚本带来的便利和功能。

  4. 自动化语音交互系统:你可以结合pyttsx3库和其他库或API,创建一个完整的语音交互系统。通过语音输入和语音输出,用户可以通过语音与脚本进行交互,实现更自然和便捷的操作。

  5. 多语言支持:pyttsx3库支持多种语言和语音引擎,你可以根据需要选择合适的语言进行语音输出。这使得你可以为不同语言的用户提供本地化的语音交互体验。

总的来说,pyttsx3库为自动化脚本提供了语音合成的能力,使得脚本可以通过语音与用户进行交互、输出报告和通知,以及实现无障碍功能。这为脚本的使用者提供了更多的选择和便利,增强了脚本的可用性和用户体验。

一、雏形示例代码

在这里插入图片描述下面是一个使用pyttsx库创建自动化脚本的示例:

import pyttsx3# 创建一个TTS引擎实例
engine = pyttsx3.init()# 设置要说的文本
text = "Hello, World!"# 说出文本
engine.say(text)# 等待引擎完成语音输出
engine.runAndWait()

这个脚本会使用pyttsx3库创建一个TTS(Text-to-Speech)引擎实例,然后设置要说的文本并将其传递给引擎进行语音输出。engine.say()函数用于将文本传递给引擎,engine.runAndWait()函数用于等待引擎完成语音输出。

你可以根据需要修改text的值来设置要说的文本,然后运行脚本即可听到语音输出。请确保已经安装了pyttsx3库,如果没有安装,可以使用以下命令进行安装:

pip install pyttsx3

二、扩展思路介绍

在这里插入图片描述当涉及到使用pyttsx3库创建自动化脚本时,你可以考虑以下扩展思路:

  1. 批量处理文本:你可以编写一个脚本,从文件中读取一系列文本,然后使用pyttsx3逐个将它们转换为语音输出。这对于批量处理大量文本文件或生成大量语音文件非常有用。

  2. 自定义语音设置:pyttsx3库允许你设置语音的属性,如音量、语速、语调等。你可以根据需要调整这些属性,以获得更符合你要求的语音输出。

  3. 结合其他库和API:你可以将pyttsx3与其他库和API结合使用,以实现更复杂的自动化任务。例如,你可以使用文本分析库来提取关键信息,然后使用pyttsx3将这些信息转换为语音输出。或者,你可以结合语音识别库,将语音转换为文本,然后使用pyttsx3将文本转换回语音输出。

  4. 语音交互系统:你可以使用pyttsx3库创建一个简单的语音交互系统。通过监听用户的语音输入,将其转换为文本,然后使用pyttsx3将回应转换为语音输出。这可以用于构建语音助手、语音控制系统等。

  5. 多语言支持:pyttsx3库支持多种语言和语音引擎。你可以根据需要切换语言和语音引擎,以实现多语言的语音输出。

  6. 添加语音提示和反馈:除了将文本转换为语音输出,你还可以使用pyttsx3库为你的脚本添加语音提示和反馈。例如,在长时间运行的任务中,你可以使用语音提示来告知进度或完成情况。

  7. 结合图形界面:如果你正在开发一个图形界面应用程序,你可以将pyttsx3与图形界面库(如Tkinter、PySide6等)结合使用,以实现语音交互的用户界面。这样,用户不仅可以通过界面操作应用程序,还可以通过语音与应用程序进行交互。

  8. 文本预处理和语音合成:在将文本传递给pyttsx3进行语音合成之前,你可以进行一些文本预处理操作,如文本清洗、分词、标记化等。这可以帮助提高语音合成的质量和准确性。

  9. 导出语音文件:除了实时语音输出,pyttsx3还支持将语音输出保存为音频文件。你可以使用该功能将语音输出保存为文件,以备后续使用或分享。

  10. 语音识别和语音合成的结合:如果你的脚本需要进行语音输入和输出,你可以结合语音识别库(如SpeechRecognition)和pyttsx3,实现语音输入转换为文本,然后将文本转换为语音输出的完整语音交互过程。

这些扩展思路可以帮助你进一步发挥pyttsx3库的功能,根据你的需求定制自动化脚本。记得根据需要查阅相关文档,并灵活运用这些思路来满足你的具体需求。

三、批量处理文本示例代码

在这里插入图片描述当使用pyttsx3库批量处理文本时,你可以编写一个脚本来读取文本文件,并将每个文本逐个转换为语音输出。以下是一个示例代码,演示如何实现这个功能:

import pyttsx3def text_to_speech(text, output_file):engine = pyttsx3.init()engine.save_to_file(text, output_file)engine.runAndWait()def process_text_files(file_list):for file_path in file_list:with open(file_path, 'r') as file:text = file.read()output_file = f"output_{file_path}.mp3"text_to_speech(text, output_file)print(f"Converted {file_path} to {output_file}")# 批量处理文本文件
file_list = ["file1.txt", "file2.txt", "file3.txt"]
process_text_files(file_list)

在这个示例代码中,我们定义了一个text_to_speech函数,它接受一个文本字符串和一个输出文件路径作为参数。这个函数使用pyttsx3库来将文本转换为语音,并将语音保存到指定的输出文件中。

然后,我们定义了一个process_text_files函数,它接受一个文本文件路径的列表作为参数。在这个函数中,我们遍历每个文件路径,打开文本文件并读取其中的文本内容。然后,我们生成一个对应的输出文件路径,并调用text_to_speech函数将文本转换为语音并保存到输出文件中。

最后,我们定义了一个文件路径列表file_list,包含要处理的文本文件的路径。你可以根据实际情况修改这个列表,添加或删除文件路径。

运行这个示例代码后,它将逐个处理文本文件,并将每个文本转换为对应的语音输出文件。输出文件的命名方式为output_原文件名.mp3,例如output_file1.txt.mp3

请注意,这只是一个简单的示例代码,你可以根据自己的需求进行修改和扩展。例如,你可以添加错误处理、调整语音设置、修改输出文件格式等。
当扩展示例代码以添加错误处理、调整语音设置和修改输出文件格式时,可以进行如下修改:

import pyttsx3def text_to_speech(text, output_file, voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)try:engine.save_to_file(text, output_file)engine.runAndWait()print(f"Converted text to {output_file}")except pyttsx3.Error as e:print(f"Error occurred: {e}")def process_text_files(file_list, voice_id=None, rate=None, volume=None, output_format='mp3'):for file_path in file_list:with open(file_path, 'r') as file:text = file.read()output_file = f"output_{file_path}.{output_format}"text_to_speech(text, output_file, voice_id, rate, volume)# 批量处理文本文件
file_list = ["file1.txt", "file2.txt", "file3.txt"]
process_text_files(file_list, voice_id=0, rate=150, volume=1.5, output_format='wav')

在这个修改后的示例代码中,我们对text_to_speech函数进行了修改,添加了错误处理和语音设置的功能。在错误处理部分,我们使用try-except语句捕获pyttsx3.Error异常,并打印出错误消息。这样可以在出现错误时,及时通知用户并进行相应处理。

在语音设置部分,我们添加了三个参数:voice_idratevolumevoice_id参数用于选择语音引擎的声音,可以通过设置不同的索引值来选择不同的声音。rate参数用于调整语音的速度,可以设置一个整数值,表示语音的速度。volume参数用于调整语音的音量,可以设置一个浮点数值,表示音量的大小。

process_text_files函数中,我们添加了output_format参数,用于指定输出文件的格式。默认为mp3格式。你可以根据需要修改为其他支持的格式,如wavogg等。

最后,我们调用process_text_files函数时,传入了相应的参数来进行语音设置和输出文件格式的修改。你可以根据实际需求调整这些参数的值。

请注意,这只是一个示例代码,你可以根据自己的需求进行修改和扩展。例如,你可以添加更多的语音设置选项、修改输出文件命名方式、添加更详细的错误处理逻辑等。

四、自定义语音设置示例代码

在这里插入图片描述当使用pyttsx3库自定义语音设置时,你可以根据需要调整音量、语速、语调等属性。以下是一个示例代码,演示如何设置这些属性:

import pyttsx3def text_to_speech(text, output_file, voice_id=None, rate=None, volume=None, pitch=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)if pitch:engine.setProperty('pitch', pitch)try:engine.save_to_file(text, output_file)engine.runAndWait()print(f"Converted text to {output_file}")except pyttsx3.Error as e:print(f"Error occurred: {e}")# 示例调用
text = "Hello, how are you?"
output_file = "output.mp3"
text_to_speech(text, output_file, volume=1.5, rate=150, pitch=50)

在这个示例代码中,我们修改了text_to_speech函数,添加了pitch参数用于设置语音的语调。

pyttsx3库的setProperty方法可以用来设置语音引擎的属性。我们使用setProperty方法来设置音量(volume)、语速(rate)、语调(pitch)等属性。

在示例调用中,我们传入了相应的参数来设置音量为1.5倍,语速为150,语调为50。你可以根据需要调整这些参数的值。

请注意,具体可用的属性值和范围可能因语音引擎和系统而有所不同。你可以根据自己的需求和实际情况进行调整。

五、结合其他库和API示例代码

在这里插入图片描述结合其他库和API可以实现更复杂的自动化任务。以下是一个示例代码,演示了如何结合文本分析库和pyttsx3库,以提取关键信息并将其转换为语音输出:

import pyttsx3
from nltk import pos_tag, word_tokenizedef extract_keywords(text):# 使用nltk库进行词性标注和分词tokens = word_tokenize(text)tagged = pos_tag(tokens)# 提取名词和形容词作为关键词keywords = [word for word, pos in tagged if pos.startswith('NN') or pos.startswith('JJ')]return keywordsdef text_to_speech(text, output_file, voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)try:engine.save_to_file(text, output_file)engine.runAndWait()print(f"Converted text to {output_file}")except pyttsx3.Error as e:print(f"Error occurred: {e}")# 示例调用
text = "The quick brown fox jumps over the lazy dog"
output_file = "output.mp3"# 提取关键词
keywords = extract_keywords(text)# 将关键词转换为语音输出
keyword_text = ', '.join(keywords)
text_to_speech(keyword_text, output_file, volume=1.5, rate=150)

在这个示例代码中,我们使用了nltk库进行词性标注和分词,然后提取名词和形容词作为关键词。你可以根据需要使用其他文本分析库或API来提取关键信息。

在示例调用中,我们首先使用extract_keywords函数提取关键词。然后,将关键词转换为逗号分隔的文本,并将其传递给text_to_speech函数进行语音转换。

你还可以结合语音识别库,将语音转换为文本,然后使用pyttsx3将文本转换为语音输出。这样可以实现语音交互系统或语音助手等功能。

六、语音交互系统示例代码

在这里插入图片描述创建一个完整的语音交互系统需要结合语音识别库和语音合成库。在这个示例中,我们将使用SpeechRecognition库进行语音识别,然后使用pyttsx3库进行语音合成。以下是一个简单的示例代码:

import speech_recognition as sr
import pyttsx3def listen():r = sr.Recognizer()with sr.Microphone() as source:print("Listening...")audio = r.listen(source)try:text = r.recognize_google(audio)return textexcept sr.UnknownValueError:print("Sorry, I didn't understand.")except sr.RequestError as e:print(f"Request error: {e}")return ""def speak(text, voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)engine.say(text)engine.runAndWait()# 示例调用
while True:# 监听用户的语音输入user_input = listen()print("User:", user_input)# 判断用户的语音输入并作出回应if "hello" in user_input:speak("Hello, how can I help you?")elif "goodbye" in user_input:speak("Goodbye!")breakelse:speak("Sorry, I didn't understand. Can you please repeat?")

在这个示例代码中,我们使用SpeechRecognition库的Recognizer类进行语音识别。我们使用麦克风作为输入源,并使用Google语音识别API进行语音转文本的识别。

listen函数中,我们使用recognize_google方法将语音转换为文本,并返回识别的文本结果。

speak函数中,我们使用pyttsx3库将文本转换为语音输出。

在示例调用中,我们通过循环监听用户的语音输入,并根据用户的输入作出相应的回应。如果用户说"hello",则回应"Hello, how can I help you?";如果用户说"goodbye",则回应"Goodbye!“并退出循环;否则,回应"Sorry, I didn’t understand. Can you please repeat?”。

你可以根据需要扩展和定制这个系统,添加更多的语音命令和回应。

七、多语言支持示例代码

在这里插入图片描述
在这里插入图片描述
pyttsx3库支持多种语言和语音引擎,可以根据需要进行切换。以下是一个示例代码,演示了如何使用不同的语言和语音引擎进行语音输出:

import pyttsx3def speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()# 示例调用
speak("Hello, how are you?", language='en', voice_id=0)
speak("你好,你好吗?", language='zh', voice_id=0)

在这个示例代码中,我们定义了speak函数,用于将文本转换为语音输出。

speak函数中,我们使用pyttsx3库的init方法初始化语音引擎。

我们可以通过setProperty方法设置语音引擎的属性,包括语音、速率和音量。voice_id参数用于选择特定的语音,可以使用engine.getProperty('voices')获取可用的语音列表。

我们可以使用setProperty方法设置语言,使用ISO 639-1代码表示。例如,'en’表示英语,'zh’表示中文。

在示例调用中,我们分别使用英语和中文进行语音输出。language参数用于指定语言,voice_id参数用于指定特定的语音。

你可以根据需要切换语言和语音引擎,以满足具体的需求。

八、添加语音提示和反馈示例代码

在这里插入图片描述确实,你可以使用pyttsx3库为脚本添加语音提示和反馈,以增强用户体验。以下是一个示例代码,演示了如何在长时间运行的任务中使用语音提示来告知进度或完成情况:

import pyttsx3def speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()# 示例调用
speak("开始处理数据,请稍等...", language='zh', voice_id=0)# 模拟长时间运行的任务
for i in range(10):# 执行任务的代码print(f"正在处理第 {i+1} 个数据...")# 使用语音提示告知进度speak(f"正在处理第 {i+1} 个数据...", language='zh', voice_id=0)# 完成任务后使用语音提示
speak("数据处理完成!", language='zh', voice_id=0)

在这个示例代码中,我们定义了speak函数,用于将文本转换为语音输出。

我们在任务开始前使用语音提示告知用户开始处理数据。

然后,我们使用循环模拟长时间运行的任务,在每次循环中执行任务的代码,并使用语音提示告知当前进度。

最后,当任务完成后,我们使用语音提示告知用户数据处理完成。

通过在适当的位置添加语音提示,用户可以通过听取语音消息来了解任务的进度和状态,提升用户体验。

你可以根据需要在适当的位置使用语音提示,以满足具体的需求。

九、结合图形界面示例代码

在这里插入图片描述
在这里插入图片描述
当结合pyttsx3和图形界面库(如Tkinter)时,你可以创建一个具有语音交互功能的用户界面应用程序。
在这里插入图片描述

  1. 以下是一个示例代码,演示了如何结合pyttsx3和Tkinter.ttk库创建一个简单的语音交互界面:
import pyttsx3
import tkinter as tk
from tkinter import ttkdef speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()def on_button_click():user_input = entry.get()speak(f"You entered: {user_input}", language='en', voice_id=0)# 创建Tkinter窗口
window = tk.Tk()
window.title("语音交互界面")# 创建标签和输入框
label = ttk.Label(window, text="请输入文本:")
label.pack()
entry = ttk.Entry(window)
entry.pack()# 创建按钮
button = ttk.Button(window, text="提交", command=on_button_click)
button.pack()# 运行Tkinter事件循环
window.mainloop()

在这个示例代码中,我们创建了一个简单的Tkinter窗口应用程序。

我们定义了speak函数,用于将文本转换为语音输出。

on_button_click函数中,我们获取用户在输入框中输入的文本,并使用语音提示告知用户输入的内容。

我们创建了一个标签、一个输入框和一个按钮,用于用户输入文本和提交。

当用户点击按钮时,会触发on_button_click函数,将用户输入的文本传递给speak函数进行语音输出。

通过结合pyttsx3和Tkinter库,你可以实现一个具有语音交互功能的用户界面应用程序。用户可以通过界面输入文本,并通过语音输出进行交互。

希望这个示例能帮助你开始开发一个结合图形界面和语音交互的应用程序。你可以根据需要进行进一步的定制和扩展。
在这里插入图片描述
在这里插入图片描述当结合pyttsx3和PySide6时,你可以创建一个具有语音交互功能的用户界面应用程序。

  1. 以下是一个示例代码,演示了如何结合pyttsx3和PySide6库创建一个简单的语音交互界面:
import pyttsx3
from PySide6.QtCore import Qt
from PySide6.QtWidgets import QApplication, QMainWindow, QLabel, QLineEdit, QPushButtondef speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()class MainWindow(QMainWindow):def __init__(self):super().__init__()self.setWindowTitle("语音交互界面")# 创建标签和输入框self.label = QLabel("请输入文本:", self)self.label.setAlignment(Qt.AlignCenter)self.label.setGeometry(50, 50, 200, 30)self.entry = QLineEdit(self)self.entry.setGeometry(50, 100, 200, 30)# 创建按钮self.button = QPushButton("提交", self)self.button.setGeometry(50, 150, 200, 30)self.button.clicked.connect(self.on_button_click)def on_button_click(self):user_input = self.entry.text()speak(f"You entered: {user_input}", language='en', voice_id=0)# 创建PySide6应用程序
app = QApplication([])
window = MainWindow()
window.show()# 运行应用程序事件循环
app.exec()

在这个示例代码中,我们创建了一个简单的PySide6窗口应用程序。

我们定义了speak函数,用于将文本转换为语音输出。

我们创建了一个MainWindow类,继承自QMainWindow,作为主窗口。

MainWindow类中,我们创建了一个标签、一个输入框和一个按钮,用于用户输入文本和提交。

当用户点击按钮时,会触发on_button_click方法,获取用户输入的文本,并使用语音提示告知用户输入的内容。

通过结合pyttsx3和PySide6库,你可以实现一个具有语音交互功能的用户界面应用程序。用户可以通过界面输入文本,并通过语音输出进行交互。

希望这个示例能帮助你开始开发一个结合PySide6和语音交互的应用程序。你可以根据需要进行进一步的定制和扩展。

十、文本预处理和语音合成示例代码

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述当使用pyttsx3进行语音合成之前,你可以进行一些文本预处理操作来提高语音合成的质量和准确性。以下是一个示例代码,演示了如何使用nltk库进行文本预处理,并将预处理后的文本传递给pyttsx3进行语音合成:

import pyttsx3
import nltk
from nltk.tokenize import word_tokenize
from nltk.corpus import stopwords
from string import punctuationdef preprocess_text(text):# 将文本转换为小写text = text.lower()# 分词tokens = word_tokenize(text)# 去除停用词和标点符号stop_words = set(stopwords.words('english'))tokens = [token for token in tokens if token not in stop_words and token not in punctuation]# 重新组合文本processed_text = ' '.join(tokens)return processed_textdef speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()# 示例文本
text = "Hello, how are you? I'm doing great!"# 文本预处理
processed_text = preprocess_text(text)# 语音合成
speak(processed_text, language='en', voice_id=0)

在这个示例代码中,我们引入了nltk库,它是一个用于自然语言处理的强大工具。

我们定义了preprocess_text函数,用于对文本进行预处理。在这个函数中,我们将文本转换为小写,进行分词,去除停用词和标点符号,并重新组合文本。

speak函数中,我们使用pyttsx3进行语音合成。

我们首先定义了一个示例文本,然后对其进行预处理。

最后,我们将预处理后的文本传递给pyttsx3speak函数进行语音合成。

通过进行文本预处理操作,你可以提高语音合成的质量和准确性。你可以根据需要扩展preprocess_text函数,添加其他的文本处理步骤,以适应你的应用场景。

十一、导出语音文件示例代码

在这里插入图片描述
在这里插入图片描述
pyttsx3支持将语音输出保存为音频文件。以下是一个示例代码,演示了如何使用pyttsx3将语音输出保存为音频文件:

import pyttsx3def speak(text, language='en', voice_id=None, rate=None, volume=None, output_file=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)if output_file:# 将语音输出保存为音频文件engine.save_to_file(text, output_file)engine.runAndWait()else:# 实时语音输出engine.say(text)engine.runAndWait()# 示例文本
text = "Hello, how are you? I'm doing great!"# 将语音输出保存为音频文件
output_file = "output.wav"
speak(text, language='en', voice_id=0, output_file=output_file)print(f"语音输出已保存为文件: {output_file}")

在这个示例代码中,我们对speak函数进行了修改,添加了一个output_file参数用于指定输出文件的路径。

如果提供了output_file参数,则将语音输出保存为音频文件;否则,进行实时语音输出。

在示例中,我们将语音输出保存为名为output.wav的音频文件。

通过使用output_file参数,你可以方便地将语音输出保存为音频文件,以便后续使用或分享。

十二、语音识别和语音合成的结合示例代码

在这里插入图片描述当你的脚本需要进行语音输入和输出时,你可以结合使用语音识别库(如SpeechRecognition)和pyttsx3,实现完整的语音交互过程。以下是一个示例代码,演示了如何结合使用这两个库:

import speech_recognition as sr
import pyttsx3def speech_to_text():r = sr.Recognizer()with sr.Microphone() as source:print("请说话...")audio = r.listen(source)try:text = r.recognize_google(audio, language='en')return textexcept sr.UnknownValueError:print("抱歉,无法识别语音")except sr.RequestError as e:print(f"请求错误:{e}")def text_to_speech(text, language='en', voice_id=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()# 语音输入
input_text = speech_to_text()
print(f"识别结果: {input_text}")# 语音输出
text_to_speech(input_text, language='en', voice_id=0)

在这个示例代码中,我们使用了speech_recognition库进行语音识别,以及pyttsx3库进行语音合成。

首先,我们定义了speech_to_text函数,用于将语音输入转换为文本。在这个函数中,我们使用麦克风作为音频源,使用recognize_google方法将音频转换为文本。

然后,我们定义了text_to_speech函数,用于将文本转换为语音输出。在这个函数中,我们使用pyttsx3进行语音合成。

在主程序中,我们首先调用speech_to_text函数进行语音输入,并将结果存储在input_text变量中。

然后,我们调用text_to_speech函数将input_text转换为语音输出。

通过结合使用语音识别库和pyttsx3,你可以实现完整的语音交互过程。你可以根据需要进行定制和扩展,例如添加错误处理、调整语音设置、结合其他库和API等。

十三、归纳总结

在这里插入图片描述当使用pyttsx3库创建自动化脚本时,以下是一些关键的知识点归纳:

  1. 初始化语音引擎:使用pyttsx3.init()方法初始化语音引擎,返回一个Engine对象。

  2. 设置语音引擎属性:使用engine.setProperty()方法可以设置语音引擎的属性,例如语言、声音、语速和音量等。

  3. 获取可用的声音列表:使用engine.getProperty('voices')方法可以获取可用的声音列表。每个声音都有一个唯一的标识符,可以通过voice.id访问。

  4. 实时语音输出:使用engine.say(text)方法将文本转换为语音输出。然后使用engine.runAndWait()方法等待语音输出完成。

  5. 将语音输出保存为音频文件:使用engine.save_to_file(text, output_file)方法可以将语音输出保存为音频文件。需要提供要保存的文本和输出文件的路径。

  6. 错误处理:在使用pyttsx3时,可能会出现错误,例如无法找到声音或无法连接到语音引擎。可以使用try-except语句来捕获和处理这些错误。

  7. 多语言支持:可以使用engine.setProperty('language', language)方法设置语音引擎的语言。可以通过指定语言的标识符(如’en’表示英语)来设置语言。

  8. 自定义语音设置:可以使用engine.setProperty()方法设置其他语音属性,如声音、语速和音量等。可以根据需要进行调整和定制。

  9. 结合其他库和API:可以将pyttsx3与其他库和API结合使用,以实现更复杂的语音功能。例如,结合语音识别库实现语音输入转换为文本,或结合文本处理库进行批量处理文本并生成语音输出。

在这里插入图片描述这些知识点可以帮助你开始使用pyttsx3创建自动化脚本和语音交互系统。你可以根据需要进行定制和扩展,以满足特定的需求。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/260128.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

java 宠物医院系统Myeclipse开发mysql数据库web结构jsp编程计算机网页项目

一、源码特点 java 宠物医院系统是一套完善的java web信息管理系统,对理解JSP java编程开发语言有帮助,系统具有完整的源代码和数据库,系统主要采用B/S模式开发。开发环境为TOMCAT7.0,Myeclipse8.5开发,数据库为Mysql5.0&…

HarmonyOS4.0系列——08、整合UI常用组件

HarmonyOS4.0 系列——08、UI 组件 Blank Blank 组件在横竖屏占满空余空间效果 // xxx.ets Entry Component struct BlankExample {build() {Column() {Row() {Text(Button).fontSize(18)Blank()Toggle({type: ToggleType.Switch}).margin({top: 14,bottom: 14,left: 6,righ…

CMNet:Contrastive Magnification Network for Micro-Expression Recognition 阅读笔记

AAAI 2023的一篇文章,东南大学几位老师的工作,用于做微表情识别中的运动增强工作, 以下是阅读时记录的笔记。 摘要: However,existing magnification strategies tend to use the features offacial images that include not onl…

AI提示工程实战:从零开始利用提示工程学习应用大语言模型【文末送书-19】

文章目录 背景什么是提示工程?从零开始:准备工作设计提示调用大语言模型 实际应用示例文字创作助手代码生成持续优化与迭代数据隐私与安全性可解释性与透明度总结 AI提示工程实战:从零开始利用提示工程学习应用大语言模型【文末送书-19】⛳粉…

2023年全球软件开发大会(QCon北京站2023)2月:核心内容与学习收获(附大会核心PPT下载)

本次峰会是一个汇集了最新技术趋势、最佳实践和创新思维的盛会。对于从事软件开发和相关领域的专业人士来说,参加这样的大会将有助于他们了解行业动态、提升技能水平、拓展职业视野,并与同行建立联系和合作。 本次峰会包含:AI基础架构、DevO…

从 AGP 4.1.2 到 7.5.1——XmlParser、GPathResult、QName 过时

新年首发, 去年的问题,今年解决~ 问题 & 排查 1: Task failed with an exception. ----------- * What went wrong: Execution failed for task :app:processCommonReleaseManifest. > org.xml.sax.SAXParseException; lineNumber: 1; columnNu…

【求职】搜狗2016 C++笔试题

1.关于重载和多态正确的是? A.如果父类和子类都有相同的方法,参数个数不同,将子类对象赋给父类后,由于子类继承于父类,所以使用父类指针调用父类方法时,实际调用的是子类的方法; B.选项全部都不正确 C.重载和多态在C面向对象编程中经常用到的方法,都只在实现子类…

【C/C++】2024春晚刘谦春晚魔术步骤模拟+暴力破解

在这个特别的除夕夜,我们不仅享受了与家人的温馨团聚,还被电视机前的春节联欢晚会深深吸引。特别是,魔术师刘谦的精彩表演,为我们带来了一场视觉和心灵的盛宴。在我的博客“【C/C】2024春晚刘谦春晚魔术步骤模拟暴力破解”中&…

WPF中样式

WPF中样式&#xff1a;类似于winform中控件的属性 <Grid><!-- Button属性 字体大小 字体颜色 内容 控件宽 高 --><Button FontSize"20" Foreground"Blue" Content"Hello" Width"100" Height"40"/></G…

x86使用内敛汇编实现简单的临界段保护

临界资源保护 实现方法 禁用中断 __attribute__((used)) static inline uint32_t read_eflags (void){uint32_t eflags;ASM_V("pushf\n\tpop %%eax":"a"(eflags));return eflags; } __attribute__((used)) static inline void write_eflags (uint32_t e…

安全架构设计理论与实践

一、考点分布 安全架构概述&#xff08;※※&#xff09;安全模型&#xff08;※※※&#xff09;信息安全整体架构设计网络安全体系架构设计区块链技术&#xff08;※※&#xff09; 二、安全架构概述 被动攻击&#xff1a;收集信息为主&#xff0c;破坏保密性 主动攻击&#…

Quantitative Analysis: PIM Chip Demands for LLAMA-7B inference

1 Architecture 如果将LLAMA-7B模型参数量化为4bit&#xff0c;则存储模型参数需要3.3GB。那么&#xff0c;至少PIM chip 的存储至少要4GB。 AiM单个bank为32MB&#xff0c;单个die 512MB&#xff0c;至少需要8个die的芯片。8个die集成在一个芯片上。 提供816bank级别的访存带…

计算机视觉的应用23-OpenAI发布的文本生成视频大模型Sora的原理解密

大家好&#xff0c;我是微学AI&#xff0c;今天给大家介绍一下计算机视觉的应用23-OpenAI发布的文本生成视频大模型Sora的原理解密。本文概况性地将Sora模型生成视频主要分为三个步骤&#xff1a;视频压缩网络、空间时间潜在补丁提取以及视频生成的Transformer模型。 文章目录…

「年后复工主题」app用户运营拉新,接入引爆用户增长的活动

随着春节假期的结束&#xff0c;人们重返工作岗位&#xff0c;各行各业也迎来了年后复工的高峰期。在这个时间节点&#xff0c;APP运营团队面临着一个绝佳的机遇——利用节日余温和复工活力&#xff0c;通过策划一系列相关主题的趣味活动来吸引新用户&#xff0c;实现用户增长的…

消息队列(Message Queue)

目录 一、概念 二、消息队列使用场景 三、消息队列的两种模式 1.点对点模式 2.发布/订阅模式 四、常用消息队列介绍 1.RabbitMQ 1) 主要特性 2&#xff09;安装需要 3&#xff09;优点 4&#xff09;缺点 2.ActiveMQ 1&#xff09;主要特性 2) 安装需要 3&#xff09;优…

uniapp富文本文字长按选中(用于复制,兼容H5、APP、小程序三端)

方案&#xff1a;使用u-parse的selectable属性 <u-parse :selectable"true" :html"content"></u-parse> 注意&#xff1a;u-parse直接使用是不兼容小程序的&#xff0c;需要对u-parse进行改造&#xff1a; 1. 查看u-parse源码发现小程序走到以…

Panalog大数据日志审计系统libres_syn_delete.php存在命令执行漏洞

文章目录 前言声明一、Panalog大数据日志审计系统简介二、漏洞描述三、影响版本四、漏洞复现五、整改意见 前言 Panalog大数据日志审计系统定位于将大数据产品应用于高校、 公安、 政企、 医疗、 金融、 能源等行业之中&#xff0c;针对网络流量的信息进行日志留存&#xff0c…

K8s进阶之路-命名空间级-服务发现 :

服务发现&#xff1a; Service&#xff08;东西流量&#xff09;&#xff1a;集群内网络通信、负载均衡&#xff08;四层负载&#xff09;内部跨节点&#xff0c;节点与节点之间的通信&#xff0c;以及pod与pod之间的通信&#xff0c;用Service暴露端口即可实现 Ingress&#…

MySQL命令行输入密码后闪退解决方案

使用MySQL8.0的Command&#xff0c;输入密码后闪退&#xff0c;但是如果不输入密码直接回车&#xff0c;却能直接进入MySQL环境&#xff1b;另外&#xff0c;在IDEA中也无法通过密码连接到root。在网上有如下常见的解决方案&#xff1a;(1)移动my.ini、(2)启动MySQL服务等。但是…

【lesson62】网络通信UdpSocket版

文章目录 UdpSocketUdpServer.hppUdpServer类成员变量解释成员函数解释 UdpServer的实现ServerIinit的实现socketbindhtonsinet_addr具体实现 ServerStart的实现recvfromsendtontohsinet_ntoa具体实现 ~UdpServer函数实现UdpServer.hpp整体完整代码 UdpServer.ccUdpClient.ccTh…