### **需求背景**
**在当今时代,人工智能技术日新月异,给生活和工作带来了前所未有的便利**。作为人工智能应用的一种重要形式,语音交互系统已经广泛应用于各个领域,为用户提供了**无需通过键盘或触摸屏输入就能与计算机对话**的交互方式。
然而,传统的语音交互系统大多基于预定义场景和规则,缺乏真正的理解和推理能力,无法像人类一样进行自然、流畅的对话交互。为了打造一款**像人类一样能进行多轮对话**的智能语音助理,我们需要将**新的生成式 AI 大语言模型与语音合成技术相结合,构建一个端到端的全语音智能聊天系统。**
在本项目中,我们以一个客户的实际场景为出发点,**利用亚马逊云科技的[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)平台 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) 和生成式 AI 服务 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail),开发一款全语音智能聊天助手**。该助手能够通过语音识别用户的输入问题,**使用大型语言模型生成对话响应,再由语音合成模块将生成的文本转化为自然语音**,为用户提供流畅、智能的语音交互体验。
### **架构设计**
本文示例将构建实现以下主要流程:
1. 通过 ASR 模型,识别不同语种的终端用户语音输入,转录为文本。
2. 通过调用 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) 中的大语言模型,根据不同角色的 Prompt Template,进行对话问答生成,返回文本生成结果。
3. 按照 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) 中的大语言模型返回的文本,根据逗号或句号等分隔符行进行长文本分割。
4. 每段分割文本交由 TTS(Text To Speech)模型进行语音合成,流式输出到客户端进行分段播放。
整体架构设计如下:
![image.png](https://dev-media.amazoncloud.cn/aa4eefd57df64589b4902db9c2b5fde0_image.png "image.png")
以下我们详细描述该方案实施落地过程中的主要步骤。
### **实施详细**
#### **ASR 语音转录**
全语音问答系统需要自动语音识别(ASR)技术,因为它需要将用户的语音输入转换成文本,以便后续的自然语言处理和问答模块能够理解并生成相应的回答。**ASR 是将人类语音转录成可读的文本格式的关键能力。**
Large Whisper v3 是一种通用语音识别模型。它经过大量不同音频数据集的训练,具有多任务能力,可执行多语种**语音识别、语音翻译和语言识别**。Large Whisper v3 已经在 HuggingFace 开源,亚马逊云科技与 HuggingFace 的战略合作关系使得我们可以使用 [Amazon SageMaker JumpStart](https://aws.amazon.com/cn/sagemaker/jumpstart/?trk=cndc-detail) 方便快捷地部署Whisper模型。**本方案中,我们使用开源的 Large Whisper v3 模型实现 ASR 语音转录。**
[Amazon SageMaker JumpStart](https://aws.amazon.com/cn/sagemaker/jumpstart/?trk=cndc-detail) 是一个向导式的大模型使用工具。您可以使用[Amazon SageMaker JumpStart](https://aws.amazon.com/cn/sagemaker/jumpstart/?trk=cndc-detail) 在 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) Studio 中以界面化方式一键部署和训练各种模型,也可以通过 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) Python SDK 来部署和训练像 Large Whisper 这样的开源模型。**本文我们将使用 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) Python SDK 方式来部署模型,用于自动语音识别(ASR)任务。**
具体如下:
```js
model_id = "huggingface-asr-whisper-large-v3"
# Deploying the model
from sagemaker.jumpstart.model import JumpStartModel
from sagemaker.serializers import JSONSerializer
my_model = JumpStartModel(model_id=model_id,instance_type='ml.g5.2xlarge')
predictor = my_model.deploy()
```
如上代码所示,通过 model_id,JumpStartModel 即可以支持多种在 HuggingFace 或其他平台上开源的模型的部署,对于 Whisper 模型,目前 [Amazon SageMaker JumpStart](https://aws.amazon.com/cn/sagemaker/jumpstart/?trk=cndc-detail) 支持从 tiny 到 medium 到 large-v2、v3 的各种规格的模型版本,其他更多支持的模型可以参见 [Amazon SageMaker Jumpstart model 列表](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html?trk=cndc-detail)。通过 instance_type 指定部署的 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) endpoint 推理端点机型,调用 deploy 方法即可在 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) 上将 Large Whisper v3 模型部署为 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) endpoint 推理端点,在 Amazon SageMaker 的 endpoint 端点菜单上,我们可以看到刚才部署的推理端点的详细信息。
![image.png](https://dev-media.amazoncloud.cn/d7122e88d6234f4998a791c94991c2fe_image.png "image.png")
现在我们可以对输入语音进行 ASR 模型的文本转录推理,Whisper Large v3 模型支持许多推理参数。包括:
```js
max_length:模型生成文本直到输出长度达到该值。
language 和 task:我们在这里指定输出语言和任务。transcribe 或者 translate。
max_new_tokens:生成的最大 token 数量。
num_return_sequences:返回的输出序列数量。
num_beams:在贪婪搜索中使用的 beam 数量。如果指定,它必须是一个大于或等于`num_return_sequences`的整数。
no_repeat_ngram_size:模型确保在输出序列中不会重复`no_repeat_ngram_size`长度的单词序列。
temperature:控制输出的随机性。温度越高,输出序列中低概率单词的数量越多;温度越低,输出序列中高概率单词的数量越多。如果`temperature` -> 0,它会导致贪婪解码。
early_stopping:如果为 True,当所有 beam 假设都到达句子结束标记时,文本生成就会结束。
do_sample:如果为 True,根据概率对下一个单词进行采样。
top_k:在文本生成的每一步,只从`top_k`个最有可能的单词中采样。
top_p:在文本生成的每一步,从具有累积概率`top_p`的最小可能单词集合中采样。0 到 1 之间的浮点数。
```
我们可以通过 .wav、.mp3 格式的输入音频文件,调用推理端点进行 ASR 的转录操作,如下代码所示:
```js
input_audio_file_name = "sample_french1.wav"
with open(input_audio_file_name, "rb") as file:
wav_file_read = file.read()
payload = {"audio_input": wav_file_read.hex(), "language": "french", "task": "translate"}
predictor.serializer = JSONSerializer()
predictor.content_type = "application/json"
response = predictor.predict(payload)
# We will get the output translated to english for the french audio file
print(response["text"])
```
注意输入文件必须以 16kHz 的频率采样,此外,输入音频文件必须小于30秒。
#### **模型对话生成**
完成上一步骤的 ASR 转录后,我们得到了语音输入的文本内容,接下来需要通过生成式 AI 的 LLM 基于输入文本进行对话内容的生成。
#### **Amazon Bedrock**
[Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) 是一项完全托管的服务,通过 API 提供系列领先的生成式 AI 基础模型(FM),以及通过安全性、隐私性和负责任的人工智能构建生成式 AI 应用程序所需的一系列广泛功能,为构建高质量的对话生成系统提供了强大而全面的支持。
#### **使用 Converse API 进行对话生成**
我们可以使用 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) Converse API 创建进行对话内容的生成,Converse API 是新的 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) 模型调用 SDK,它提供了一致的 API,可与支持消息的所有 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) 模型配合使用。这意味着你可以编写一次代码,并将其用于不同的模型,比如ConverseStream用于流式响应。同时 Converse API 也支持基于 Tools 外部调用的 function calling 功能。
**本方案中我们采用 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) Converse API 来调用业界先进的 Claude 3 Sonnet 模型进行对话内容的生成。**
在 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) 中使用 Converse API 调用 Claude 3 Sonnet 模型示例如下:
```js
def stream_conversation(bedrock_client,
model_id,
messages,
system_prompts,
inference_config,
additional_model_fields,
tool_config,
round=0):
"""
Sends messages to a model and streams the response.
Args:
bedrock_client: The Boto3 Bedrock runtime client.
model_id (str): The model ID to use.
messages (JSON) : The messages to send.
system_prompts (JSON) : The system prompts to send.
inference_config (JSON) : The inference configuration to use.
additional_model_fields (JSON) : Additional model fields to use.
Returns:
Nothing.
"""
print(f'\\n************ ROUND {round} START ************')
print("Streaming messages with model %s" % model_id)
bedrock_params = {
"modelId": model_id,
"messages": messages,
"inferenceConfig": inference_config,
"additionalModelRequestFields": additional_model_fields,
"toolConfig": tool_config
}
system = [item for item in system_prompts if item.get('text')]
if system:
bedrock_params['system'] = system
response = bedrock_client.converse_stream( **bedrock_params )
stream = response.get('stream')
tools_buf = {}
resp_text_buf = ''
if stream:
stop_reason = None
metadata = None
for event in stream:
...省略
model_id = "anthropic.claude-3-sonnet-20240229-v1:0"
system_prompt = ""
# Message to send to the model.
input_text = user_query
print(colored(f"Question: {input_text}", 'red'))
message = {
"role": "user",
"content": [{"text": input_text}]
}
messages = [message]
# System prompts.
system_prompts = [{"text" : system_prompt}]
# inference parameters to use.
temperature = 0.9
top_k = 200
max_tokens = 2000
# Base inference parameters.
inference_config = {
"temperature": temperature,
"maxTokens": max_tokens,
}
# Additional model inference parameters.
additional_model_fields = {"top_k": top_k}
bedrock_client = boto3.client(service_name='bedrock-runtime')
stream_conversation(bedrock_client, model_id, messages,
system_prompts, inference_config, additional_model_fields, tool_config)
```
#### **Role Play 角色对话**
针对不同风格(如幽默风趣、严肃、学术等)、不同类型(翻译、聊天、咨询顾问等)的对话模版,**我们可以在提示词中指定不同角色风格的系统提示词(system prompt),从而使得终端客户可以选择对话的智能 AI 模型的不同的角色,应对不同的问答和对话的个性化需求。**
角色设定示例如下:
```js
[
{"role":"日语翻译","instruct":"你是一个专业的日语翻译,注意翻译时需要考虑专业词汇,请把以下翻译成日语:"},{"role":"图文问答","instruct":"先描述一下该图
像的内容,再回答问题"},
{"role":"知识问答","instruct":"根据企业知识文档回答问题,如果没有找到具体的文档,请按你掌握的知识尽全力回答。我的问题是
"},
{"role":"职业顾问","instruct":"我想让你担任职业顾问。我将为您提供一个在职业生涯中寻求指导的人,您的任务是帮助他们根据自己的技能、兴趣和经验确定最适>合的职业。您还应该对可用的各种选项进行研究,解释不同行业的就业市场趋势,并就哪些资格对追求特定领域有益提出建议。我的第一个请求是"},{"role":"心灵导师","instruct":"从现在起你是一个充满哲学思维的心灵导师,当我每次输入一个疑问时你需要用一句富有哲理的名言警句来回答我,并且表明作者和出处要求字数不少于15个字
,每次只返回一句且不输出额外的其他信息,你需要使用中文输出"}
]
```
在 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) Converse API 中加载并设定 System Prompt 方法示例如下:
```js
def initial_role_prompt(role_template_path:str):
global role_keys,role_values,role_prompt_dict
with open(role_template_path) as f:
json_data = json.load(f)
for item in json_data:
role_keys.append(item["role"])
role_values.append(item["instruct"])
role_prompt_dict[item["role"]]=item["instruct"]
if __name__ == '__main__':
initial_role_prompt("./role_template.json")
...省略
with gr.Row():
dropdown = gr.Dropdown(role_prompt_dict,value="")
system_prompts = gr.Textbox(role_values[0],visible=False)
...省略
```
### **TTS 语音合成**
在 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) 生成对话内容之后,我们需要把生成的文本转为语音,并且可以让用户选择熟悉人物的音色,以便更近一步增强对话的用户体验,这就需要用到 TTS 的文本转语音模型。
在 TTS 方面有众多选择,比如 [Amazon Polly](https://aws.amazon.com/cn/polly/?trk=cndc-detail) 最新推出的 Generative Engine 能够合成最为逼真的语音,目前提供了3款不同音色(UK-Female、US-Male、Female);中文引擎中,开源 ChatTTS 能实现更自然的语音合成效果,并且支持 zero shot 的音色克隆,输入 5s-10s 的参考音频就可以直接提取音色,以克隆的音色进行推理生成。
另一个值得关注的选择是 GPT-Sovits,它是一个结合了 GPT 和 Sovits 技术的开源模型,支持 zero shot tts,输入 5s 音频直接提取音色,然后 TTS 转换音色能够提供高质量的语音合成。更加适合本场景中多种音色模版的生成,因此**本方案使用 GPT-Sovits 开源模型实现 TTS 语音合成的功能。**
#### **在 Amazon SageMaker Endpoint 上部署 GPT-Sovits 模型**
在 Amazon SageMake Endpoint 上部署 GPT-Sovits,我们可以采用 [Amazon SageMaker BYOC(Bring Your Own Containers)](https://sagemaker-examples.readthedocs.io/en/latest/training/bring_your_own_container.html?trk=cndc-detail)方式,把 GPT-Sovits 模型加载和部署逻辑打包到 Docker 镜像中,从而获得 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) endpoint 的弹性扩缩,负载均衡和监控或运维等开箱即用的工程化,生产化的功能。
GPT-Sovits 社区提供了 api.py 的 API 调用接口,它使用一个 FastAPI 应用框架,启动一个 uvicorn 的 Web 应用服务器,接收客户端的推理请求,根据传入参数进行 TTS 推理生成。
主要输入推理参数如下:
```js
refer_wav_path":默认参考音频路径
"prompt_text":推理TTS的文本
"prompt_language":"ja",
"text":" 默认参考音频文本
"text_language" :`默认参考音频语种, "中文","英文","日文","zh","en","ja"`,
"cut_punc":"文本切分符号设定, 默认为空, 以",.,。"字符串的方式传入
```
我们可以扩展该接口,通过传入 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 路径的参考音频,和输出 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 路径的推理生成语音音频文件,让 GPT-Sovits 预先从 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 上下载参考克隆音频文件,再执行推理操作,完成后打包结果音频文件,上传到输出的 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 路径,具体如下:
- 预先下载参考音频代码示例:
```js
def pre_download(ref_wav_path:str)-> None:
if "s3" in ref_wav_path:
file_name = os.path.basename(ref_wav_path)
download_file = "/tmp/"+file_name
download_from_s3(ref_wav_path,download_file)
return download_file
else:
return ref_wav_path
```
此外在 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) 上 BYOC 第三方的模型的推理容器,需要满足以下要求以便响应推理请求:
- 容器须有一个在端口8080上侦听的 Web 服务器
- 容器须能接受发送到 `/invocations `的 `POST `请求
- 容器须能接受发送到 `/ping `端点的 GET 请求
具体步骤如下:
- GPT-Sovits serve 应用服务器拉起
[Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) BYOC 方式会通过 Docker runserve 方式,拉起 Docker 容器进程,并执行 serve 的守护进程入口脚本。
因此我们在 serve 脚本中,执行 GPT-Sovits 框架的 uvicorn 的拉起逻辑,并且显式向 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) 返回,以便监听模型健康状态,并且接收服务器状态和操作系统中止指令,代码示例如下:
```js
"""uvicorn main module"""
import time
import os
import subprocess
import signal
import uvicorn
import sys
# ###for debug only#######
sys.path.append(os.path.join(os.path.dirname(__file__), "lib"))
import sagemaker_ssh_helper
sagemaker_ssh_helper.setup_and_start_ssh()
def _add_sigterm_handler(mms_process):
def _terminate(signo, frame): # pylint: disable=unused-argument
try:
os.system('ps aux')
os.kill(mms_process.pid, signal.SIGTERM)
except OSError:
pass
signal.signal(signal.SIGTERM, _terminate)
cmd = ["python","/opt/program/api.py","-dr","Brigida.wav","-dt","hi hello","-dl","zh","-a","0.0.0.0","-p","8080"]
process = subprocess.Popen(cmd)
process.wait()
```
- Docker image 打包部署
[Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) 通过在图像名称后指定 `serve` 参数来覆盖容器中的默认 `CMD` 语句。`serve` 参数覆盖您使用 Dockerfile 中的` CMD `命令提供的参数,因此我们在 dockerfile 中指定 serve 入口,并且安装部署 GPT-Sovits 需要的各种 lib。
```js
RUN pip install sagemaker-ssh-helper
RUN pip install boto3
RUN pip3 install pydantic
#RUN curl -L https://github.com/peak/s5cmd/releases/download/v2.2.2/s5cmd_2.2.2_Linux-64bit.tar.gz | tar -xz && mv s5cmd /opt/program/
ENV PYTHONUNBUFFERED=TRUE
ENV PYTHONDONTWRITEBYTECODE=TRUE
ENV PATH="/opt/program:\${PATH}"
# Install 3rd party apps
ENV DEBIAN_FRONTEND=noninteractive
ENV TZ=Etc/UTC
RUN apt-get update && \\
apt-get install -y --no-install-recommends tzdata ffmpeg libsox-dev parallel aria2 git git-lfs && \\
git lfs install && \\
rm -rf /var/lib/apt/lists/*
# Copy to leverage Docker cache
COPY ./GPT-SoVITS /opt/program/
WORKDIR /opt/program
RUN pip install --no-cache-dir -r /opt/program/requirements.txt
# Define a build-time argument for image type
ARG IMAGE_TYPE=full
# Conditional logic based on the IMAGE_TYPE argument
# Always copy the Docker directory, but only use it if IMAGE_TYPE is not "elite"
COPY ./Docker /workspace/Docker
#####start api.py ######
RUN chmod 755 /opt/program
RUN chmod 755 /opt/program/serve
```
调用 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) BYOC GPT-Sovits 模型进行 TTS 合成的示例如下:
```js
request = {"refer_wav_path":"s3://sagemaker-us-west-2-687912291502/gpt-sovits/wav/123.WAV.wav",
"prompt_text": "早上好,欢迎来到我的一天,这是我做音频主播的第四个年头了,有小伙伴留言想让我分享一些音频直播的经验,今天我先和大家聊聊我的入行原因。其实我从中选情就很喜欢电台了,在校期间眼睛记得参加各类广播站以及校园主持的活动,我好像对话筒和声音就有一种莫名的执念,所以在17年里的时候,我创建了一个自己的电台公众号,通过声音和文字记录自己的一些心事。后来18年底经由朋友的介绍,可以通过音频直播分享我写的东西,还有我的声音。当时呢我就想音频直播又不用落脸那么方便,试一试吧,如果有人喜欢,还可以给自己的电台公众号吸吸粉。后来我就在直播间里认识了越来越多的听友,渐渐的这份工作,也为我带来了一些兼职收入,我就决定把这份工作做下去。",
"prompt_language":"zh",
"text":"作为SAP基础架构专家,我来解释一下SAP Basis的含义:SAP Basis是指SAP系统的基础设施层,负责管理和维护整个SAP系统环境的运行。它包括以下几个主要方面:SAP系统管理包括SAP系统实例的安装、启动、监控、备份、升级等日常管理任务。Basis团队负责保证系统的正常运行。",
"text_language" :"zh",
"output_s3uri":"s3://sagemaker-us-west-2-687912291502/gpt_sovits_output/wav/"}
def invoke_endpoint():
content_type = "application/json"
request_body = request
payload = json.dumps(request_body)
print(payload)
response = runtime_sm_client.invoke_endpoint(
EndpointName=endpointName,
ContentType=content_type,
Body=payload,
)
result = response['Body'].read().decode()
print('返回:',result)
```
- 推理接口封装代码示例
```js
class InferenceOpt(BaseModel):
refer_wav_path: str = "",
prompt_text: str = "",
prompt_language:str = "zh",
text:str = "my queue, my love ,my wife.",
text_language :str = "zh"
output_s3uri:str = "s3://sagemaker-us-west-2-687912291502/gpt_sovits_output/wav/"
cut_punc:str = "."
app = FastAPI()
@app.get("/ping")
async def ping():
"""
ping /ping func
"""
return {"message": "ok"}
@app.post("/invocations")
async def invocations(request: Request):
json_post_raw = await request.json()
print(f"invocations {json_post_raw=}")
opt=parse_obj_as(InferenceOpt,json_post_raw)
print(f"invocations {opt=}")
return handle(opt.refer_wav_path, opt.prompt_text, opt.prompt_language, opt.text, opt.text_language,opt.cut_punc, opt.output_s3uri)
```
#### **流式语音输出的实现**
AI 智能对话场景下,模型可能返回很多内容输出,如果全部 TTS 转换后一次性输出到客户端播放,一方面延迟较大,长文本语音生成可能有分钟级别的量级,另一方面推理服务器后台负载太高,容易造成显存 OOM。**所以通常会根据输出的短句符号,对文本进行切割,对每一段文本单独推理生成 TTS 语音,再流式推送到客户端**,一段一段的播放,增强客户体验,同时降低服务器的推理负载压力。
在 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) 上实现流式 TTS 语音输出的具体实现如下示例:
```js
## 根据分隔符切割生成文本
if cut_punc == None:
texts = cut_text(text,default_cut_punc)
else:
texts = cut_text(text,cut_punc)
for text in texts:
## 每段chunk TTS推理合成语音
...省略
if stream_mode == "normal":
audio_bytes, chunked_audio_bytes = read_clean_buffer(audio_bytes)
## 打包每段chunk推理语音并put到s3
chunked_audio_bytes = pack_mp3(chunked_audio_bytes,hps.data.sampling_rat
result = write_wav_to_s3(chunked_audio_bytes,output_s3uri)
## yield生成器返回,以便SageMaker endpoint 流式输出
yield json.dumps(result)
```
如上代码所示,我们将 chunk 后的每个文本 TTS 的片段,推理生成单独的 .wav 或者 .mp3 格式的文件,然后把每个文件存放在 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 上,给客户端返回 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 路径上的 .mp3 文件地址,从而客户端苹果和安卓手机上就可以方便的播放每一段语音。
同时,为了方便客户端感知每一段 chunk 语音的先后次序,避免多线程下载的时候播放乱序,这里封装了一个解析返回结果数据的函数方法,在该方法中设置了是否首个 chunk 片段,是否结束 chunk 片段的标识符,客户端应用中,只要简单判读 is_first,is_last 是否为 true,以及 index 序列号,就可以知道流式返回的 chunk 片段在整个播放序列中的位置。
```js
def invoke_streams_endpoint(smr_client,endpointName, request):
global chunk_bytes
content_type = "application/json"
payload = json.dumps(request,ensure_ascii=False)
response_model = smr_client.invoke_endpoint_with_response_stream(
EndpointName=endpointName,
ContentType=content_type,
Body=payload,
)
result = []
print(response_model['ResponseMetadata'])
event_stream = iter(response_model['Body'])
index = 0
try:
while True:
event = next(event_stream)
eventChunk = event['PayloadPart']['Bytes']
chunk_dict = {}
if index == 0:
print("Received first chunk")
chunk_dict['first_chunk'] = True
chunk_dict['bytes'] = eventChunk
chunk_bytes = eventChunk
chunk_dict['last_chunk'] = False
chunk_dict['index'] = index
else:
chunk_dict['first_chunk'] = False
chunk_dict['bytes'] = eventChunk
chunk_bytes = eventChunk
chunk_dict['last_chunk'] = False
chunk_dict['index'] = index
print("chunk len:",len(chunk_dict['bytes']))
result.append(chunk_dict)
index += 1
#print('返回chunk:', chunk_dict['bytes'])
except StopIteration:
print("All chunks processed")
chunk_dict = {}
chunk_dict['first_chunk'] = False
chunk_dict['bytes'] = chunk_bytes
chunk_dict['last_chunk'] = True
chunk_dict['index'] = index-1
result = upsert(result,chunk_dict)
print("result",result)
return result
```
### **总结**
**本文以客户的实际场景出发,介绍了全语音智能问答基于亚马逊云科技的服务,通过 [Amazon SageMaker](https://aws.amazon.com/cn/sagemaker/?trk=cndc-detail) 和 [Amazon Bedrock](https://aws.amazon.com/cn/bedrock/?trk=cndc-detail) 服务提供的能力进行落地的实践**,本文中的示例脚本和代码,可以供感兴趣的小伙伴在类似的业务场景中,方便快捷的进行语音问答对话助手的集成实施和优化。
**附录**
- [**GPT-Sovits 开源项目**](https://github.com/RVC-Boss/GPT-SoVITS?trk=cndc-detail)
- [**GPT-Sovits on Sagemaker部署**](https://github.com/qingyuan18/GPT-SoVITS.git?trk=cndc-detail)
- [**Whisper ASR 开源模型**](https://github.com/openai/whisper?trk=cndc-detail)
- [**Amazon Bedrock Converse API**](https://docs.aws.amazon.com/zh_cn/bedrock/latest/userguide/conversation-inference.html?trk=cndc-detail)
![image.png](https://dev-media.amazoncloud.cn/ed5cac728b514040b634046dd6d4bf6d_image.png "image.png")