VC用TTS实现文字语音朗读


文本语音(Text-to-Speech,以下简称TTS),它的作用就是把通过TTS引擎把文本转化为语音输出。本文不是讲述如何建立自己的TTS引擎,而是简单介绍如何运用Microsoft Speech SDK 建立自己的文本语音转换应用程序。 

   Microsoft Speech SDK简介

   Microsoft Speech SDK是微软提供的软件开发包,提供的Speech API (SAPI)主要包含两大方面:

   1. API for Text-to-Speech

   2. API for Speech Recognition

   其中API for Text-to-Speech,就是微软TTS引擎的接口,通过它我们可以很容易地建立功能强大的文本语音程序,金山词霸的单词朗读功能就用到了这写API,而目前几乎所有的文本朗读工具都是用这个SDK开发的。至于API for Speech Recognition就是与TTS相对应的语音识别,语音技术是一种令人振奋的技术,但由于目前语音识别技术准确度和识别速度不太理想,还未达到广泛应用的要求。

   Microsoft Speech SDK可以在微软的网站免费下载,目前的版本是5.1,为了支持中文,还要把附加的语言包(LangPack)一起下载。

   为了在VC中使用这SDK,必需在工程中添加SDK的include和lib目录,为免每个工程都添加目录,最好的办法是在VC的

   Option->Directoris立加上SDK的include和lib目录。

   一个最简单的例子

   先看一个入门的例子:

#include <sapi.h>

#pragma comment(lib,"ole32.lib") //CoInitialize CoCreateInstance需要调用ole32.dll 
#pragma comment(lib,"sapi.lib") //sapi.lib在SDK的lib目录,必需正确配置 
int main(int argc, char* argv[]) 
{ 
ISpVoice * pVoice = NULL;

//COM初始化: 
if (FAILED(::CoInitialize(NULL))) 
return FALSE;

//获取ISpVoice接口: 
HRESULT hr = CoCreateInstance(CLSID_SpVoice, NULL, CLSCTX_ALL, IID_ISpVoice, (void **)&pVoice); 
if( SUCCEEDED( hr ) ) 
{ 
hr = pVoice->Speak(L"Hello world", 0, NULL); 
pVoice->Release(); 
pVoice = NULL; 
}

//千万不要忘记: 
::CoUninitialize(); 
return TRUE; 
}




   短短20几行代码就实现了文本语音转换,够神奇吧。SDK提供的SAPI是基于COM封装的,无论你是否熟悉COM,只要按部就班地用CoInitialize(), CoCreateInstance()获取IspVoice接口就够了,需要注意的是初始化COM后,程序结束前一定要用CoUninitialize()释放资源。

   IspVoice接口主要函数

   上述程序的流程是获取IspVoice接口,然后用ISpVoice::Speak()把文本输出为语音,可见,程序的核心就是IspVoice接口。除了Speak外IspVoice接口还有许多成员函数,具体用法请参考SDK的文档。下面择要说一下几个主要函数的用法: HRESULT Speak(const WCHAR *pwcs,DWORD dwFlags,ULONG *pulStreamNumber);

   功能:就是speak了

   参数:

    *pwcs 输入的文本字符串,必需为Unicode,如果是ansi字符串必需先转换为Unicode。

    dwFlags 用来标志Speak的方式,其中SPF_IS_XML 表示输入文本含有XML标签,这个下文会讲到。

    PulStreamNumber 输出,用来获取去当前文本输入的等候播放队列的位置,只有在异步模式才有用。

HRESULT Pause ( void ); 
HRESULT Resume ( void );



   功能:一看就知道了。

HRESULT SetRate(long RateAdjust ); 
HRESULT GetRate(long *pRateAdjust);



   功能:设置/获取播放速度,范围:-10 to 10

HRESULT SetVolume(USHORT usVolume); 
HRESULT GetVolume(USHORT *pusVolume);



   功能:设置/获取播放音量,范围:0 to 100

HRESULT SetSyncSpeakTimeout(ULONG msTimeout); 
HRESULT GetSyncSpeakTimeout(ULONG *pmsTimeout);



   功能:设置/获取同步超时时间。由于在同步模式中,电泳Speak后程序就会进入阻塞状态等待Speak返回,为免程序长时间没相应,应该设置超时时间,msTimeout单位为毫秒。

HRESULT SetOutput(IUnknown *pUnkOutput,BOOL fAllowFormatChanges);



   功能:设置输出,下文会讲到用SetOutput把Speak输出问WAV文件。

   这些函数的返回类型都是HRESULT,如果成功则返回S_OK,错误有各自不同的错误码。

   使用XML

   个人认为这个TTS api功能最强大之处在于能够分析XML标签,通过XML标签设置音量、音调、延长、停顿,几乎可以使输出达到自然语音效果。前面已经提过,把Speak参数dwFlags设为SPF_IS_XML,TTS引擎就会分析XML文本,输入文本并不需要严格遵守W3C的标准,只要含有XML标签就行了,下面举个例子: ……

pVoice->Speak(L"<VOICE REQUIRED=''NAME=Microsoft Mary''/>volume<VOLUME LEVEL=''100''>turn up</VOLUME>", SPF_IS_XML, NULL); 
…… 
<VOICE REQUIRED=''NAME=Microsoft Mary''/>



   标签把声音设为Microsoft Mary,英文版SDK中一共含有3种声音,另外两种是Microsoft Sam和Microsoft Mike。 ……

<VOLUME LEVEL=''100''>

   把音量设为100,音量范围是0~100。

   另外:标志音调(-10~10): <PITCH MIDDLE="10">text</PITCH>

   注意:" 号在C/C++中前面要加 / ,否则会出错。

    标志语速(-10~10): <RATE SPEED="-10">text</RATE>

    逐个字母读: <SPELL>text</SPELL>

    强调: <EMPH>text</EMPH>

    停顿200毫秒(最长为65,536毫秒): <SILENCE MSEC="200" />

    控制发音: <PRON SYM = ''h eh - l ow 1''/>

   这个标签的功能比较强,重点讲一下:所有的语言发音都是由基本的音素组成,拿中文发音来说,拼音是组成发音的最基本的元素,只要知道汉字的拼音,即使不知道怎么写,我们可知道这个字怎么都,对于TTS引擎来说,它不一定认识所有字,但是你把拼音对应的符号(SYM)给它,它就一定能够读出来,而英语发音则可以用音标表示,''h eh - l ow 1''就是hello这个单词对应的语素。至于发音与符号SYM具体对应关系请看SDK文档中的Phoneme Table。

   再另外,数字、日期、时间的读法也有一套规则,SDK中有详细的说明,这里不说了(懒得翻译了),下面随便抛个例子: <context ID = "date_ ymd">1999.12.21</context>

   会读成 "December twenty first nineteen ninety nine"

   XML标签可以嵌套使用,但是一定要遵守XML标准。XML标签确实好用,效果也不错,但是……缺点:一个字―――"烦",如果给一大段文字加标签,简直痛不欲生。

   把文本语音输出为WAV文件 #include <sapi.h>

#include <sphelper.h>

#pragma comment(lib,"ole32.lib") 
#pragma comment(lib,"sapi.lib")

int main(int argc, char* argv[]) 
{ 
ISpVoice * pVoice = NULL; 
if (FAILED(::CoInitialize(NULL))) 
return FALSE;

HRESULT hr = CoCreateInstance(CLSID_SpVoice, NULL, CLSCTX_ALL, 
IID_ISpVoice, (void **)&pVoice); 
if( SUCCEEDED( hr ) ) 
{ 
CComPtr<ISpStream> cpWavStream; 
CComPtr<ISpStreamFormat> cpOldStream; 
CSpStreamFormat OriginalFmt; 
pVoice->GetOutputStream( &cpOldStream ); 
OriginalFmt.AssignFormat(cpOldStream); 
hr = SPBindToFile( L"D://output.wav",SPFM_CREATE_ALWAYS, 
&cpWavStream,&OriginalFmt.FormatId(), 
OriginalFmt.WaveFormatExPtr() ); 
if( SUCCEEDED( hr ) ) 
{ 
pVoice->SetOutput(cpWavStream,TRUE); 
WCHAR WTX[] = L"<VOICE REQUIRED=''NAME=Microsoft Mary''/>text to wave"; 
pVoice->Speak(WTX, SPF_IS_XML, NULL); 
pVoice->Release(); 
pVoice = NULL; 
} 
}

::CoUninitialize(); 
return TRUE; 
}



   SPBindToFile把文件绑定到输出流上,而SetOutput把输出设为绑定文件的流上。

   最后

   看完本文后,是不是觉得很简单,微软把强大的功能封装的太好了。其实SDK中另外一个API,SR(语音识别)更有趣,有兴趣不妨试试,你会有意外的收获的。