为了克服现有语音可视化方法的局限性,该文提出了一种基于神经网络的汉语声韵母可视化方法,通过集成不同的语音特征进入一幅图像中为聋哑人创造了语音信号的可读模式。采用小波神经网络来进行位置信息映射和颜色信息获取,由于小波神经网络具有结构可设计性、收敛精度可控性和收敛速度快的优点,有效地提高了汉语声韵母的正确编码率。而且将图像分为12个不同颜色的显示区域,每个显示区域内的音具有相似的发音特点和相同的发音部位,这就更好地利用了聋哑人对色彩刺激的视觉记忆能力较强的优点。与现有方法相比,具有很好的鲁棒性和易懂性。
暂无评论