本技术涉及情感计算技术,提出了一种结合扩散增强和多尺度特征融合的语音情感识别方法。该技术首先将音频信号转换为梅尔频谱图,随后利用扩散模型进行正向扩散以引入噪声,并通过反向扩散去除噪声,以获得更清晰的音频信号。接着,从增强后的音频中提取帧级、段级和话语级特征,并进行自适应特征选择和基于权重位置依赖的深层融合。最终,将融合后的多尺度语音特征输入到动态图卷积情感分类模型中,实现情感状态的识别。该发明能够提供语音情感的多分类识别和语音质量的增强,优化人机交互体验。
背景技术
语音情感识别为人机交互领域提供了更加高效和人性化的服务,它通过构建语音信息载体与情感维度之间的映射关系,从而赋予计算机识别并理解人类情感的能力,其应用目的是为了提升人机交互的自然性和流畅性,以期解决用户情绪状态理解不足、个性化服务体验差、沟通效率低等问题。语音情感识别提供了一个高效的模式识别,能更好地理解用户和利益相关者的情绪和需求。随着人工智能和语音识别技术的不断发展,语音情感识别技术在众多领域的应用日趋广泛。它已经可以实现较高准确度的情感识别,并识别出说话人的情绪状态以迅速做出回应处理。这项技术在教育、医疗、商业等领域都有着广泛的应用前景,可以帮助人们更好地互相理解和交流,提高人机交互的效率和舒适度。比如,用于远程教学实时监测学生的情感状态并做出适当处理,从而提高教学质量;用于识别抑郁症等心理健康患者的情绪,为治疗提高有价值的参考信息;也经常用于智能客服系统中,提高用户满意度等。然而,由于人类情感表达的复杂性和多样性,现有的语音情感识别模型在处理复杂情感场景时,特别是处理多种类别的情感时往往难以达到令人满意的效果,会因为样本类别不平衡出现情感识别失效的情况。同时,在处理包含噪声环境的语音信号时,传统的降噪方法如谱减法、维纳滤波、子空间方法,以及深度学习方法如卷积神经网络(CNN)、循环神经网络(RNN)都发挥着重要作用。但是这些方法容易导致语音信号失真影响语音听觉质量,并且无法有效保留好语音信号中的情感信息。此外,现有的语音情感分析模型大多采用单任务结构,无法同时从多维度分析语音信号的特征,导致情感分类的准确率受限。
实现思路