物理
下拉
最新专利
-
音频参数的量化 公开日期:2025-02-21 公开号:CN116547749A 申请号:CN202080107712.7音频参数的量化
- 申请号:CN202080107712.7
- 公开号:CN116547749A
- 公开日期:2025-02-21
- 申请人:诺基亚技术有限公司
本发明尤其公开了一种用于音频编码的装置,该装置被配置为将音频参数与阈值以及取决于先前量化的音频参数的值相比较;将量化的音频参数计算为先前量化的音频参数增加预定值;以及将量化的音频参数计算为先前量化的音频参数乘以因子值。- 发布时间:2023-08-06 07:17:35
- 0
-
针对HOA数据帧表示的压缩确定表示非差分增益值所需的最小整数比特数的方法 公开日期:2025-02-21 公开号:CN113793617A 申请号:CN202111089793.5针对HOA数据帧表示的压缩确定表示非差分增益值所需的最小整数比特数的方法
- 申请号:CN202111089793.5
- 公开号:CN113793617A
- 公开日期:2025-02-21
- 申请人:杜比国际公司
本发明公开了针对HOA数据帧表示的压缩确定表示非差分增益值所需的最小整数比特数的方法。当对HOA数据帧表示进行压缩时,在每个通道信号被感知地编码(16)之前对其实施增益控制(15,151)。增益值作为边信息以差分的方式被传输。然而,为了开始对这样的流式压缩HOA数据帧表示进行解码,需要绝对增益值,应当以最小数量的比特对该绝对增益值进行编码。为了确定这样的最小整数比特量{βe),在空间域中将HOA数据帧表示(C(k))渲染为位于单位球体上的虚拟扬声器信号,随后对HOA数据帧表示(C(k))进行归一化。然后,将最小整数比特数设置为(AA)。- 发布时间:2023-07-05 07:13:08
- 0
-
回声消除方法、回声消除装置及计算机可读存储介质 公开日期:2025-02-21 公开号:CN113689878A 申请号:CN202110846655.0回声消除方法、回声消除装置及计算机可读存储介质
- 申请号:CN202110846655.0
- 公开号:CN113689878A
- 公开日期:2025-02-21
- 申请人:浙江大华技术股份有限公司
本申请公开了一种回声消除方法、回声消除装置及计算机可读存储介质,该回声消除方法包括:获取近端采集的时域接收信号以及远端发送的时域参考信号;分别将时域接收信号以及时域参考信号从时域转换到频域,得到频域接收信号以及频域参考信号;基于频域接收信号的至少部分特征以及频域参考信号的至少部分特征,得到包括实部掩膜和虚部掩膜的频域掩膜信号;基于频域掩膜信号,对频域接收信号进行声学掩蔽,得到频域目标信号;将频域目标信号从频域转换到时域,得到时域目标信号。本申请所提供的回声消除方法能够保证回声消除的效果。- 发布时间:2023-06-29 07:31:13
- 0
-
高分辨率音频编解码 公开日期:2025-02-21 公开号:CN113348507A 申请号:CN202080008967.8高分辨率音频编解码
- 申请号:CN202080008967.8
- 公开号:CN113348507A
- 公开日期:2025-02-21
- 申请人:华为技术有限公司
描述了用于执行线性预测编解码LPC的方法、系统和装置,包括在计算机存储介质上编码的计算机程序。所述方法的一个示例包括确定所述音频信号的当前帧与前一帧之间的差分频谱倾斜和能量差中的至少一个。基于所述音频信号的所述当前帧与所述前一帧之间的所述差分频谱倾斜和能量差中的至少一个,来检测所述音频信号的频谱稳定性。响应于检测到所述音频信号的所述频谱稳定性,将所述前一帧的量化的LPC参数复制到所述音频信号的所述当前帧中。- 发布时间:2023-06-23 07:24:16
- 0
-
用于对编码音频信号进行解码的设备、方法及计算机程序 公开日期:2025-02-21 公开号:CN112466312A 申请号:CN202011075098.9用于对编码音频信号进行解码的设备、方法及计算机程序
- 申请号:CN202011075098.9
- 公开号:CN112466312A
- 公开日期:2025-02-21
- 申请人:弗劳恩霍夫应用研究促进协会
提供了用于对编码音频信号进行解码的设备、方法及计算机程序。用于对包括编码核心信号和参数化数据的编码音频信号进行解码的设备包括:核心解码器(600),用于对编码核心信号进行解码以获得解码核心信号;分析器(602),用于在执行频率再生操作之前或之后对解码核心信号进行分析以提供分析结果(603);以及频率再生器(604),用于使用解码核心信号的频谱部分、参数化数据(605)和分析结果(603)来再生未包括在解码核心信号中的频谱部分。- 发布时间:2023-06-02 12:13:41
- 0
-
识别语音的方法和支持该方法的电子设备 公开日期:2025-02-21 公开号:CN112349285A 申请号:CN202010778811.X识别语音的方法和支持该方法的电子设备
- 申请号:CN202010778811.X
- 公开号:CN112349285A
- 公开日期:2025-02-21
- 申请人:三星电子株式会社
本公开涉及识别语音的方法和支持该方法的电子设备。该电子设备包括麦克风、显示器、相机、处理器和存储器。该处理器被配置为通过麦克风接收第一话语输入。该处理器还被配置从在显示器上显示的或在存储器中存储的第一图像获得第一数据。该处理器还被配置为当获得的第一数据与第一话语输入匹配时,将第一语音输入与第一数据相关联地存储。此外,该处理器被配置为当第一数据与第一话语输入不匹配时激活相机。该处理器还被配置为:从通过相机收集的第二图像获得第二数据,并且当获得的第二数据与第一话语输入匹配时,将第一话语输入与第二数据相关联地存储。- 发布时间:2023-05-28 13:22:03
- 0
-
语音识别方法及装置、存储介质、电子设备 公开日期:2025-02-21 公开号:CN113990293A 申请号:CN202111214686.0语音识别方法及装置、存储介质、电子设备
- 申请号:CN202111214686.0
- 公开号:CN113990293A
- 公开日期:2025-02-21
- 申请人:京东科技信息技术有限公司
本公开提供一种语音识别方法、语音识别装置、存储介质与电子设备,涉及计算机技术领域。其中,所述语音识别方法包括:获取待识别语音,并对所述待识别语音进行特征提取获取语音特征;通过结合建模单元构建的声学模型对所述语音特征进行预测处理,确定所述待识别语音的建模单元的概率分布;所述建模单元包括主要语言字符和辅助语言子词;基于所述主要语言字符和所述辅助语言子词构建的语言模型对所述待识别语音进行识别处理,确定所述待识别语音的语法得分;结合所述概率分布以及所述语法得分,确定所述待识别语音的识别结果。本公开的技术方案能够提高语音识别的准确性。- 发布时间:2023-04-24 09:29:57
- 0
-
一医多患的语音分离方法和电子设备 公开日期:2025-02-18 公开号:CN118098263A 申请号:CN202311873262.4一医多患的语音分离方法和电子设备
- 申请号:CN202311873262.4
- 公开号:CN118098263A
- 公开日期:2025-02-18
- 申请人:齐鲁工业大学(山东省科学院)
本发明涉及语音信号处理技术领域,尤其是提供了一医多患的语音分离方法和电子设备。该方法包括将同一医生对应的不同患者的多个问诊源音频输入到声纹分割聚类模型,得到每个问诊源音频对应的RTTM文件;根据RTTM文件将对应的问诊原始音频进行裁剪拼接,得到每个问诊原始音频对应的子分离音频;对每个问诊原始音频对应的子分离音频进行声纹识别,确定出现多次的为医生音频,出现一次的为患者音频;将医生音频进行拼接,得到不同患者与医生的多个分离音频,并将每个分离音频以身份和说话者标签的命名,该方法在实现对医患的交流音频进行分离的同时,能够根据时序标签实现获取语音样本,并且确定说话者的身份信息。- 发布时间:2024-06-01 07:55:21
- 0
-
面部生成方法和装置 公开日期:2025-02-18 公开号:CN117765950A 申请号:CN202311775597.2面部生成方法和装置
- 申请号:CN202311775597.2
- 公开号:CN117765950A
- 公开日期:2025-02-18
- 申请人:广电运通集团股份有限公司
本申请公开了一种面部生成方法和装置,属于数字人领域。所述面部生成方法,包括:获取目标音频和目标风格特征序列;目标风格特征序列为目标风格对象在口播任意音频情况下对应的面部特征序列;基于目标音频和目标风格特征序列,预测得到目标口型特征;目标口型特征为目标风格对象对应的唇形风格下与目标音频匹配的口型特征;基于目标口型特征和目标风格特征序列,生成整体面部特征序列。本申请的面部生成方法,可以生成不同风格且风格差异较大的不同的口型特征,有利于个性化风格的实现。- 发布时间:2024-03-29 07:24:17
- 0
-
基于AI智能神经网络的语音用户情绪识别方法 公开日期:2025-02-18 公开号:CN117594067A 申请号:CN202311530150.9基于AI智能神经网络的语音用户情绪识别方法
- 申请号:CN202311530150.9
- 公开号:CN117594067A
- 公开日期:2025-02-18
- 申请人:广州易风健康科技股份有限公司
本发明提供了一种基于AI智能神经网络的语音用户情绪识别方法,包括:获取待识别对话内容中每个短句的语音特征信息;基于第一长短期记忆网络模型对每个短句的语音特征信息进行处理,得到每个短句的上下文语义特征;输入多个短句的语音特征信息至第二长短期记忆网络模型中,提取得到短句发出者的说话状态特征;基于每个短句的发出者以及对应的上一短句的发出者确定短句的发出者切换状态;根据每一短句的上下文语音特征、短句发出者的说话状态特征以及发出者切换状态,确定每一短句的情绪识别结果。- 发布时间:2024-03-02 07:35:37
- 0