-
公开(公告)号:CN112364193A
公开(公告)日:2021-02-12
申请号:CN202011285825.4
申请日:2020-11-17
Applicant: 同济大学
IPC: G06F16/55 , G06F16/583 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 面向图像检索的融合多层特征深度神经网络模型方法。首次提出了一种更加密集连接的融合多层特征深度神经网络,并基于此网络提出了图像检索方法,通过将多层特征进行了融合,并引入了视觉注意力机制,增加了压缩奖惩模块(squeeze‑and‑excitation(SE)block),将部分层的特征更加充分地利用,使得模型的训练速度更快,并且能对图像特征进行多维度的提取,更加深入地挖掘图片中蕴含的信息,从而提高对图像检索的准确性和鲁棒性。
-
公开(公告)号:CN108985145A
公开(公告)日:2018-12-11
申请号:CN201810526789.2
申请日:2018-05-29
Applicant: 同济大学
Abstract: 随着汽车智能化的不断发展,自动驾驶逐渐成为智能汽车的研究重点,其关键技术之一是对交通标志进行检测与识别用于辅助智能驾驶。然而,现有方法对小尺寸交通标志检测效果不好,即汽车离交通标志较远时,无法检测成功,待靠近检测成功后留给系统的决策时间较少。针对以上问题,本发明基于区域卷积神经网络框架,提出了一种反向连接深度神经网络模型方法以提高小尺寸交通标志检测识别的鲁棒性,从而为智能汽车的辅助驾驶提供了更有效的模型保障。
-
公开(公告)号:CN109215349B
公开(公告)日:2020-12-29
申请号:CN201811260347.4
申请日:2018-10-26
Applicant: 同济大学
Abstract: 随着智能交通系统的不断发展,对交通流量需要进行准确而有效的预测。实现对交通流量的预测,其关键技术之一是对交通流量数据的挖掘并对其数据特征进行学习。然而,对于复杂多变的交通流数据,基于交通流理论和统计学模型的传统方法难以捕捉非线性交通流量数据的复杂模式及其特征,故而对交通流量参数进行模式识别和预测的能力较弱;此外,现有的模型大多只能对交通流量进行短时的预测,目前暂时还没有对交通流量进行长时预测的模型方法。针对以上问题,本发明基于卷积神经网络框架,提出了一种基于深度学习的长时交通流量预测方法以提高对交通流量进行长时预测的准确性和鲁棒性。
-
公开(公告)号:CN109215349A
公开(公告)日:2019-01-15
申请号:CN201811260347.4
申请日:2018-10-26
Applicant: 同济大学
CPC classification number: G08G1/0145 , G06Q10/04 , G06Q50/26
Abstract: 随着智能交通系统的不断发展,对交通流量需要进行准确而有效的预测。实现对交通流量的预测,其关键技术之一是对交通流量数据的挖掘并对其数据特征进行学习。然而,对于复杂多变的交通流数据,基于交通流理论和统计学模型的传统方法难以捕捉非线性交通流量数据的复杂模式及其特征,故而对交通流量参数进行模式识别和预测的能力较弱;此外,现有的模型大多只能对交通流量进行短时的预测,目前暂时还没有对交通流量进行长时预测的模型方法。针对以上问题,本发明基于卷积神经网络框架,提出了一种基于深度学习的长时交通流量预测方法以提高对交通流量进行长时预测的准确性和鲁棒性。
-
公开(公告)号:CN107146630B
公开(公告)日:2020-02-14
申请号:CN201710286942.4
申请日:2017-04-27
Applicant: 同济大学
IPC: G10L21/0308 , H04S1/00
Abstract: 本发明涉及一种基于STFT的双通道语声分离方法,包括以下步骤:S1,分别对左声道和右声道的时域信号序列进行STFT变换,得到左声道和右声道的频域信号序列;S2,获取左、右声道背景音乐分量之间的夹角条件,以及语声分量与频点信号之间的夹角条件,将语声和音乐分离;S3,对步骤S2得到的结果进行STFT反变换,得到语声和音乐分离后的左声道和右声道的时域信号。与现有技术相比,本发明利用STFT变换,可以将背景音乐和语声有效分离;考虑拾音系统的角度范围和拾音系统两通道之间的距离,确定了不同的相差条件,从而使计算结果更加准确;对得到的最后结果进行滤波,滤除不必要的噪声,可应用于K歌类型的手机应用程序中。
-
公开(公告)号:CN107146630A
公开(公告)日:2017-09-08
申请号:CN201710286942.4
申请日:2017-04-27
Applicant: 同济大学
IPC: G10L21/0308 , H04S1/00
Abstract: 本发明涉及一种基于STFT的双通道语声分离方法,包括以下步骤:S1,分别对左声道和右声道的时域信号序列进行STFT变换,得到左声道和右声道的频域信号序列;S2,获取左、右声道背景音乐分量之间的夹角条件,以及语声分量与频点信号之间的夹角条件,将语声和音乐分离;S3,对步骤S2得到的结果进行STFT反变换,得到语声和音乐分离后的左声道和右声道的时域信号。与现有技术相比,本发明利用STFT变换,可以将背景音乐和语声有效分离;考虑拾音系统的角度范围和拾音系统两通道之间的距离,确定了不同的相差条件,从而使计算结果更加准确;对得到的最后结果进行滤波,滤除不必要的噪声,可应用于K歌类型的手机应用程序中。
-
-
-
-
-