一种调配蛤蜊酱及其制备方法

    公开(公告)号:CN104431979B

    公开(公告)日:2017-05-10

    申请号:CN201410791422.5

    申请日:2014-12-19

    Abstract: 本发明提供了一种调配蛤蜊酱及其制备方法,所述调配蛤蜊酱是以甜面酱为基础,后期调配加入蛤蜊肉汤粉、蛤蜊肉粉、蛤蜊美拉德产物粉而成。其制备方法是:先制备甜面酱,然后再向所述甜面酱中加入肉汤粉3%‑9%,蛤蜊肉粉4%‑9%,蛤蜊美拉德产物粉2%‑6%,充分搅拌,制得所述调配蛤蜊酱。本发明的优点是产品具有浓郁的海鲜风味,鲜味突出,酱体为棕褐色,富含谷氨酸,天冬氨酸等鲜味物质。本发明提供的调配蛤蜊酱的制备方法,能解决蛤蜊不能长期保存的问题,同时充分利用烫煮蛤蜊后的肉汤,避免了原料浪费,将粮食与蛤蜊的营养及保健功能融为一体,将蛤蜊中天然的鲜味融合到传统酱品中。

    一种基于特征解纠缠表示的红外与可见光图像融合方法

    公开(公告)号:CN117809146B

    公开(公告)日:2024-07-23

    申请号:CN202311700020.5

    申请日:2023-12-11

    Applicant: 江南大学

    Abstract: 本申请公开了一种基于特征解纠缠表示的红外与可见光图像融合方法,涉及图像融合技术领域,该方法利用两个双编码器分别提取红外源图像和可见光源图像的共享特征和模态独有特征,然后对两组共享特征进行融合,对两组模态镀有特征进行融合,再经过解码器得到融合后的图像。该方法在对红外和可见光图像中的深度特征进行解纠缠分离共享特征和独有特征的基础上,采用经过深度优化的融合策略完成图像融合。这种方法不仅确保了融合图像中两种模态的核心信息得到完整体现,而且避免了混合处理特征而导致的图像失真,确保生成的融合图像的质量。

    引入群体情绪感染的原型增强小样本对话情感识别方法

    公开(公告)号:CN116521875B

    公开(公告)日:2023-10-31

    申请号:CN202310515226.4

    申请日:2023-05-09

    Applicant: 江南大学

    Inventor: 蒋敏 王梦迪 孔军

    Abstract: 本发明公开了引入群体情绪感染的原型增强小样本对话情感识别方法,涉及自然语言处理技术领域,针对现有的小样本对话情感识别方法直接根据对话中语句类别采样导致的各类别语句不均衡问题,本方法引入自适应交叉采样策略,根据对话中各类别语句数量进行自适应分组,并根据不同组之间的比例进行采样,有效缓解了各类别语句不平衡问题。同时,在考虑对话上下文信息方面,本方法引入了群体情绪感染机制构建加权有向无环图,有效区分了他人与说话者本人对说话者的不同影响。此外,本方法基于原型网络提出了增强对话原型网络,通过动态加权计算对话内各类别语句原型再平均的方法,增强了对话内语句类原型表示。

    基于骨架数据时空特征差异性和相关性的行为识别方法

    公开(公告)号:CN116434339B

    公开(公告)日:2023-10-27

    申请号:CN202310399333.5

    申请日:2023-04-13

    Applicant: 江南大学

    Inventor: 蒋敏 卿入心 孔军

    Abstract: 本申请公开了一种基于骨架数据时空特征差异性和相关性的行为识别方法,涉及计算机视觉领域,该方法搭建的行为识别模块中包含空间图卷积模块和时间图卷积模块,空间图卷积模块包括时间特征学习单元、通道特征学习单元和时间通道上下文拓扑单元,时间特征学习单元和通道特征学习单元用于分别独立地学习时间帧维度和通道维度中关节之间的特征差异性和特征相关性,学习协同完成动作的关节之间特征的相关性,也学习因为运动发生而发生变化部分关节的特征差异性,时间通道上下文拓扑单元学习所有关节的全局上下文特征信息,获取更多具有判别性的特征,融合后可以更有效地人体行为识别。

    引入群体情绪感染的原型增强小样本对话情感识别方法

    公开(公告)号:CN116521875A

    公开(公告)日:2023-08-01

    申请号:CN202310515226.4

    申请日:2023-05-09

    Applicant: 江南大学

    Inventor: 蒋敏 王梦迪 孔军

    Abstract: 本发明公开了引入群体情绪感染的原型增强小样本对话情感识别方法,涉及自然语言处理技术领域,针对现有的小样本对话情感识别方法直接根据对话中语句类别采样导致的各类别语句不均衡问题,本方法引入自适应交叉采样策略,根据对话中各类别语句数量进行自适应分组,并根据不同组之间的比例进行采样,有效缓解了各类别语句不平衡问题。同时,在考虑对话上下文信息方面,本方法引入了群体情绪感染机制构建加权有向无环图,有效区分了他人与说话者本人对说话者的不同影响。此外,本方法基于原型网络提出了增强对话原型网络,通过动态加权计算对话内各类别语句原型再平均的方法,增强了对话内语句类原型表示。

    基于视频的并行时空注意力行人重识别方法

    公开(公告)号:CN111310633B

    公开(公告)日:2023-05-05

    申请号:CN202010084877.9

    申请日:2020-02-10

    Applicant: 江南大学

    Inventor: 孔军 滕振德 蒋敏

    Abstract: 基于视频的并行时空注意力行人重识别方法,属于计算机视觉领域。本发明提出的并行时空网络模型,能够同时提取行人的时序特征和空间特征,显著减少了行人信息的损失。此外为获取更具有辨识性的时序特征,本发明提出了全局时序注意力模块,同时为获取更具有辨识性的空间特征本发明引入了空间卷积注意力模块。全局时序注意力模块能够选择出辨识性更强的视频帧,同时空间卷积注意力模块能够对显著性区域进行特征提取。最终本发明使用特征融合的方法对时序特征和空间特征进行联合,从而获得更加完整的行人特征用于行人的重识别,极大提高了行人重识别模型的鲁棒性。

Patent Agency Ranking