-
公开(公告)号:CN110933450A
公开(公告)日:2020-03-27
申请号:CN201910981387.6
申请日:2019-10-16
Applicant: 咪咕文化科技有限公司
IPC: H04N21/2187 , H04N21/239 , H04N21/242 , H04N21/41 , H04N21/6402
Abstract: 本发明实施例涉及通信领域,公开了一种多路直播同步方法、系统、边缘设备、终端及存储介质。本发明中,一种多路直播同步方法,应用于边缘设备,方法包括:获取多路视频数据;其中,每路视频数据均包含时间标记信息;根据时间标记信息对多路视频数据进行同步,并发送同步后的多路视频数据。根据获取的多路视频数据的时间标记信息,对多路视频数据进行时间同步,并发送同步后的多路视频数据,尽可能消除数据传输过程延迟带来的多路视频数据不同步的问题,保证了用户观看到的多路视频的画面尽可能保持同步,提高了用户体验。
-
公开(公告)号:CN110856011A
公开(公告)日:2020-02-28
申请号:CN201911233944.2
申请日:2019-12-05
Applicant: 咪咕视讯科技有限公司 , 咪咕文化科技有限公司 , 中国移动通信集团有限公司
IPC: H04N21/2187 , H04N21/4788
Abstract: 本发明实施例提供一种分组进行直播互动的方法、电子设备及存储介质,所述方法包括:接收主播用户终端发送的分组讨论请求,根据所述分组讨论请求对观众用户终端进行分组;控制流媒体服务器将与每个分组对应的直播流发送给对应分组的观众用户终端。电子设备及存储介质执行上述方法。本发明实施例提供的方法、电子设备及存储介质,实现了分组讨论成员的直播互动。
-
公开(公告)号:CN110807681A
公开(公告)日:2020-02-18
申请号:CN201910850242.2
申请日:2019-09-10
Applicant: 咪咕文化科技有限公司
Abstract: 本发明实施例涉及计算机技术应用领域,公开了一种产品定制方法、电子设备及存储介质。本发明中,产品定制方法包括:获取参考对象的特征向量;将参考对象的特征向量转换成产品的特征值;基于产品的特征值确定所述产品的属性信息。通过参考对象确定产品的属性信息,可以有针对性的为每个用户提供个性化的产品,满足用户个性化的实际需求,提升用户的新奇感、专属感和探索感。
-
公开(公告)号:CN110704680A
公开(公告)日:2020-01-17
申请号:CN201910767754.2
申请日:2019-08-20
Applicant: 咪咕文化科技有限公司
IPC: G06F16/78
Abstract: 本发明实施例涉及人工智能技术领域,公开了一种标签生成方法、电子设备及存储介质。本发明中,对目标视听内容进行识别;获取接收目标视听内容的用户的个性化信息,个性化信息包括用户接收目标视听内容时的实时状态信息;根据用户的个性化信息以及目标视听内容的识别结果,生成目标视听内容的标签;标签包括根据用户接收目标视听内容时的实时状态信息以及目标视听内容的识别结果,生成的用户情感标签;能够提高标签对用户感受描述的准确度。
-
公开(公告)号:CN110691202A
公开(公告)日:2020-01-14
申请号:CN201910804184.X
申请日:2019-08-28
Applicant: 咪咕文化科技有限公司 , 中国移动通信集团有限公司
IPC: H04N5/262 , H04N21/234 , H04N21/44 , H04N21/845
Abstract: 本发明实施例涉及计算机技术领域,公开了一种视频剪辑方法,包括:获取待剪辑视频,并获取目标人物的人脸特征及整体特征;根据目标人物的人脸特征及整体特征,确定目标人物在待剪辑视频中出现的视频帧;根据目标人物在待剪辑视频中出现的视频帧剪辑待剪辑视频。本发明实施方式中公开的视频剪辑方法、装置及存储介质,使得可以同时提高视频剪辑的准确率和效率。
-
公开(公告)号:CN110570877A
公开(公告)日:2019-12-13
申请号:CN201910677689.4
申请日:2019-07-25
Applicant: 咪咕文化科技有限公司
Abstract: 本发明实施例涉及手语翻译技术领域,公开了一种手语视频生成方法、电子设备及计算机可读存储介质,所述手语视频生成方法包括:获取语音的第一类特征参数;将所述第一类特征参数输入预设神经网络模型,得到手语视频的关键帧,其中,所述预设神经网络模型通过历史手语视频中语音的第一类特征样本参数及视频图像的第二类特征样本参数训练得到;根据所述关键帧生成所述语音对应的手语视频。本发明提供的手语视频生成方法、电子设备及计算机可读存储介质能够生成连贯性强的手语视频。
-
公开(公告)号:CN110418148A
公开(公告)日:2019-11-05
申请号:CN201910619448.4
申请日:2019-07-10
Applicant: 咪咕文化科技有限公司
IPC: H04N21/2187 , H04N21/431 , H04N21/845
Abstract: 本发明提供一种视频生成方法、视频生成设备及可读存储介质,该视频生成方法包括:获取直播现场中第一视频片段对应的第一情感特征信息,所述第一视频片段为表演者的表演视频中的当前视频片段;获取直播现场中第二视频片段对应的第二情感特征信息,所述第二视频片段为观众视频中的当前视频片段;根据第一情感特征信息和第二情感特征信息,确定视频内容。本发明的实施例,可以结合表演者的情绪和观众的情绪动态调整视频内容,从而在将该视频内容作为直播屏幕所显示的内容时,可以至少解决现有直播现场中的直播屏幕所显示的内容较为单一的问题,以带给观众与直播现场完美切合的观看体验,提升观众的现场观看体验。
-
公开(公告)号:CN110401881A
公开(公告)日:2019-11-01
申请号:CN201910618851.5
申请日:2019-07-10
Applicant: 咪咕文化科技有限公司
IPC: H04N21/63 , H04N21/475 , H04N21/442 , H04N21/458
Abstract: 本发明实施例提供一种视频直播分享方法和系统。所述方法包括:通过所述直播分享入口发起视频直播之后,将视频的直播分享信息、活动信息和D2D发现区域组装成D2D发现消息;在所述D2D发现区域广播所述D2D发现消息;接收D2D接收端设备根据所述D2D发现消息发送的D2D直播分享请求;根据所述D2D直播分享请求与所述D2D接收端设备建立D2D视频分发通路,通过所述D2D视频分发通路向所述D2D接收端设备发送直播视频。本发明实施例能够减少数据的传输时延,实现实时分享。
-
公开(公告)号:CN109087380A
公开(公告)日:2018-12-25
申请号:CN201810872328.0
申请日:2018-08-02
Applicant: 咪咕文化科技有限公司 , 中国移动通信集团有限公司
Abstract: 本发明公开了一种漫画动图生成方法,包括:向卷积神经网络模型中输入第一图像,第一图像用于表征真实人脸,第一图像至少包括真实人脸的表情信息;接收卷积神经网络模型输出的与第一图像对应的第二图像,以及与真实人脸的表情对应的第一差异向量;第二图像用于表征漫画人脸,漫画人脸与真实人脸相对应,第二图像至少包括漫画人脸的表情信息,第一差异向量用于表征以漫画人脸在第二图像中的表情为表情起点的连续变化的表情对应的多帧图像与其前一帧图像之间的图像差异;基于第二图像和第一差异向量,生成以第二图像为起始帧的包括漫画人脸连续变化表情的漫画动图。本发明还公开了一种漫画动图生成装置和存储介质。
-
公开(公告)号:CN110727489B
公开(公告)日:2023-07-14
申请号:CN201910871813.0
申请日:2019-09-16
Applicant: 咪咕文化科技有限公司
Abstract: 本发明提供一种截屏图像的生成方法、电子设备及计算机可读存储介质,该生成方法应用于电子设备,该电子设备与至少两个屏关联,该生成方法包括:获取每个屏的第一截屏图像;根据每个屏相对于目标平面的偏转状态以及用户相对于所述目标平面的观看状态,确定每个屏的第一截屏图像对应的变换方式;根据所述变换方式,分别对每个屏的第一截屏图像进行处理,得到每个屏的第二截屏图像;所述第二截屏图像为用户观看视角下的每个屏相对于所述目标平面的截屏图像;对每个屏的第二截屏图像进行拼接,得到带有折叠立体效果的目标截屏图像。利用本发明的实施例,可以得到带有折叠立体效果的目标截屏图像,提升用户体验。
-
-
-
-
-
-
-
-
-