安高云
- 作品数:28 被引量:62H指数:5
- 供职机构:北京交通大学更多>>
- 发文基金:国家自然科学基金国家重点基础研究发展计划国家教育部博士点基金更多>>
- 相关领域:自动化与计算机技术电子电信文化科学建筑科学更多>>
- 基于跨类别矩阵满秩约束的行人搜索方法及系统
- 本发明提供一种基于跨类别矩阵满秩约束的行人搜索方法及系统,属于计算机视觉技术领域,利用预先训练好的行人搜索模型对获取的待处理的图像数据进行处理,识别图像中的行人;其中,预先训练好的行人搜索模型的训练使用ResNet50网...
- 岑翼刚张悦张芳慧安高云金一李浥东
- 基于RGB-D数据构成的少量训练样本的手势识别方法
- 本发明公开了一种基于RGB‑D数据构成的少量训练样本的手势识别方法。本发明包含了:特征提取单元,其基于RGB‑D相机得到的对齐的RGB‑D图像序列中提取三维稀疏SIFT特征;训练单元,其用于基于少量的手势训练样本来学习模...
- 万军阮秋琦安高云
- 文献传递
- 基于多尺度总体变分商图像的独立分量分析人脸识别方法
- 本发明公开了一种基于多尺度总体变分商图像的独立分量分析人脸识别方法,属于人脸识别技术领域,包括对比度增强;用TV-L<Sup>1</Sup>对人脸图像做尺度分解,得到含骨骼轮廓及肌肉信息的大尺度图像和含口眼鼻细节的小尺度...
- 阮秋琦安高云仵冀颖
- 文献传递
- 平均光流方向直方图描述的微表情识别被引量:8
- 2018年
- 微表情持续时间短、强度低和局部运动的特点,给其识别带来了极大困难。本文提出了一种新的平均光流方向直方图(MHOOF)描述的微表情识别算法,首先检测人脸稠密关键点并根据关键点坐标和人脸动作编码系统(FACS)将人脸区域划分成13个感兴趣区域(ROI),然后提取选定ROI内相邻两帧之间的HOOF特征来检测微表情序列的峰值帧,最后提取从起始帧到峰值帧这一段图片序列的MHOOF特征进行微表情识别。CASME II微表情库上的实验表明,本文提出的MHOOF特征可有效描述微表情的变化,识别率比两种最优的算法MDMO和Di STLBP-RIP分别提升了5.53%和3.12%。
- 马浩原安高云阮秋琦
- 关键词:光流
- 场景与目标关系约束的域自适应无监督目标检测
- 基于区域的目标检测受限于复杂的现实场景,且目标检测常用数据集包含的物体类别不足以概括现实生活中的常见物体,这导致训练的模型在现实应用时鲁棒性不足。为解决以上问题,本文提出了一种场景与目标关系约束的鲁棒目标检测算法。所提出...
- 徐传胜郝一擎安高云
- 关键词:目标检测
- 基于跨类别矩阵满秩约束的行人搜索方法及系统
- 本发明提供一种基于跨类别矩阵满秩约束的行人搜索方法及系统,属于计算机视觉技术领域,利用预先训练好的行人搜索模型对获取的待处理的图像数据进行处理,识别图像中的行人;其中,预先训练好的行人搜索模型的训练使用ResNet50网...
- 岑翼刚张悦 张芳慧安高云金一 李浥东
- 研究生核心课程的建设与实践被引量:7
- 2022年
- 文章围绕研究生核心课程建设,提出了六个突出的建设思路:核心课程建设要突出知识体系的完备性;教学内容要突出先进性,即要及时反映学科领域前沿和最新的科技成果;教学资源建设要突出多方位的立体化结构;教学要突出先进的教学方法和现代化教学手段的运用;要突出教学团队建设的重要性;要突出思政内容的自然融入。数字图像处理学核心课程建设的实践证明,六个突出理念在核心课程建设及人才培养中起到了很好的作用。
- 阮秋琦安高云赵宏伟金一
- 关键词:核心课程课程建设
- 基于边缘检测和数学形态学的制动盘摩擦面裂纹识别被引量:3
- 2017年
- 制动盘摩擦面疲劳裂纹是造成制动盘失效的重要因素之一。检测制动盘表面的裂纹的数量与长度,对评估制动盘的剩余寿命,保障行车安全具有重要价值。基于边缘检测和数学形态学方法对制动盘摩擦面裂纹进行识别。首先对摩擦面裂纹图像进行了灰度化和中值滤波处理,然后利用Sobel算子和Canny算子联合对摩擦面裂纹进行边缘检测,最后采用数学形态学方法对边缘二值图像进行处理,统计获得摩擦面裂纹的数目与长度。试验结果表明,该识别方法可以实现对摩擦面裂纹的有效识别,得到的裂纹长度和数目基本准确,与原图像中裂纹的形状和长度误差较小。
- 王传刚杨智勇于亦刚安高云李建
- 关键词:数学形态学边缘检测
- 基于模块的图像修复方法
- 本发明涉及一种基于模块的图像修复方法,该方法包括:选择待修复目标区域;计算待修复目标区域内各像素点对应的具有预定大小的待修复模块的纹理特征统计值,根据计算得到的纹理特征统计值调整各待修复模块的大小;利用置信度约束和数据项...
- 安高云阮秋琦仵冀颖
- 文献传递
- 基于多模态特征转换嵌入的场景图生成被引量:1
- 2023年
- 场景图生成是计算机视觉领域中的热点研究方向,可连接上、下游视觉任务。场景图由形式为<主语-谓语-宾语>的三元组组成,模型需要对整幅图像的全局视觉信息进行编码,从而辅助场景理解。但目前模型在处理一对多、多对一和对称性等特殊的视觉关系时仍存在问题。基于知识图谱与场景图的相似性,我们将知识图谱中的转换嵌入模型迁移至场景图生成领域。为了更好地对此类视觉关系进行编码,本文提出了一种基于多模态特征转换嵌入的场景图生成框架,可对提取的视觉和语言等多模态特征进行重映射,最后使用重映射的特征进行谓语类别预测,从而在不明显增加模型复杂度的前提下构建更好的关系表示。该框架囊括并补充了现存的几乎所有转换嵌入模型的场景图实现,将四种转换嵌入模型(TransE、TransH、TransR、TransD)分别应用于场景图生成任务,同时详细阐述了不同的视觉关系类型适用的模型种类。本文所提框架扩展了传统应用方式,除独立模型之外,本文设计了新的应用方式,即作为即插即用的子模块插入到其他网络模型。本文利用大规模语义理解的视觉基因组数据集进行实验,实验结果充分验证了所提框架的有效性,同时,得到的更丰富的类别预测结果表明了本文所提框架有助于解决数据集中的长尾偏差问题。
- 张若楠安高云
- 关键词:知识图谱图像语义