周晗
- 作品数:11 被引量:105H指数:3
- 供职机构:中国科学院上海高等研究院更多>>
- 发文基金:国家自然科学基金更多>>
- 相关领域:自动化与计算机技术语言文字电子电信更多>>
- 机场飞行区活动异物检测系统及其检测方法
- 本申请公开了一种机场飞行区活动异物检测系统,包括:探测传感器,用来扫描机场飞行区并将扫描信息提供给控制器;确认传感器,用来拍摄探测传感器扫描到异物位置的图像并将图像信息提供给控制器;控制器,包括扫描识别模块、图像识别模块...
- 徐浩煜韩振奇周晗汪亮友
- 文献传递
- 无人飞行器入侵拦截方法及装置
- 本发明提供一种无人飞行器入侵拦截方法及装置,方法包括当通过空域扫描方式在一预设区域监测到无人飞行器入侵时,立刻向频域扫描方式传递入侵信号,频域扫描方式获取预设区域内的无线频谱的变化;根据无线频谱的变化,分析得到无人飞行器...
- 徐浩煜韩振奇周晗封松林李明齐
- 文献传递
- 一种分类语料库的构建方法、系统及具有该系统的服务器
- 本发明提供一种分类语料库的构建方法、系统及具有该系统的服务器,构建方法包括:获取待分类的目标数据,并根据实际需求获取类别描述数据;选取最大准确度对应的文本相似度计算方法;将待分类的目标数据归类到最大相似度对应的类别;将第...
- 徐浩煜谷重阳封松林周晗李明齐
- 一种停机位通信干扰抑制的自适应波束成形技术
- 2014年
- 目前在最先进的商用飞机上,基于IEEE 802.11b/g协议的航站楼无线局域网系统为停机位处高速无线数据传输提供了一个可行的解决方案。然而,IEEE 802.11b/g协议并不被设计具有抗干扰性能,当前停机位无线通信(指airport gate link)系统受到机场强干扰影响只能提供较低的无线传输速率。提供了一个基于IEEE802.11g协议的自适应波束成形技术来提高当前航站楼无线局域网系统的性能。仿真结果显示所提出的方法可以有效抑制干扰并有效改善系统性能。
- 徐浩煜周晗汪亮友蔡孙增朱正航
- 关键词:自适应波束成形IEEE802
- 基于链式条件随机场的中文分词改进方法被引量:10
- 2016年
- 基于链式条件随机场模型的序列标注中文分词方法随着中文分词评测Bakeoff的展开得到广泛应用。词位标注集和特征模板集对该模型的学习至关重要,但当前的研究大多采用单一的标注集和特征模板集进行实验,缺乏标注集和特征模板集结合的尝试,使得中文分词中未登录词识别率不高,从而影响互联网领域语料的分词效果。首次采用六词位标注集结合TMPT-10和TMPT-10`特征模板,并与常见标注集和特征模板集的组合在Bakeoff语料上进行实验对比,结果表明,改进的方法 6tag-tmpt10取得更好的未登录词召回率,在互联网领域中文分词能取得很好的效果;同时在F值上也与其他最好结果相当。
- 徐浩煜任智慧施俊周晗
- 关键词:中文分词词位标注条件随机场
- 用于民航行业的可移动计算存储装置及信息处理方法
- 本发明提供一种用于民航行业的可移动计算存储装置及信息处理方法,包括对大数据量信息进行计算和存储的信息处理模块;将信息处理模块中的数据同步到数据中心,并通过数据中心更新信息处理模块对信息的处理功能的同步更新模块;通过无线传...
- 封松林周晗徐浩煜
- 文献传递
- 机场跑道异物检测系统及其扫描方法
- 本申请公开了一种机场跑道异物检测系统,包括至少一个塔台以及固定在该塔台上的至少一个扫描设备,该扫描设备搭配有一个转动机构和一个俯仰角调整机构,该转动机构使该扫描设备水平转动以使该扫描机构的扫描区域从至少一条跑道的一端运动...
- 徐浩煜韩振奇周晗汪亮友
- 文献传递
- 一种分类语料库的构建方法、系统及具有该系统的服务器
- 本发明提供一种分类语料库的构建方法、系统及具有该系统的服务器,构建方法包括:获取待分类的目标数据,并根据实际需求获取类别描述数据;选取最大准确度对应的文本相似度计算方法;将待分类的目标数据归类到最大相似度对应的类别;将第...
- 徐浩煜谷重阳封松林周晗李明齐
- 文献传递
- 基于词汇语义信息的文本相似度计算被引量:27
- 2018年
- 传统的文本相似度计算大多基于词匹配的方法,忽略了词汇语义信息,计算结果很大程度上取决于文本的词汇重复率。虽然分布式词向量可以有效表达词汇语义关系,但目前基于词向量的文本处理方法大多通过词汇串联等形式表示文本,无法体现词汇在语料库中的分布情况。针对以上问题,提出了一种新的计算方法。该方法认为基于统计的文本向量各元素之间存在相关性,且该相关性可通过词汇语义相似度表示。因此,利用词汇相似度改进了基于余弦公式的文本相似度计算方法。实验表明该方法在F1值和准确度评价标准上优于其他方法。
- 谷重阳谷重阳徐浩煜周晗
- 关键词:文本相似度
- 基于LSTM网络的序列标注中文分词法被引量:69
- 2017年
- 当前主流的中文分词方法是基于字标注的传统机器学习方法,但传统机器学习方法需要人为地从中文文本中配置并提取特征,存在词库维度高且利用CPU训练模型时间长的缺点。针对以上问题进行了研究,提出基于LSTM(long short-term memory)网络模型的改进方法,采用不同词位标注集并加入预先训练的字嵌入向量(character embedding)进行中文分词。在中文分词评测常用的语料上进行实验对比结果表明,基于LSTM网络模型的方法能得到比当前传统机器学习方法更好的性能;采用六词位标注并加入预先训练的字嵌入向量能够取得相对最好的分词性能;而且利用GPU可以大大缩短深度神经网络模型的训练时间;LSTM网络模型的方法也更容易推广并应用到其他自然语言处理中序列标注的任务。
- 任智慧徐浩煜封松林周晗施俊
- 关键词:中文分词自然语言处理