您的位置: 专家智库 > >

赵鑫

作品数:35 被引量:42H指数:2
供职机构:中国人民大学更多>>
发文基金:国家自然科学基金更多>>
相关领域:自动化与计算机技术文化科学政治法律更多>>

文献类型

  • 27篇专利
  • 4篇期刊文章
  • 4篇学位论文

领域

  • 12篇自动化与计算...
  • 9篇文化科学
  • 2篇政治法律

主题

  • 12篇用户
  • 7篇推荐系统
  • 7篇网络
  • 6篇语言模型
  • 6篇向量
  • 5篇偏好
  • 5篇文本
  • 4篇用户偏好
  • 4篇语句
  • 4篇语义
  • 4篇语义表示
  • 4篇语义信息
  • 4篇上下文
  • 4篇上下文相关
  • 4篇潜在用户
  • 4篇基于知识
  • 3篇社交网
  • 3篇刻画
  • 2篇单词
  • 2篇电子设备

机构

  • 35篇中国人民大学
  • 2篇北京达佳互联...
  • 2篇杭州笔声智能...
  • 1篇复旦大学
  • 1篇北京大学
  • 1篇哈尔滨工业大...
  • 1篇华中科技大学
  • 1篇清华大学
  • 1篇苏州大学
  • 1篇中国科学院软...
  • 1篇中国科学院自...
  • 1篇哈尔滨工业大...
  • 1篇之江实验室

作者

  • 35篇赵鑫
  • 17篇文继荣
  • 3篇黄瑾
  • 2篇窦志成
  • 1篇张奇
  • 1篇冯岩松
  • 1篇刘康
  • 1篇张家俊
  • 1篇邱锡鹏
  • 1篇韩先培
  • 1篇黄民烈
  • 1篇刘挺
  • 1篇黄萱菁
  • 1篇万小军
  • 1篇秦兵
  • 1篇赵妍妍
  • 1篇张静
  • 1篇赵军
  • 1篇车万翔
  • 1篇张民

传媒

  • 1篇中国科学基金
  • 1篇山东大学学报...
  • 1篇中国科学:信...
  • 1篇信息安全学报

年份

  • 1篇2024
  • 5篇2023
  • 10篇2022
  • 4篇2021
  • 4篇2020
  • 1篇2019
  • 3篇2018
  • 3篇2017
  • 1篇2011
  • 1篇2010
  • 1篇2007
  • 1篇2006
35 条 记 录,以下是 1-10
排序方式:
一种基于用户关注关系的标签推荐方法
本发明提供了一种基于用户关注关系的标签推荐方法,所述方法具体为:1)使用传统的PageRank算法生成用户影响力分数<Image file="DDA0002212407630000011.GIF" he="67" img...
赵鑫侯宇蓬陈俊华文继荣
文献传递
一种基于突发事件的词向量语言模型
本发明提供了一种基于突发事件的词向量语言模型,所述语言模型使用传统的Word2Vec模型对上下文进行训练,所述训练包括在模型的输入层计算出输入<Image file="DDA0002215965630000011.GIF...
赵鑫朱秋昱张明
文献传递
多媒体资源推荐方法、装置、电子设备及存储介质
本公开关于一种多媒体资源推荐方法、装置、电子设备及存储介质,该方法包括响应于目标对象的多媒体资源获取请求,获取目标对象的历史行为序列信息和待推荐的至少一个多媒体资源的第一资源标识信息,历史行为序列信息包括目标对象在预设时...
赵鑫王辉冯翔毛景树王珵江鹏
文献传递
行政诉讼受案范围研究-以公民合法权益保护为视角
赵鑫
关键词:受案范围受教育权抽象行政行为
一种提高预训练模型性能的过参数化方法
本发明公开了一种提高预训练模型性能的过参数化方法,其包括:S1:获取预训练模型;S2:根据打分函数Iw来确定模型的不同结构是否过参数化;S3:对需要过参数化的结构中的矩阵进行MPO分解,得到高阶张量;S4:利用梯度下降法...
高泽峰赵鑫文继荣刘沛羽周昆
一种基于注意力机制的作文评分方法
本发明提供一种基于注意力机制的作文评分方法,所述方法包括,在作文评分系统中采用单词—句子—文档三层结构的神经网络注意力框架,并使用人工抽取的特征在所述框架的句子和文档层进行融合,进而设置所述句子和文档层的注意力权重。本发...
赵鑫
一种轻量化加深预训练语言模型层数的方法
本发明公开了一种轻量化加深预训练语言模型层数的方法,其包括:S1:构建模型;S2:权重共享;S3:权重初始化;S4:模型训练;S5:进行模型输出。本申请提供的轻量化模型深度扩充方法,通过共享核心参数,只需要很少的额外参数...
赵鑫文继荣刘沛羽高泽峰
大模型时代的自然语言处理:挑战、机遇与发展被引量:39
2023年
近期发布的ChatGPT和GPT-4等大型语言模型,不仅能高质量完成自然语言生成任务,生成流畅通顺,贴合人类需求的语言,而且具备以生成式框架完成各种开放域自然语言理解任务的能力.在少样本、零样本场景下,大模型可取得接近乃至达到传统监督学习方法的性能,且具有较强的领域泛化性,从而对传统自然语言核心任务产生了巨大的冲击和影响.本文就大模型对自然语言处理的影响进行了详细的调研和分析,试图探究大模型对自然语言处理核心任务带来哪些挑战和机遇,探讨大模型将加强哪些自然语言处理共性问题的研究热度,展望大模型和自然语言处理技术的未来发展趋势和应用.分析结果表明,大模型时代的自然语言处理依然大有可为.我们不仅可以将大模型作为研究方法和手段,学习、借鉴大型语言模型的特点和优势,变革自然语言处理的主流研究范式,对分散独立的自然语言处理任务进行整合,进一步提升自然语言核心任务的能力;还可就可解释性、公平性、安全性、信息准确性等共性问题开展深入研究,促进大模型能力和服务质量的提升.未来,以大模型作为基座,拓展其感知、计算、推理、交互和控制能力,自然语言处理技术将进一步助力通用人工智能的发展,促进各行各业的生产力进步,更好地为人类社会服务.
车万翔窦志成冯岩松桂韬韩先培户保田黄民烈黄萱菁刘康刘挺刘知远秦兵邱锡鹏万小军王宇轩文继荣严睿张家俊张民张民张奇赵军赵鑫
关键词:自然语言处理
一种基于提示学习方法的对话推荐系统
本发明公开了一种基于提示学习方法的对话推荐系统,包括如下步骤:S1:通过基于实体预测的自监督学习融合对话文本和知识图谱的语义信息作为任务共享的提示,为预训练语言模型补充用于对话推荐系统所需要的知识信息;S2:通过对话任务...
赵鑫王晓磊
一种基于知识增强神经网络的线上内容流行度预测方法
本发明涉及流行度预测方法的技术领域,尤其是涉及一种基于知识增强神经网络的线上内容流行度预测方法,其包括:将线上物品和已有KB进行连接,并将KB信息用于流行度预测;利用一个隐含向量来表示KB实体,并对KB信息进行编码;基于...
赵鑫窦洪健文继荣
文献传递
共4页<1234>
聚类工具0