欢迎你的到来
图签名函数 图签名函数
图形签名函数(Graph Signature Function)是一种数学函数,它用于将图形(graphs)中的结构信息转化为数值或向量表示,以便进行图形分析、比较和处理。图形可以是网络、社交关系图、分子结构图、地理信息图等各种复杂结构的
2023-09-25
evoExplore evoExplore
这篇也是讲述时序知识图谱推理的工作。 Temporal knowledge graph representation learning with local and global evolutions 关系的连续建立可以看作是离散的顺
2023-09-25
实体的连接策略 实体的连接策略
说实话好久没有写了,最近有点忙没有更新,很抱歉。差不多有两周时间了,把攒的东西写一写,说实话最近的研究方向可能要换了,所以也是就当做是积累吧。 一个实体的连接策略会影响它与其他实体建立关系的可能性,因为连接策略决定了实体在知识图谱或网络中
2023-09-25
Time2Vec Time2Vec
我们使用 τ 来表示时间的标量概念 将时间特征和其他的特征连接在一起 拼接 我们设计了一种时间表示,可用于通过可学习参数逼近任何函数。 主要的函数 上面的 ω φ是可以学习的参数 直观地说,位置可以被认为是时间,项目可以被认为是当
2023-09-10
TiRGN TiRGN
TiRGN: Time-Guided Recurrent Graph Network with Local-Global Historical Patterns for Temporal Knowledge Graph Reasoning
2023-09-10
New Hawkes Transformer Reasoning New Hawkes Transformer Reasoning
[TOC] Transformer 有两种变体,它们分别捕获瞬时结构信息和时间演化信息,以及一种新的关系连续时间编码函数,以促进 Hawkes 过程的特征演化。 注意: 在这篇论文里里面,我们舍弃了 RGCN 领域聚合器,(RGC
2023-09-10
Graph Hawkes Transformer Graph Hawkes Transformer
[TOC] 这是我首次读到 关于 hawkes过程的用transformer实现的,当然后面也是有另外一个新的,那么我就在这里简单介绍一下这篇论文。 首先我们先区分一下 几种算法之间的区别 算法区别 THP 在计算所
2023-09-04
Self-Attentive Hawkes Process Self-Attentive Hawkes Process
[TOC] SAHP 采用 self-attention 来总结历史事件的影响并计算下一个事件的概率。 自注意力适应以增强强度函数的表达能力。该方法增强了模型预测和模型可解释性。 结构图如下 结构图 传统的自我注意的
2023-09-03
自我拉扯 自我拉扯
9月2号宿舍聚会东港音乐喷泉 更新昨天的情况 昨天是研二宿舍的第一次出去吃饭,去的是黑石礁酒楼,感谢老黄请客,也算是太有影响力了非常感谢 吃到了十分有名的茄盒,但是太油了没有吃掉全部,把核心吃掉了还不错 后面去了东港看音乐喷泉,还是
2023-09-03
The Graph Hawkes Process The Graph Hawkes Process
[TOC] Introduce Hawkes过程是一种自激励点过程,用于对事件序列建模和分析。它的核心概念包括以下几个要素: 强度函数(Intensity function):强度函数 λ(t) 是Hawkes过程中的关键和核心
2023-08-28
TECHS TECHS
2023-08-23 索冀峰
transformer transformer
2023-08-23 索冀峰
Medical Aided Diagnosis System Based on Temporal Knowledge Graph Medical Aided Diagnosis System Based on Temporal Knowledge Graph
[TOC] 简单介绍 主要技术:GRU+TransR 在临床领域,疾病发病往往存在缓慢或快速的进化过程,这些临时的事实时间序列知识可以根据时间序列转换为时间序列知识图。 将文本数据和临床数据中最初存在的不可计算知识以知识图的形式表示
2023-08-22 索冀峰
CENET CENET
CENET论文学习,Temporal Knowledge Graph Reasoning with Historical Contrastive Learning
2023-08-18
2 / 3