免费A级毛片无码专区网站-成人国产精品视频一区二区-啊 日出水了 用力乖乖在线-国产黑色丝袜在线观看下-天天操美女夜夜操美女-日韩网站在线观看中文字幕-AV高清hd片XXX国产-亚洲av中文字字幕乱码综合-搬开女人下面使劲插视频

RDCL 謠言檢測——《Towards Robust False Information Detection on Social Networks with Contrastive Learning》

論文信息

論文標題:Towards Robust False Information Detection on Social Networks with Contrastive Learning論文作者:Chunyuan Yuan, Qianwen Ma, Wei Zhou, Jizhong Han, Songlin Hu論文來源:2019,CIKM論文地址:download 論文代碼:download
1 Introduction問題:會話圖中輕微的擾動講導致現(xiàn)有模型的預測崩潰 。
RDCL 謠言檢測——《Towards Robust False Information Detection on Social Networks with Contrastive Learning》

文章插圖
研究了兩大類數(shù)據(jù)增強策略(破壞會話圖結構):
RDCL 謠言檢測——《Towards Robust False Information Detection on Social Networks with Contrastive Learning》

文章插圖
貢獻:
(1) 提出了RDCL框架,為虛假信息檢測提供了魯棒的檢測結果,該框架利用對比學習從多個角度提高了模型對擾動信號的感知 。
(2) 證明了硬正樣本對可以提高對比學習的效果 。
(3) 提出了一種有效的硬樣本對生成方法 HPG,它可以增加對比學習的效果,使模型學習更魯棒的表示 。
(4) 通過比較實驗、在不同的 GNN 和兩個數(shù)據(jù)集上進行的消融實驗,證明了該模型的有效性 。
2 Methodlogy問題定義:預測無向會話圖的標簽 。
整體框架如下:
RDCL 謠言檢測——《Towards Robust False Information Detection on Social Networks with Contrastive Learning》

文章插圖
2.1 Data Perturbationsnode-based data perturbationComments contain noise (CN) 在除根節(jié)點以外的節(jié)點中,以 $\rho $ 的采樣率采樣節(jié)點,對于采樣的節(jié)點用高斯分布初始化,沒有被采樣到的節(jié)點采用 0 填充:
$X_{C N}^{-r}=X^{-r}+X_{G a u s s i o n}^{-r}$
Comments are deleted (CD)
在除根節(jié)點以外的節(jié)點中,以 $\rho $ 的采樣率采樣節(jié)點,然后將其節(jié)點特征向量置 0 :
$X_{C D}^{-r}=X^{-r} \odot D^{-r}$
Comments are exchangeable (CE)
在除根節(jié)點以外的節(jié)點中,以 $\rho $ 的采樣率采樣節(jié)點,交換節(jié)點特征向量 。
topology-based data perturbationPropagation sub-structure is removed (PR)
在除根節(jié)點以外的節(jié)點中,隨機選擇一部分節(jié)點,并刪除其形成的子圖 。
Propagation structure is uncertain (PU)以 $\rho $ 的采樣率采樣邊,并刪除邊:
$A_{P U}=A-A_{\text {drop }}$
Propagation structure is incorrect (PI)隨機選擇兩個節(jié)點 $C_i$ 和 $C_j$,對于 節(jié)點 $C_i$,選擇刪除它和它父節(jié)點之間的邊,并添加 $C_j$ 和 $C_i$ 之間的邊 。
2.2 Contrastive Perturbation Learning對于一張圖,采用不同的數(shù)據(jù)增強策略,得到兩個增強圖,并獲得其對應的圖級表示,使用 NT-XENT 損失作為自監(jiān)督損失:${\large \mathcal{L}_{\mathrm{SSL}}=-\log \frac{\exp \left(z_{m}^{i} \cdot z_{m}^{j} / \tau\right)}{\exp \left(z_{m}^{i} \cdot z_{m}^{j} / \tau\right)+\sum\limits _{N e g} \exp \left(z_{m}^{i} \cdot z_{n e g} / \tau\right)}} $Note:需要對 每個特征向量 $z_{m}^{i}, z_{m}^{j},z_{\text {neg }}$ 使用 $l_2$ normalization 。假設:對于含有相同標簽的圖,將他們認為是正樣本對,每個 batch 中有 $P$ 張圖,加上數(shù)據(jù)增強后生成的 $2P$ 張圖,總共有 $3P$ 張圖,自監(jiān)督對比損失如下:
${\large \mathcal{L}_{S C L}=-\frac{1}{3 P} \log \frac{\sum\limits _{Y_{s}=Y_{m}} \exp \left(z_{m} \cdot z_{s} / \tau\right)}{\sum\limits_{Y_{s}=Y_{m}} \exp \left(z_{m} \cdot z_{s} / \tau\right)+\sum\limits_{Y_meoymoi \neq Y_{m}} \exp \left(z_{m} \cdot z_qceo2em / \tau\right)}} $
[ Anchor 和 數(shù)據(jù)增強圖之間的對比損失]
2.3 Perturbation Sample Pairs Generation自監(jiān)督損失:
$\begin{aligned}\mathcal{L}_{\mathrm{SSL}}=&-z_{m}^{i} \cdot z_{m}^{j} / \tau +\log \left(\exp \left(z_{m}^{i} \cdot z_{m}^{j} / \tau\right)+\sum\limits_{\mathrm{Neg}} \exp \left(z_{m}^{i} \cdot z_{n e g} / \tau\right)\right)\end{aligned}$
[數(shù)據(jù)增強圖之間的對比損失]
上述 $\mathcal{L}_{\text {SSL }}$ 關于 $z_{m}^{i}$ 的梯度為:

經(jīng)驗總結擴展閱讀