脳の階層性を勾配 (Gradients) で捉える!

最終更新日: 2020年7月14日

figure1.jpg

安静時fMRIにおける勾配
(Margulies et al. (2016) より引用)

上図の安静時fMRIの解析結果においては、赤から青にかけての階層性が表現されています。この階層性は、勾配を用いて定量的に計算することができます。では、この勾配とはなんなのでしょうか?

勾配とは?

勾配 (Gradients) : 脳のマクロな特徴を低次元多様体に写像したもの

  1. 類似度行列の計算

…領域間における特徴量の類似性を捉えます。 2. 低次元への変換
…低次元多様体への埋め込みを行います。 3. 階層性の特定
…低次元多様体上での階層性を特定します。

figure2.jpg

勾配の計算方法:機能的結合性の例
(Wael et al. (2020) より引用)

勾配を用いると、「脳内処理が統合することで脳機能にどのような影響があるか」を理解することができます。例えば、皮質全体の勾配パターンとダイナミクス・高次認知との関係、勾配の摂動と精神疾患との関係、脳構造と機能的測定との関係などが示されています1

勾配の計算方法

Wawl et al. (2020) を参考に、解析の一例をまとめました。使用しているデータは、HCP (Human Connectome Project) の安静時fMRIのデータです。


類似度行列の計算

入力 X=(x1,,xn)X = (\bold{x}_1, \cdots, \bold{x}_n)^{\top} の類似度行列 ARn×nA \in \R^{n \times n} を計算します。

xi,xj\bold{x}_i, \bold{x}_j の類似度の計算方法は以下のようなものがあります。

  • ガウシアンカーネル (Gaussian kernel)

γ\gamma はカーネル幅、2\| \cdot \|_2 は L2ノルムを表します。

Aij=exp(γxixj2)A_{ij} = \exp (-\gamma \| \bold{x}_i - \bold{x}_j \|^2)
  • コサイン類似度 (Cosine similarity)
Aij=xixjxixjA_{ij} = \frac{\bold{x}_i \bold{x}_j^{\top}}{\| \bold{x}_i \| \| \bold{x}_j \|}
  • 正規化コサイン類似度 (Normalized angle similarity)
Aij=11πcos1(xixjxixj)A_{ij} = 1- \frac{1}{\pi} \cos^{-1} \left( \frac{\bold{x}_i \bold{x}_j^{\top}}{\| \bold{x}_i \| \| \bold{x}_j \|} \right)
  • ピアソンの相関係数 (Pearson correlation)
Aij=(xixˉi)(xjxˉj)xixˉixjxˉjA_{ij} = \frac{(\bold{x}_i - \bar{\bold{x}}_i) (\bold{x}_j - \bar{\bold{x}}_j)^{\top}}{\| \bold{x}_i - \bar{\bold{x}}_i \| \| \bold{x}_j - \bar{\bold{x}}_j \|}
  • スピアマンの順位相関係数 (Spearman rank order correlation)

ri\bold{r}_ixi\bold{x}_i の順位を表します。

Aij=(rirˉi)(rjrˉj)rirˉirjrˉjA_{ij} = \frac{(\bold{r}_i - \bar{\bold{r}}_i) (\bold{r}_j - \bar{\bold{r}}_j)^{\top}}{\| \bold{r}_i - \bar{\bold{r}}_i \| \| \bold{r}_j - \bar{\bold{r}}_j \|}

今回の例では、コサイン類似度を計算しています。


低次元への変換(次元削減)

類似度行列 AA を、mm 次元の表現 GRn×m\mathcal{G} \in \R^{n \times m} に変換します。

変換方法には以下のようなものがあります。

  • 主成分分析 (PCA)

主成分分析では、線形変換をしていくつかの直交基底からなる空間に写像します。特異値分解をして求めた U,SU, S を用いて低次元表現を取得します。

A=USVGPCA=USA = USV^{\top} \\ \mathcal{G}_{\text{PCA}} = US^{\top}
  • ラプラス固有写像 (Laplacian Eigenmaps)

ラプラス固有写像では、グラフラプラシアン L=DAL = D - A を用いて非線形な次元削減をします。ここで、DDAA の次数行列で Dii=jAijD_{ii} = \sum_j A_{ij} です。グラフラプラシアンの一般化固有値問題を解き、最小を除いた小さい方から mm個の固有値の固有ベクトル {g1,,gm}\{\bold{g}_1, \cdots, \bold{g}_m \} を用いて低次元表現を取得します。

Lgk=λkDgkGLE=(g1,,gm)L\bold{g}_k = \lambda_k D \bold{g}_k \\ \mathcal{G}_{\text{LE}} = (\bold{g}_1, \cdots, \bold{g}_m)^{\top}
  • 拡散マップ (Diffusion Mapping)

拡散マップでは、遷移行列 Pα=Dα1WαP_\alpha = D_\alpha^{-1} W_\alpha を用いて非線形な次元削減をします。ここで、α\alpha は0から1のサンプリング密度を決めるパラメータであり、正規化行列 Wα=D1/αAD1/αW_\alpha=D^{-1/\alpha}AD^{-1/\alpha} と、WαW_\alpha の次数行列 DαD_\alpha を決定します。遷移行列 の一般化固有値問題を解き、最大を除いた大きい方から mm個の固有値とその固有ベクトルを用いて低次元表現を取得します2

Pαgk=λkDgkGDM=(λ1g1,,λmgm)P_\alpha\bold{g}_k = \lambda_k D \bold{g}_k \\ \mathcal{G}_{\text{DM}} = (\lambda_1^{\top}\bold{g}_1, \cdots, \lambda_m^{\top} \bold{g}_m)^{\top}

これら3つの方法で取得した低次元表現 G\mathcal{G} の上位2つを脳画像に描画すると、下図のようになります。

figure3.jpg

機能的結合性の勾配
(Wael et al. (2020) より引用)


勾配を揃える

複数のデータセットや被験者間などで勾配を比較するとき、固有ベクトルの不一致が発生する可能性があります。そのため、比較のために勾配を揃える必要があります

  • プロクラステス解析 (Procrustes Analysis)

プロクラステス解析では、直行線形変換 ψ\psi によって2つの行列を重ね合わせます3。ターゲットとして参照する行列 GR\mathcal{G}_R に重ね合うように全ての行列 {Gk}\{ \mathcal{G}_k \} の変換を求めます。

(1)Choose the first reference GR.(2)Align.  GRψ(Gk)0(3)Update.  GR=1Nkψ(Gk)(4)Iterate (2) - (4). \begin{array}{rl} \text{(1)} & \text{Choose the first reference } \mathcal{G}_R . \\ \text{(2)} & \text{Align. } \ \mathcal{G}_R - \psi(\mathcal{G}_k) \sim 0 \\ \text{(3)} & \text{Update. } \ \mathcal{G}_R = \frac{1}{N} \sum_k \psi(\mathcal{G}_k)\\ \text{(4)} & \text{Iterate (2) - (4). } \end{array}
  • 結合埋め込み (Joint Embedding)

結合埋め込みでは、複数の表現の共通表現を見つけるために、結合類似度行列 J\mathcal{J} を使います。データセットkkの入力を XkX_k としたとき、AkA_kXkX_k の類似度行列、AklA_{kl}Xk,XlX_k, X_l の類似度行列となっています。結合類似度行列 J\mathcal{J} に対して低次元への変換を行えば、共有表現 GJ\mathcal{G}_J が取得できます4

J=(A1A12A1NA12A22A2NA1NA2NAN) GJ=(G1,,GN)\mathcal{J} = \left( \begin{array}{cccc} A_{ 1 } & A_{ 12 } & \ldots & A_{ 1N } \\ A_{ 12 }^{\top} & A_{ 22 } & \ldots & A_{ 2N } \\ \vdots & \vdots & \ddots & \vdots \\ A_{ 1N }^{\top} & A_{ 2N }^{\top} & \ldots & A_{ N } \end{array} \right) \\ \ \\ \mathcal{G}_J = (\mathcal{G}_1, \cdots, \mathcal{G}_N)^{\top}

これら2つの方法で揃えた勾配は、下図のようになります。

figure4.jpg

勾配の重ね合わせ
(Wael et al. (2020) より引用)


帰無仮説検定

他のモダリティとの相関を評価する差異、空間的な自己相関によるバイアスが大きくなることが予想されます。これを回避するために順列検定を行い、類似した空間的自己相関をもつ分布との相関と比較することが重要です

  • スピン順列検定 (Spin Permutations)

スピン順列検定では、皮質の球体表現を活用します。球面上の座標 VlRl×3V_l \in \R^{l \times 3} にランダムな回転行列 RR3×3R \in \R^{3 \times 3} をかけて回転させた球体を帰無分布の標本とします5

  • Moran Spectral Randomization

MSRを用いて、類似の空間的な自己相関をもった確率変数を生成することもできます6

スピン順列検定を用いて 皮質厚や T1w/T2w 画像と比較した例が下図です。T1w/T2w 画像のみに有意な相関がみられたようです。

figure5.jpg

スピン順列検定
(Wael et al. (2020) より引用)

次回は、勾配解析を実際にPythonで行ってみたいと思います。

Pythonで脳の勾配を計算する - BrainSpace


Reference

  • Margulies, D. S., Ghosh, S. S., Goulas, A., Falkiewicz, M., Huntenburg, J. M., Langs, G., ... & Jefferies, E. (2016). Situating the default-mode network along a principal gradient of macroscale cortical organization. Proceedings of the National Academy of Sciences, 113(44), 12574-12579. url
  • de Wael, R. V., Benkarim, O., Paquola, C., Lariviere, S., Royer, J., Tavakol, S., ... & Misic, B. (2020). BrainSpace: a toolbox for the analysis of macroscale gradients in neuroimaging and connectomics datasets. Communications biology, 3(1), 1-10. url

  1. Wael et al. (2020) を参照
  2. LEではAA-を付けているのに対し、DMではAAをそのまま使っているので、情報量の多い固有値が逆転しています。
  3. Hyperalignmentと似た操作だと思います。全体的な形状を維持できます。
  4. 低次元多様体を結合するような操作です。正準相関分析や部分最小二乗法との関連が深いようです。
  5. 論文の添字が怪しいと思います。
  6. 詳細は Wael et al. (2020) を参照