AttentionとKernel Smoothingの対応関係についてのメモ
LGTM: 3
#機械学習 #Attention #Transformer
Link: https://qiita.com/ae14watanabe/items/33d0541df0ff9d6577a8
  
  LGTM: 3
#機械学習 #Attention #Transformer
Link: https://qiita.com/ae14watanabe/items/33d0541df0ff9d6577a8
Qiita
  
  AttentionとKernel Smoothingの対応関係についてのメモ - Qiita
  Attentionを勉強する過程でKernel smoothingと等価なことをやっているのでは?!と思い,調べてみたら英語の文献1は出てきたのですが日本語で言及されているものを見たことなかったので,雑メモですが投稿します.
結論...
  結論...
