AttentionとKernel Smoothingの対応関係についてのメモ
LGTM: 3
#機械学習 #Attention #Transformer
Link: https://qiita.com/ae14watanabe/items/33d0541df0ff9d6577a8
LGTM: 3
#機械学習 #Attention #Transformer
Link: https://qiita.com/ae14watanabe/items/33d0541df0ff9d6577a8
Qiita
AttentionとKernel Smoothingの対応関係についてのメモ - Qiita
Attentionを勉強する過程でKernel smoothingと等価なことをやっているのでは?!と思い,調べてみたら英語の文献1は出てきたのですが日本語で言及されているものを見たことなかったので,雑メモですが投稿します.
結論...
結論...