Test 업데이트: September 12, 2020 Transformer-layer distillation Loss for attention mechanism [ y=ax+b ] 수식은 $ y=cx+d $ 이렇게 됩니다. \[\alpha = \beta\] \[y=x^2\] [ e^{i\pi} + 1 = 0 ] [ e^x=\sum_{i=0}^\infty \frac{1}{i!}x^i ] [ \frac{n!}{k!(n-k)!} = {n \choose k} ] 아아아아ㅏ 테스트 중입니다 공유하기 Twitter Facebook LinkedIn 이전 다음