Back to Annotated Deep Learning Paper Implementations

අවධානය රහිත ට්රාන්ස්ෆෝමරයක්

docs/si/transformers/aft/readme.html

latest1.5 KB
Original Source

hometransformersaft

View code on Github

#

අවධානය රහිත ට්රාන්ස්ෆෝමරයක්

මෙය PyTorch කඩදාසි ක්රියාත්මක කිරීමකි අවධානය නිදහස් ට්රාන්ස්ෆෝමර් .

මෙමලිපිය ස්වයං අවධානය ස්තරය නව කාර්යක්ෂම මෙහෙයුමකින් ප්රතිස්ථාපනය කරයි, එය O (Td) හි මතක සංකීර්ණතාවයක් ඇති අතර ටී යනු අනුක්රමයේ දිග d වන අතර කාවැද්දීම් වල මානයන් වේ.

කඩදාසිAFT සහ AFT හඳුන්වා දෙයි AFT සහ AFT-conv. මෙන්න අපි ස්වයංක්රීය ප්රතිගාමී ආකෘතියක් තුළ සමීප ටෝකන කෙරෙහි අවධානය යොමු කරන AFT- දේශීය ක්රියාත්මක කර ඇත්තෙමු.

Trending Research Paperslabml.ai