Back to Annotated Deep Learning Paper Implementations

උණුසුම්කිරීම සමඟ ඇඩම් ප්රශස්තකරණය

docs/si/optimizers/adam_warmup.html

latest3.3 KB
Original Source

homeoptimizers

View code on Github

#

උණුසුම්කිරීම සමඟ ඇඩම් ප්රශස්තකරණය

මෙය AMSGrad ප්රශස්තකරණය පුළුල් කරන අතර උනුසුම් අවධියක් එක් කරයි.

12fromtypingimportDict1314fromlabml\_nn.optimizersimportWeightDecay15fromlabml\_nn.optimizers.amsgradimportAMSGrad

#

උණුසුම්කිරීම සමඟ ඇඩම් ප්රශස්තකරණය

මෙමපන්තිය AMSGrad ප්රශස්තකරණයෙන් අර්ථ දක්වා ඇත amsgrad.py.

18classAdamWarmup(AMSGrad):

#

ප්රශස්තකරණයආරම්භ කරන්න

  • params යනු පරාමිතීන් ලැයිස්තුවයි
  • lr යනු ඉගෙනුම් අනුපාතයයි α
  • betas (β1​, β2​) ක tuple වේ
  • epsϵ^ හෝ මත ϵ පදනම් වේ optimized_update
  • weight_decay``WeightDecay අර්ථ දක්වා ඇති පන්තියේ අවස්ථාවකි __init__.py
  • 'optimized_update'යනු එකතු කිරීමෙන් පසු එය කිරීමෙන් දෙවන මොහොතේ පක්ෂග්රාහීව නිවැරදි කිරීම ප්රශස්ත කිරීම සඳහා ද යන්න ධජයකි ϵ
  • amsgrad ආදම් සරල කිරීම සඳහා AMSGrad හෝ වැටීම භාවිතා කළ යුතුද යන්න දැක්වෙන ධජයකි
  • warmup උනුසුම් පියවර ගණන
  • defaults කණ්ඩායම් අගයන් සඳහා පෙරනිමි ශබ්ද කෝෂයකි. ඔබට පන්තිය දීර් extend කිරීමට අවශ්ය විට මෙය ප්රයෝජනවත් AdamWarmup වේ.
24def\_\_init\_\_(self,params,lr=1e-3,betas=(0.9,0.999),eps=1e-16,25weight\_decay:WeightDecay=WeightDecay(),26optimized\_update:bool=True,27amsgrad=False,warmup=0,defaults=None):

#

44defaults={}ifdefaultsisNoneelsedefaults45defaults.update(dict(warmup=warmup))46super().\_\_init\_\_(params,lr,betas,eps,weight\_decay,optimized\_update,amsgrad,defaults)

#

ඉගෙනීම-අනුපාතයලබා ගන්න

αmin(1,wt​) උණුසුම් කිරීමේ පියවර ගණන w කොහේද?

48defget\_lr(self,state:Dict[str,any],group:Dict[str,any]):

#

අපිඋනුසුම් අවධියක සිටී නම්

56ifgroup['warmup']\>state['step']:

#

සිට 0 රේඛීයව වැඩිවන ඉගෙනුම් අනුපාතය α

58return1e-8+state['step']\*group['lr']/group['warmup']59else:

#

නිරන්තරඉගෙනුම් අනුපාතය α

61returngroup['lr']

Trending Research Paperslabml.ai