Gør som tusindvis af andre bogelskere
Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.
Ved tilmelding accepterer du vores persondatapolitik.Du kan altid afmelde dig igen.
Provides a tutorial on a family of sequential learning and decision problems known as the multi-armed bandit problems. In such problems, any decision serves the purpose of exploring or exploiting or both. This balancing act between exploration and exploitation is characteristic of this type of "learning-on-the-go" problem.
Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.
Ved tilmelding accepterer du vores persondatapolitik.