Філіп Кофман, Deep Learning researcher.
Цього року Філіп закінчив магістерську програму в Українському католицькому університеті. Під час навчання в університеті він брав участь у міжнародному конкурсі програмування ACM ICPC та досяг чудових результатів на півфіналі. Цьому сприяло навчання в іншому місці — Яндекс-школі аналізу даних. Його захоплення алгоритмами та складними завданнями поєднувалося з бажанням вирішувати бізнес-проблеми, тож Філіп обрав для себе Data Analysis. Вже більше 3-х років у цій галузі, працював в таких компаніях як MMI та TrueConf. До його професійних інтересів входять глибинні генеративні моделі, до цього працював над проблемами прогнозування часових рядів.
У цій лекції Філіп поділиться базовими знаннями про прості генеративні моделі, покаже, як вони працюють та трохи пограє з вашою інтуїцією. Сучасні генеративні моделі можуть творити диво! Десятки дослідницьких робіт описують магічні методи генерації для тварин, крутих картинок тощо. Однак на практиці ми стикаємося з безліччю проблем і болем під час тренування моделей. Вони можуть не мати хорошої властивості генерації через:
- поганий dataset;
- низьку пропускну здатність нейронних мереж;
- занадто простий або, навпаки, складний розподіл генерованих даних;
- та безліч іншого 🙂
У цій лекції ви дізнаєтесь кілька хитрощів щодо вдосконалення моделей, заглибитесь у розуміння complex generation pipeline, краще зрозумієте проблеми та як їх вирішити.
Якщо ви не впевнені, спробуйте виконати четверте завдання на цьому сайті – https://poloclub.github.io/ganlab/