30 сентября (пятница), 1700, аудитория 615 ИППИ РАН
Михаил Бабин (к.ф.-м.н., бывший сотрудник Google)
Теоретические обоснования глубинного обучения
Семинар посвящён "теоретическому" обоснованию глубинного обучения искусственных нейронных сетей (НС).
Планируется кратко рассмотреть следующие темы (от простых к более сложным):
1. Универсальность НС как аппроксиматоров.
2. PAC learning и Радемахеровская сложность НС.
3. PAC-обучаемость НС множеству многочленов ограниченной степени.
4. PAC-обучаемость случайных (упрощенных и не очень стандартных) НС-генеративных моделей.
5. Обратимость генеративных моделей (тут уже обычные Relu + dropout feed forward НС).
6. Близость локальных минимумов функции потерь НС к глобальному (при условии некоторых гипотез).
Ключевые слова: искусственные нейронные сети, глубинное обучение.
28.09.2016 | |