Conceitos teóricos em redes neurais

Minicurso

24 a 27 de abril de 2023, às 17h

Auditório I do ICEx

O minicurso será ministrado por Vladimir Pestov, Professor Emérito, Universidade de Ottawa, Canadá, e
bolsista DCR-A, Departamento de Matemática, UFPB.

Biografia: Vladimir Pestov é um matemático nascido na Sibéria, com doutorado da Universidade de Moscou (1983). Depois de uma carreira acadêmica que abrange postos universitárias permanentes na antiga URSS (1983-91), Nova Zelândia (1992-2002) e Canadá (2002-2017), ele pediu aposentadoria antecipada da Universidade de Ottawa, Canadá, e foi para o Brasil. Aqui ele alterna entre postos visitantes e trabalho independente. Os interesses do Vladimir incluem a teoria dinâmica de grupos de transformações, assim como tópicos matemáticos relacionados a conjuntos de dados, inclusive aprendizado de máquina, onde ele escreveu um livro publicado pelo IMPA: https://impa.br/wp-content/uploads/2022/03/32CBM07_eBook.pdf

Resumo: Um dos problemas em aberto mencionados frequentemente é o entendimento teórico de chamado “sobreajuste benigno” (“benign overfitting”) de redes neurais profundas. Nesse minicurso eu vou explicar alguns noções pertinentes da teoria de aprendizagem estatística: dimensão de Vapnik-Chervonenkis, aprendizagem PAC (Provavelmente Aproximadamente Correta), e teorema de Aproximação Universal de Cybenko. Também, vou falar um pouco do trabalho recente de Tegmark e Rolnick, e o de Hanin, Roberts, e Yaida, e mencionar alguns problemas em aberto. 

Acesso por PERFIL

Pular para o conteúdo