Palestra aborda aprendizado incremental e novas técnicas para retreinar redes neurais

Na próxima quinta-feira, 30, na sala 2077 do Instituto de Ciências Exatas (ICEx), o professor Subhasis Chaudhuri, do IIT-Bombay (Indian Institute of Technology in Bombay) irá proferir uma palestra exclusiva para os alunos, professores e funcionários do Departamento de Ciência da Computação da UFMG. Intitulada “Incremental learning”, a palestra abordará métodos para retreinar redes neurais de forma incremental, adicionando novas classes sem esquecer o que já foi aprendido e sem demandar muita memória ou poder computacional. Não há necessidade de inscrição prévia.

Abaixo, um breve currículo do professor Subhasis Chaudhuri e um resumo da palestra:

O professor Subhasis Chaudhuri é o K.N. Bajaj Chair Professor no Departamento de Engenharia Elétrica do Instituto Indiano de Tecnologia (IIT) de Bombaim. Ele obteve seu Ph.D. em Engenharia Elétrica pela Universidade da Califórnia, San Diego, em 1990. Antes de sua posição atual, ele ocupou vários cargos acadêmicos e administrativos no IIT de Bombaim, incluindo diretor, diretor-adjunto, reitor, chefe de Departamento e professor.

Chaudhuri recebeu vários prêmios e reconhecimentos por sua excelência em pesquisa, incluindo o Prêmio S.S. Bhatnagar em Ciências da Engenharia, a Bolsa Swarnajayanti e a Bolsa Nacional J.C. Bose. É membro Fellow de várias academias de prestígio, incluindo The World Academy of Sciences (TWAS), Fellow do IEEE desde 2011 e a Academia Nacional Indiana de Engenharia. Seus interesses de pesquisa incluem processamento de sinais e imagens biomédicas, visão computacional, reconhecimento de padrões, aprendizado de máquina e háptica computacional.

Resumo da palestra:

Como retreinar rapidamente uma rede neural já treinada para as classes adicionais sem incorrer no esquecimento catastrófico das lições preexistentes? A maioria dos métodos de aprendizado incremental existentes retém um pequeno subconjunto de dados de treinamento para as classes preexistentes ao atualizar a rede. Isso requer memória de armazenamento adicional para retreinamento. Um desafio é desenvolver métodos de aprendizado incremental sem esquecimento, sem muita memória adicional ou requisitos computacionais.

Acesso por PERFIL

Acessar o conteúdo