Seminário de Otimização & Problemas Inversos – 30/06/2025 às 14h:00m

25/06/2025 10:46

Seminário de Otimização & Problemas Inversos

Título: Minimizando o erro empírico da regra de aprendizagem k-NN sobre uma família de métricas: o problema da consistência

Palestrante:  Vladimir Pestov (U. Ottawa/UFSC)

Resumo: Uma regra de aprendizagem supervisionada associa um classificador a cada amostra rotulada de dados. Diz-se que essa regra é universalmente consistente se, para qualquer distribuição de dados, os classificadores gerados convergem assintoticamente para o melhor classificador possível. A regra dos k vizinhos mais próximos (k-NN) foi a primeira para a qual se demonstrou a consistência universal (Charles Stone, 1977).
Na prática, é relativamente comum otimizar o classificador k-NN sobre uma família de métricas, escolhendo aquela que minimiza o erro empírico. No entanto, até o momento, faltam justificativas teóricas sólidas para esse procedimento.
Nesta palestra, discutimos ferramentas existentes — como a teoria da complexidade de Vapnik–Chervonenkis (VC) — e explicamos por que elas não se aplicam diretamente a esse contexto. Em seguida, apresentamos um avanço parcial que oferece uma justificativa teórica para a otimização empírica dentro da família de métricas \ell^p e suas rotações unitárias — uma abordagem anteriormente explorada na prática com certo sucesso pelo palestrante e seus alunos canadenses.
Concluímos com uma discussão sobre um caso ainda em aberto de grande interesse: o classificador LMNN (Large Margin Nearest Neighbour).

Data: Segunda-feira, 30 de junho às 14h:00m
Local: Auditório Airton Silva, Departamento de Matemática – MTM /CFM

Maiores informações:  http://mtm.ufsc.br/~maicon/seminar

E.Krukoski
Tags: classificadork-NNLMNNVapnik–ChervonenkisVladimir Pestov