Data: quarta-feira, 20 de fevereiro de 2019, às 14h00.
Sala: A249
Palestrante: Vladimir Pestov (UFSC e uOttawa)
Título: Dimensão de Nagata de espaços métricos, densidade de Lebesgue-Besicovitch, e o classificador k-NN.
Resumo: O classificador de k vizinhos mais próximos é o mais antigo algorítmo de aprendizagem de máquina supervisionada, e ainda um dos mais importantes. Tradicionalmente usado com a distância euclideana, ele é as vezes mais eficaz com métricas diferentes. Vamos discutir o problema: dado um espaço métrico qualquer, quando as predições do classificador k-NN convergem para uma predição correta, supondo que tenhamos bastante dados? O problema está ligado aos assuntos na teoria de dimensão de espaços métricos, bem como à análise real. Em parte, é um trabalho junto com minha antiga aluna de doutorado, Sushma Kumari (agora Musashino University, Japão), e o antigo co-orientador dela, Benoît Collins (Kyoto University, Japão).
Sala: A249
Palestrante: Vladimir Pestov (UFSC e uOttawa)
Título: Dimensão de Nagata de espaços métricos, densidade de Lebesgue-Besicovitch, e o classificador k-NN.
Resumo: O classificador de k vizinhos mais próximos é o mais antigo algorítmo de aprendizagem de máquina supervisionada, e ainda um dos mais importantes. Tradicionalmente usado com a distância euclideana, ele é as vezes mais eficaz com métricas diferentes. Vamos discutir o problema: dado um espaço métrico qualquer, quando as predições do classificador k-NN convergem para uma predição correta, supondo que tenhamos bastante dados? O problema está ligado aos assuntos na teoria de dimensão de espaços métricos, bem como à análise real. Em parte, é um trabalho junto com minha antiga aluna de doutorado, Sushma Kumari (agora Musashino University, Japão), e o antigo co-orientador dela, Benoît Collins (Kyoto University, Japão).