Seminários em Análise Convexa e Otimização
Otimização Não-Linear na Linguagem Julia
Expositor: Abel Siqueira (UFPR)
Resumo: Nesta palestra apresentarei a linguagem de programação Julia, que vem ganhando bastante espaço na computação científica, e falarei especificamente de seu uso na otimização. Falarei sobre a organização JuliaSmoothOptimizers, de que faço parte, mostrando as ferramentas que permitem a escrita de códigos eficientes de maneira prática.
Dia/Hora: Sexta-feira, 01 de dezembro, 10h:30m
Local: Auditório Airton Silva, Sala MTM007 do Departamento de Matemática.
Maiores informações: www.mtm.ufsc.br/~maicon/seminar
E. Krukoski
Tags:
Análise ConvexaLinguagem Juliaotimização
Seminários em Análise Convexa e Otimização
Título: On the convergence rate of the scaled proximal decomposition on the graph of a maximal monotone operator (SPDG) algorithm (parte II)
Expositor: Samara Costa Lima (UFSC)
Data/Hora: Sexta-feira, 10 de novembro às 10h30m
Local: Auditório Airton Silva, Sala MTM007, do Departamento de Matemática
Maiores informações: <AQUI>
E. Krukoski
Tags:
Análise ConvexaDecompositionmonotone operatorotimizaçãoSeminários
Seminários em Análise Convexa e Otimização
Sobre a decomposição matricial em componentes esparsa e de posto pequeno: estratégias para resolução e aplicações
Expositor: Sandra A. Santos (UNICAMP)
Resumo: Este trabalho trata do problema de decompor uma dada matriz em duas componentes, uma esparsa e outra de posto pequeno.
A necessidade deste tipo de decomposição aparece no contexto aplicado de câmeras de vigilância, reconhecimento facial e indexação semântica latente, por exemplo.
Pode ser modelado como um problema de otimização não suave em que a função objetivo é uma combinação ponderada entre a norma um da componente esparsa e a
norma nuclear da componente de posto pequeno, sujeita a que a soma das duas componentes seja a matriz dada.
Propusemos duas abordagens distintas para resolver a reformulação irrestrita do problema.
A primeira envolve a suavização dos dois termos da função objetivo e o uso de uma estratégia quase-Newton com memória limitada,
combinada com um ajuste homotópico do parâmetro que controla a suavização.
A segunda consiste na suavização do termo com a norma um, em conjunto com uma estratégia proximal para o termo da norma nuclear.
Experimentos numéricos comparativos ilustram e contextualizam a empregabilidade das duas abordagens.
Foi desenvolvido em colaboração com estudante de doutorado Ivan X. M. Nascimento e os pesquisadores Jon Lee, Marcia H. Fampa e Paulo J. S. Silva.
Dia/Hora: Sexta-feira, 25-08-2017 às 10h:30m
Local: Auditório da Matemática, sala MTM007 do Departamento de Matemática.
Maiores informações: www.mtm.ufsc.br/~maicon/seminar
E. Krukoski
Tags:
Análise Convexaotimização
Seminários em Análise Convexa e Otimização
Inexact Dual Dynamic Programming
Vincent Guigues (EMAp/FGV-Rio)
Resumo: We introduce an extension of the Dual Dynamic Programming method to solve convex optimization problems.
We call Inexact DDP (IDDP) this extension which applies to situations where all primal and dual subproblems are solved with a bounded error. We also study the convergence of this inexact variant of DDP.
As a by-product, our analysis provides descriptions of the epsilon-subdifferential of the value function of a convex problem when the corresponding primal and dual problems are solved approximately.
The algorithm and convergence analysis can be extended to the stochastic case.
Maiores informações: www.mtm.ufsc.br/~maicon/seminar
Data – Hora: 01/12/2017 – 14h00m
Local: Sala 202 do Departamento de Matemática
E. Krukoski
Tags:
Análise ConvexaDual Dynamic ProgrammingotimizaçãoSeminários
Seminários em Análise Convexa e Otimização
Métodos mistos para problemas inversos em espaços de Banach
Fabio Margotti
Universidade Federal de Santa Catarina
Resumo:
Dia – Hora: Quinta-feira, 03 de novembro, 14h00min
Local: Sala 202 do Departamento de Matemática – UFSC
E. Krukoski
Tags:
Análise Convexaespaços de Banachotimização
Seminário em Análise Convexa e Otimização
Iteration-complexity of a proximal alternating direction method of multipliers (ADMM)
Max Leandro Nobre Gonçalves (IME-UFG)
Data – Hora: HOJE! 27/10/2016 – 14h00min
Local: Sala 202 do Departamento de Matemática – CFM/UFSC
LINK
E. Krukoski
Tags:
ADMMAnálise ConvexaIteration-complexityMatemáticaotimização
Seminários em Análise Convexa e Otimização
Convergência global de algoritmos de descida (Parte II)
Douglas S. Gonçalves
Universidade Federal de Santa Catarina
Resumo: Discutiremos os aspectos teóricos da convergência global de algoritmos de minimização baseados em direções de descida e busca linear. Além das condições clássicas de Armijo, proporcionalidade e ângulo, apresentaremos condições alternativas que asseguram a estacionariedade de pontos limite de sequências geradas por tais algoritmos.
A teoria apresentada aplica-se não apenas a algoritmos para minimização irrestrita mas também a algoritmos de minimização sobre um convexo como gradiente condicional e gradiente projetado.
Dia – Hora: 20/10/2016 – 14:00 horas
Local: Sala 202 do Departamento de Matemática
E. Krukoski
Tags:
algorítmosAnálise ConvexaArmijootimização
Seminário em Análise Convexa e Otimização
Convergência global de algoritmos de descida (Parte I)
Douglas S. Gonçalves
Universidade Federal de Santa Catarina
Resumo: Discutiremos os aspectos teóricos da convergência global de algoritmos de minimização baseados em direções de descida e busca linear.
Além das condições clássicas de Armijo, proporcionalidade e ângulo, apresentaremos condições alternativas que asseguram a estacionariedade de pontos limite de sequências geradas por tais algoritmos. A teoria apresentada aplica-se não apenas a algoritmos para minimização irrestrita
mas também a algoritmos de minimização sobre um convexo como gradiente condicional e gradiente projetado.
Dia – Hora: 06/10/2016 – 14:00 horas
Local: Sala 202 do Departamento de Matemática – UFSC
<Maiores detalhes aqui>
E. Krukoski
Tags:
algoritmos de minimizaçãoAnálise ConvexaArmijootimização
Seminários em Análise Convexa e Otimização
O Método das Inversas Parciais de Spingarn para Operadores Monótonos (Parte II)
Samara Costa Lima
Universidade Federal de Santa Catarina
Resumo: Sejam A e B dois subespaços multualmente complementares de um espaço de Hilbert H e T um operador monótono maximal em H. O método das inversas parciais, introduzido por J. Spingarn em 1983, é um método iterativo para encontrar x \in A e u \in B tais que u \in Tx. Neste seminário, será apresentado o método das inversas parciais bem como uma versão inexata deste método.
Data – Hora: Quinta-feira, 22 de setembro, 14h
Local: Sala 202, MTM
E. Krukoski
Tags:
Análise ConvexaHilbertInversas Parciais de SpingarnMétodoOperadores Monótonosotimizaçãosubespaços
Seminário em Análise Convexa e Otimização
O Método das Inversas Parciais de Spingarn para Operadores Monótonos (Parte I)
Samara Costa Lima – Doutoranda Pós-MTM/UFSC
Resumo: Sejam A e B dois subespaços multualmente complementares de um espaço de Hilbert H e T um operador monótono maximal em H. O método das inversas parciais, introduzido por J. Spingarn em 1983, é um método iterativo para encontrar x \in A e u \in B tais que u \in Tx. Neste seminário, será apresentado o método das inversas parciais bem como uma versão inexata deste método.
Data – Horário: 15 de setembro – 14:00 h
Local: Sala 202, MTM
E. Krukoski
Tags:
Análise Convexaespaço de HilbertInversas ParciaisMonótonosOperadoresotimizaçãoSpingarnsubespaços