Utilizza questo identificativo per citare o creare un link a questo documento:
https://hdl.handle.net/1889/5584
Titolo: | Learning Variational Models via Bilevel Optimization and Unfolded Algorithms |
Autori: | Pezzi, Danilo |
Data: | 2024 |
Editore: | Università degli Studi di Parma. Dipartimento di Scienze Matematiche, fisiche e informatiche |
Document Type: | Doctoral thesis |
Abstract: | I modelli variazionali rappresentano uno degli strumenti classici per risolvere problemi inversi lineari in vari contesti. In contrasto con altri metodologie più moderne, essi poggiano basi teoriche che sono state studiate per decenni. La maggior interpretabili che offrono, combinata con una minor richiesta in termini di risorse computazionali fa si che lo studi di questi metodi sia ancora rilevante al giorno d'oggi. In questo lavoro, per migliorare la performance di questi modelli, ci soffermiamo sui metodi di selezione dei loro parametri. È ben noto che i funzionali che costituiscono i modelli variazionali dipendono da uno o più parametri di cui però non si hanno regole precise su come sceglierli in modo efficace. Prendendo spunto da tecniche nell'ambito dell'apprendimento automatico, andiamo ad imparare i modelli variazioni con lo scopo di trovare in modo automatico una configurazione soddisfacente di parametri. In questo lavoro proponiamo un algoritmo di ottimizzazione di tipo forward-backward, di cui dimostriamo la convergenza ad un punto stazionario di un problema di ottimizzazione bilivello per l'apprendimento di un modello variazionale. Gli esperimenti numerici mostrano che l'algoritmo riesce a raggiungere una buona soluzione in poco tempo. Per aggirare alcuni limiti di questo approccio, modifichiamo il problema inferiore inserendo, invece che una minimizzazione completa, l'unfolding di un metodo di ottimizzazione iterativo. Il numero di iterazioni che compie tale metodo è fissato a priori. L'apprendimento di questo algoritmo "srotolato" mira a trovare la migliore configurazione di parametri (anche quelli dell'algoritmo stesso!) per sfruttare al meglio le iterazioni concesse. Abbiamo testato queste idee su diversi problemi di ricostruzione di immagini, con buoni risultati, soprattutto in confronto con altri metodi di tipo deep. Variational models are a classical tool to solve inverse problems in a multitude of contexts. In contrast to other modern methodologies, they lay their foundations on an established theoretical background. The advantage offered by their interpretability, combined with a less intense requirement in terms of computational resources makes the study and use of them still relevant to this day. To improve the performance of these models, we address one of their main weaknesses: parameters selection. These models are defined through an energy function which itself is characterized by one or more variables. The absence of broad rules to set these variables often leads to a tedious, and perhaps time consuming, empirical search for a good configuration. Borrowing ideas from the machine learning realm to automate this process, we effectively train the energy functional with the goal of finding a more than satisfying parameter setup. We study a general formulation of a bilevel optimization problem to carry out this task in a variety of imaging applications. In detail, we develop an iterative general purpose inexact forward-backward algorithm which is able to converge to a stationary point of the bilevel problem. The experiments show that the algorithm is able to find more than valid solutions in a small amount of time. Although these results are promising, there are still limitations to the approach. To circumvent some of these, we also relax the lower level minimization problem by replacing it with the unfolding of an iterative optimization algorithm. The number of iterations that the chosen scheme performs is fixed a priori, so that the whole lower level resembles a very basic neural network. The training of this algorithm unfolding then aims at finding the best parameters (including some of the optimization algorithm itself!) to make the most out of the given iterations. We tested these ideas on different imaging problems, with surprising results, especially when compared to deep learning methods. |
È visualizzato nelle collezioni: | Matematica. Tesi di dottorato |
File in questo documento:
File | Descrizione | Dimensioni | Formato | |
---|---|---|---|---|
Tesi_Dottorato_Danilo_Pezzi.pdf Until 2026-04-01 | 69.35 MB | Adobe PDF | Visualizza/apri Request a copy |
Questo documento è distribuito in accordo con Licenza Creative Commons