Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
Prochaine révisionLes deux révisions suivantes
mega:start [2018/02/16 11:20] – Mise en page malemega:start [2018/03/27 10:22] Laure DUMAZ
Ligne 17: Ligne 17:
  
 {{ :mega:20141121_153039.jpg?400 |}} {{ :mega:20141121_153039.jpg?400 |}}
 +===== Prochaine séance =====
 +
 +* Vendredi **6 avril**
 +         * 10h30-12h00: mini cours par **[[http://www.proba.jussieu.fr/dw/doku.php?id=users:benhamou:index|Anna Ben Hamou]]** //Temps de mélange de marches aléatoires sur des graphes aléatoires\\ //Dans ce mini-cours, nous commencerons par rappeler la notion de temps de mélange d’une chaîne de Markov et introduirons le phénomène de cutoff, qui décrit une convergence très abrupte à l’équilibre: la distance (en variation totale) entre la loi de la chaîne et la probabilité stationnaire reste très proche de 1 jusqu’au temps de mélange puis chute abruptement de 1 à 0 en un temps bien plus petit, appelé la fenêtre du cutoff. Etablir le cutoff pour une chaîne donnée requiert souvent une analyse extrêmement fine de la chaîne, et il existe assez peu de résultats généraux permettant par exemple d’exhiber des grandes classes de graphes sur lesquels la marche aléatoire présente le cutoff. On peut alors se demander ce qu’il se passe sur un graphe « typique ». Nous considérerons d’abord le cas des graphes aléatoires réguliers, puis le cas plus général des graphes aléatoires à suite de degrés prescrits, et montrerons qu’avec forte probabilité, la marche aléatoires sur de tels graphes présente le phénomène de cutoff. Nous décrirons précisément son temps de mélange, ainsi la fenêtre de cutoff.\\
 +         * 14h00-15h15:  **[[https://www.ceremade.dauphine.fr/~labbe/|Cyril Labbé]]** //Localisation de l'hamiltonien d’Anderson en dimension 1\\ //On considère l’opérateur obtenu en perturbant le Laplacien par un bruit blanc, sur un segment de taille L. Cet opérateur, appelé hamiltonien d’Anderson, est la limite d’échelle de modèles simples de matrices aléatoires, et joue un rôle important dans l’étude du modèle d’Anderson parabolique. Dans ce travail, nous nous intéressons au comportement asymptotique (quand L tend vers l’infini) du bord du spectre de cet opérateur. Nous obtenons la convergence des plus petites valeurs propres vers un processus de Poisson ponctuel d’intensité explicite et établissons un phénomène de localisation des vecteurs propres correspondants. Travail en collaboration avec Laure Dumaz (Dauphine).\\
 +         * 15h15-16h30: **[[http://www.scoste.fr/|Simon Coste]]** //Le théorème de la deuxième valeur propre d'Alon-Friedman\\ //Dans cet exposé, on s'intéressera au spectre de grands graphes aléatoires d-réguliers. Lorsque la taille d'un tel graphe G tend vers l'infini, le graphe converge vers l'arbre infini d-régulier T et la mesure spectrale de G converge vers celle de T, qui est connue : c'est la loi de Kesten-McKay, supportée par l'intervalle [-2sqrt(d-1), +2sqrt(d-1)]. Cependant, cette convergence est globale et n'apporte pas d'informations sur le comportement de certaines valeurs propres particulières de G. En particulier, la deuxième valeur propre est d'importance capitale puisqu'elle gouverne la vitesse de convergence de la marche aléatoire simple sur G vers sa loi stationnaire. La borne classique d'Alon-Boppana dit que cette deuxième valeur propre est plus grande que 2sqrt(d-1) ; cependant, en 1986, Alon a conjecturé que la plupart des graphes d-réguliers avaient une deuxième valeur propre très proche de cette borne 2sqrt (d-1). Cette conjecture s'est révélée très difficile et ne fut démontrée qu'en 2005. On présentera ce résultat ainsi qu'une généralisation à des graphes non-réguliers dirigés.\\
 +
 ===== Exposés 2017-2018 ===== ===== Exposés 2017-2018 =====
  
Ligne 26: Ligne 33:
          * 10h30-12h00: mini cours par **[[http://www.camillemale.com|Camille Male]]** sur les méthodes non commutatives en matrices aléatoires          * 10h30-12h00: mini cours par **[[http://www.camillemale.com|Camille Male]]** sur les méthodes non commutatives en matrices aléatoires
          * 14h30-15h45:  **[[https://sites.google.com/site/torbenkruegermath/|Torben Krüger]]** //Random matrices with slow correlation decay \\ //           * 14h30-15h45:  **[[https://sites.google.com/site/torbenkruegermath/|Torben Krüger]]** //Random matrices with slow correlation decay \\ // 
- 
          * 15h45-17h00:  **[[http://www.iecl.univ-lorraine.fr/~Jeremie.Unterberger/|Jérémie Unterberger]]** //Global fluctuations for 1D log-gas dynamics\\ //           * 15h45-17h00:  **[[http://www.iecl.univ-lorraine.fr/~Jeremie.Unterberger/|Jérémie Unterberger]]** //Global fluctuations for 1D log-gas dynamics\\ // 
  
Ligne 35: Ligne 41:
  
 * Vendredi **16 mars**  * Vendredi **16 mars** 
-         * 10h30-12h00: mini cours par **[[http://www.proba.jussieu.fr/pageperso/levy/|Thierry Lévy]]** +         * 10h30-12h00: mini cours par **[[http://www.proba.jussieu.fr/pageperso/levy/|Thierry Lévy]]**// Progrès récents autour de la mesure de Yang-Mills en deux dimensions \\ //  
-         * 14h00-15h00:  **[[http://www.math.ku.dk/~mikosch/|Thomas Mikosch]]** //The largest eigenvalues of the sample covariance matrix in the heavy-tail case\\ //Heavy tails of a time series are typically modeled by power law tails with a positive tail index $\alpha$. We refer to such time series as regularly varying with index $\alpha$. Regular variation of a time series translates into power law tail behavior of the partial sums of the time series above high threshold. This was observed early on in work by A.V. Nagaev (1969) and S.V. Nagaev (1979) who considered sums of iid regularly varying random variables. These results are referred to as heavy-tail or Nagaev-type large deviations. The goal of this lecture is to argue that heavy-tail large deviations are useful tools when dealing with the eigenvalues of the sample covariance matrix of dimension $p\times n$ when $p\to\infty$ as $n\to\infty$ in those cases when one can identify the dominating entries in this matrix. These are the diagonal entries in the iid and some other cases. A similar argument allows one to identify the dominating entries if the time series has a linear dependence structure with regularly varying noise. These techniques are an alternative approach to earlier results by Soshnikov (2004,2006), Auffinger, Ben Arous, Peche (2009), Belinschi, Dembo, Guionnet (2009). They also allow one to deal with certain classes of matrices with dependent heavy-tailed entries. This is joint work with Richard A. Davis (Columbia) and Johannes Heiny (Aarhus). +         * 14h00-15h00:  **[[http://www.math.ku.dk/~mikosch/|Thomas Mikosch]]** //The largest eigenvalues of the sample covariance matrix in the heavy-tail case\\ // 
- +         * 15h30-16h30:  **[[http://umr-math.univ-mlv.fr/membres/tian.peng|Peng Tian]]** //Large Random Matrices of Long Memory Stationary Processes: Asymptotics and fluctuations of the largest eigenvalue \\ //
-         * 15h30-16h30:  **[[http://umr-math.univ-mlv.fr/membres/tian.peng|Peng Tian]]** //Large Random Matrices of Long Memory Stationary Processes: Asymptotics and fluctuations of the largest eigenvalue \\ //Given $n$ i.i.d. samples $(\boldsymbol{\vec x}_1, \cdots, \boldsymbol{\vec x}_n)$ of a $N$-dimensional long memory stationary process, it has recently been proved that the limiting spectral distribution of the sample covariance matrix, $$\frac 1n \sum_{i=1}^n \boldsymbol{\vec x}_i \boldsymbol{\vec x}^*_i$$ has an unbounded support as $N,n\to \infty$ and $\frac Nn\to c\in (0,\infty)$. As a consequence, its largest eigenvalue  $$\lambda_{\max} \left( \frac 1n \sum_{i=1}^n \boldsymbol{\vec x}_i \boldsymbol{\vec x}^*_i\right)$$  tends to $+\infty$. In this talk, we will describe its asymptotics and fluctuations, tightly related to the features of the underlying population covariance matrix, which is of a Toeplitz nature. This is a joint work with Florence Merlevède and Jamal Najim.+
  
 * Vendredi **6 avril** * Vendredi **6 avril**
-         * 10h30-12h00: mini cours par **[[http://www.proba.jussieu.fr/dw/doku.php?id=users:benhamou:index|Anna Ben Hamou]]** +         * 10h30-12h00: mini cours par **[[http://www.proba.jussieu.fr/dw/doku.php?id=users:benhamou:index|Anna Ben Hamou]]** //Temps de mélange de marches aléatoires sur des graphes aléatoires\\ // 
-         14h30-15h45:  **[[https://www.ceremade.dauphine.fr/~labbe/|Cyril Labbé]]** // \\ //+         14h00-15h15:  **[[https://www.ceremade.dauphine.fr/~labbe/|Cyril Labbé]]** //Localisation de l'hamiltonien d’Anderson en dimension 1\\ // 
 +         * 15h15-16h30: **[[http://www.scoste.fr/|Simon Coste]]** //Le théorème de la deuxième valeur propre d'Alon-Friedman \\ //
  
 * Vendredi **11 mai** * Vendredi **11 mai**
          * 10h30-12h00: mini cours par **[[http://google.com/search?q=Maxime+Février+Maths|Maxime Février]]**          * 10h30-12h00: mini cours par **[[http://google.com/search?q=Maxime+Février+Maths|Maxime Février]]**
 +         * 14h00-15h00: **[[http://www.maths.qmul.ac.uk/~boris/|Boris Khoruzhenko]]** // \\ //
 +         * 15h30-16h30: **[[https://www.lpsm.paris//pageperso/youssef/|Pierre Youssef]]** // \\ //
  
 * Vendredi **8 juin** * Vendredi **8 juin**
  • mega/start.txt
  • Dernière modification : 2024/04/07 19:08
  • de Raphaël BUTEZ