alexandræ français english
trouvailles mathématiques
alphabet phonétique (étendu)
autres
unicode
alexandræ · j'ai enfin compris la diagonalisation mdr

j'ai enfin compris la diagonalisation mdr

5 mai 2023

    ça peut paraître surprenant, mais j'avais jamais vrmt compris la diagonalisation jusqu'à mtn. par contre, j'ai réalisé quelques trucs qui m'ont aidé a fortiori d'comprendre tout ç'procédé. déjà, j'ai dû comprendre, plus ou moins par moi-même, qu'les matrices c'est surtout des collections d'vecteurs sur plusieurs colonnes, comme (a1 ⋯ an), qu'le produit scalaire ⟨,⟩ aide à définir des applis linéaires, et qu'la multiplication matricielle · aide à récupérer les vecteurs parmi les matrices.

    pour les vecteurs, ⟨ax⟩ donne la coordonnée a de x, ç'qui signifie qu'toute façon d'écrire x par rapport à a a la forme x = ⋯ + ⟨ax⟩ a  + ⋯. un corollaire intéressant est que φa : x ↦ ⟨ax⟩ est une appli ℝn→ℝ linéaire !,  et pour laquelle les coefficients d'chaque xi est ai, donc a aide à encoder les coefficients d'l'appli linéaire. par exemple, 5x1+7x2−3x3 est juste (5, 7, 3), x.
    pour les matrices, φA : x ↦ ⟨Ax⟩ = (A1x⟩, ⋯, ⟨Am,  x) permet de définir des applis ℝn→ℝm linéaires, d'une manière très similaire. on pourrait aussi techniquement définir ⟨AB⟩ = (AB1⟩ ⋯ ⟨AB k) pour afficher k vecteurs d'im(φA).

    qd j'dis qu'la multiplication matricielle aide à récupérer des vecteurs parmi les matrices, c'est pck A·ei, où ei = (δi1, ⋯,δik), est défini comme Ai le ième vecteur colonne dans la matrice k×m A, puis on force un peu en distributivité sur une addition comme A·x = x1(A e1) + ⋯ + xk(A·ek), également semblable au produit scalaire , A·B = (A·B1 ⋯ A·B). l'observation qui initie un peu la motiv pour la diagonalisation et l'étude des espaces duaux c'est que ⟨AB⟩ = A·B, où A est la transposée de A. l'implication est qu'on peut étudier les formes linéaires avec cette opération qui extraie juste des vecteurs dans des matrices à la base, ç'qui ressemble un peu à l'interpolation dans le cas des polynômes.

    tout comme les polynômes, on veut qu'ils soient écrits d'sorte à expliquer les points d'intérêt. par exemple, on peut écrire des polynômes de dième degré comme P : x ↦ λ (xz0) ⋯ (xzd) avec chaque solution zi à P(zi) = 0, avec λ le coefficient directeur. les équivalents pour les matrices carrées d'ces racines sont des vecteurs propres, qui sont des vecteurs x tels que A·x est colinéaire à x (il y en a généralement une infinité, nous choisissons donc n vecteurs propres non colinéaires pour A une matrice n×n), et les coefficients principaux deviennent les valeurs propres associées (qui décrivent dans l'bon ordre par quel facteurs les vecteurs propres sont étirés), et l'écriture équivalente est donnée par... diagonalisation !

    en effet, dès qu'on a les vecteurs propres et leurs valeurs propres associées, A·(v1 ⋯ vn) est, par définition, (λ1v1 ⋯ λnv n). par contre, on a également d'la propriété de définition de distributivité que (v1 ⋯ vn)·λiei = λivi, donc en combinant les deux principales propriétés définissantes, on a (v1 ⋯ vn)·(λ1e1 ⋯ λnen) = (λnvn ⋯ λnvn)... dooonc, pareil que A·(v1 ⋯ vn). on vient d'montrer que A·(v1 ⋯ vn) = (v1 ⋯ vn)·(λ1e1 ⋯ λnen), ç'qui implique que A = (v1 ⋯ vn)·(λ1e1 ⋯ λnen)·(v1 ⋯ vn)-1 dès lors que (v1 ⋯ vn) est inversible. évidemment, y a beaucoup d'trucs intéressants qui en découlent, notamment pck les matrices diagonales sont vraiment faciles à manipuler : ses puissances sont les puissances des composantes de sa diagonale, son déterminant est leur produit conjoint, son inverse inverse juste les composantes de la diago, etc. et c'est pratiquement aussi utile que d'écrire un polynôme sous la forme P : x ↦ λ (xz0) ⋯ (xzd), ainsi qu'comment ça explicite des points d'intérêts d'la matrice carrée (racines et coefficients dominants pour les polynômes, vecteurs propres et valeurs propres pour les matrices).
les espaces Lp mesurent à quel poi...
des graphes de fonctions et d'ensem...
alexandræ
(ɔ) 2023 – 2024, intellectual property is a scam