Des articles

1.3 : Qu'est-ce qu'une matrice ? - Mathématiques


Les matrices sont des fonctions linéaires d'un certain type. Une façon de les connaître est d'étudier systèmes d'équations linéaires.

Exemple 4

Une pièce contient (x) sacs et (y) caisses de fruits :

Chaque sachet contient 2 pommes et 4 bananes et chaque boîte contient 6 pommes et 8 bananes. Il y a 20 pommes et 28 bananes dans la chambre. Trouvez (x) et (y).

Les valeurs sont les nombres (x) et (y) qui rendent simultanément vraies les deux équations suivantes :

egin{eqnarray*}
2, x + 6, y & = & 20
4, x + 8, y & = & 28, .
end{eqnarray*}

Ici, nous avons un exemple de ( extit{Système d'équations linéaires}). C'est une collection d'équations dans lesquelles les variables sont multipliées par des constantes et additionnées, et aucune variable n'est multipliée ensemble : il n'y a pas de puissances de variables supérieures à un (comme (x^2) ou (b^5)), puissances non entières ou négatives des variables (comme (y^{-1/2}) ou (a^{pi})), et aucun endroit où les variables sont multipliées ensemble (comme (ab) ou (xy)).


Les informations sur le contenu fruité de la pièce peuvent être stockées de deux manières :

  1. En termes de nombre de pommes et de bananes.
  2. En termes de nombre de sacs et de boîtes.

Intuitivement, connaître les informations sous une forme vous permet de comprendre les informations sous l'autre forme.

Passer de (ii) à (i) est simple :

Si vous saviez qu'il y avait 3 sacs et 2 boîtes, il serait facile de calculer le nombre de pommes et de bananes, et cela donnerait l'impression d'une multiplication (contenants multipliés par fruits par contenant). Dans l'exemple ci-dessus, nous devons aller dans l'autre sens, de (i) à (ii). Cela ressemble à l'opposé de la multiplication, ( extit{i.e.}), de la division. La notation matricielle indiquera clairement ce par quoi nous "divisons".

L'objectif du chapitre 2 est de résoudre efficacement des systèmes d'équations linéaires. En partie, il s'agit simplement de trouver une meilleure notation, mais qui laisse entrevoir une structure mathématique sous-jacente plus profonde. Pour cela, nous avons besoin de règles d'addition et de multiplication scalaire de 2-vecteurs :

[
cegin{pmatrix}x yend{pmatrix} :=egin{pmatrix}cx cyend{pmatrix} mbox{ et } egin{pmatrix}x yend{pmatrix} +egin{pmatrix}x' y'end{pmatrix} :=egin{pmatrix}x+x' y+y'end{pmatrix}.
]

En écrivant nos équations fruitées sous forme d'égalité entre 2 vecteurs, puis en utilisant ces règles, nous avons :

[left.egin{matrix}2x+6y=20 4x+8y=28end{matrix} ight} Leftrightarrow egin{pmatrix}2x+6y 4x+8yend{pmatrix } = egin{pmatrix}20 28end{pmatrix} Leftrightarrow xegin{pmatrix}2 4end{pmatrix} + yegin{pmatrix}6 8end{pmatrix} = egin{pmatrix}20 28end{pmatrix}.]

Maintenant, nous introduisons un opérateur qui prend 2-vecteurs et donne 2-vecteurs. Nous le désignons par un tableau de nombres appelé ( extit {matrice}).

La fonction (egin{pmatrix}2 & 6 4 & 8end{pmatrix}) est défini par (egin{pmatrix}2 & 6 4 & 8end{pmatrix} egin{pmatrix}x yend{pmatrix} := xegin{pmatrix}2 4end{pmatrix } + yegin{pmatrix}6 8end{pmatrix}).

Une définition similaire s'applique aux matrices avec des nombres et des tailles différents :

Exemple 5 : Une matrice plus grande

[
egin{pmatrix}1&0&3&4
5&0&3&4\
-1&6&2&5
end{pmatrice}
egin{pmatrix}xyzwend{pmatrix}
:= x
egin{pmatrix}15-1
end{pmatrice}
+y
egin{pmatrix}06
end{pmatrice}
+z
egin{pmatrix}332
end{pmatrice}
+wegin{pmatrix}445
end{pmatrice}, .
]

Considérée comme une machine qui entre et sort 2 vecteurs, notre matrice (2 imes2) fait ce qui suit :


(egin{pmatrix}xyend{pmatrix})(egin{pmatrix}2x+6y4x+8yend{pmatrix}).

Notre problème fruité est maintenant assez concis.

Exemple 6 : Cette fois en langage purement mathématique

Quel vecteur (egin{pmatrix}x yend{pmatrix}) satisfait

(
egin{pmatrix}
2 & 6 \
4 & 8
end{pmatrice}
egin{pmatrix}x yend{pmatrix}
= egin{pmatrix}20 28end{pmatrix}
)?

Solution

C'est de la même forme (Lv=w) que nos exemples d'ouverture. La matrice encode les fruits par conteneur. L'équation est à peu près le nombre de fruits par conteneur multiplié par le nombre de conteneurs. Pour résoudre les fruits, nous voulons « diviser » par la matrice.

Une autre façon de penser à l'exemple ci-dessus est de se souvenir de la règle de multiplication d'une matrice par un vecteur. Si vous l'avez oublié, vous pouvez en fait deviner une bonne règle en vous assurant que l'équation matricielle est la même que le système d'équations linéaires. Cela exigerait que
$$
egin{pmatrix}
2 & 6 \
4 & 8
end{pmatrice}
egin{pmatrix}x yend{pmatrix}
:= egin{pmatrix}2x+6y 4x+8yend{pmatrix}
]

En effet c'est un exemple de la règle générale que vous avez probablement déjà vu auparavant

[
egin{pmatrix}
p & q
r & s
end{pmatrice}
egin{pmatrix}x yend{pmatrix}
:=
egin{pmatrix}px+qy rx+syend{pmatrix}=xegin{pmatrix}p end{pmatrix} + yegin{pmatrix}qsend{pmatrix} .
]

Notez que la deuxième façon d'écrire la sortie du côté droit de cette équation est très utile car elle nous dit à quoi ressemblent toutes les sorties possibles d'une matrice multipliée par un vecteur - ce ne sont que des sommes des colonnes de la matrice multipliées par scalaires. L'ensemble de toutes les sorties possibles d'une matrice fois un vecteur est appelé le ( extit{espace colonne}) (c'est aussi l'image de la fonction linéaire définie par la matrice).

Une matrice est un exemple de ( extit{Fonction linéaire}), car elle prend un vecteur et le transforme en un autre de manière "linéaire". Bien sûr, nous pouvons avoir des matrices beaucoup plus grandes si notre système a plus variables.

Les matrices sont des fonctions linéaires. L'énoncé de ceci pour la matrice dans notre exemple fruité ressemble à

1. (egin{pmatrix}
2 &6 \
4 &8
end{pmatrice}
c egin{pmatrix}x yend{pmatrix}
=c egin{pmatrice}
2 &6 \
4 &8
end{pmatrice}
egin{pmatrix}a bend{pmatrix} et )

2. (egin{pmatrix}
2 &6 \
4 &8
end{pmatrice}
left[ egin{pmatrix}x yend{pmatrix} +egin{pmatrix}x' y'end{pmatrix} ight]
= egin{pmatrice}
2 &6 \
4 &8
end{pmatrice}
egin{pmatrix}x yend{pmatrix}
+
egin{pmatrix}
2 &6 \
4 &8
end{pmatrice}
egin{pmatrix}x' y'end{pmatrix}
)

Ces égalités peuvent déjà être vérifiées en utilisant uniquement les règles que nous avons introduites jusqu'à présent.

Exemple 7

Vérifiez que (egin{pmatrix}
2 &6 \
4 &8
end{pmatrix}) est un opérateur linéaire.

Homogénéité:

[egin{pmatrix}2&64&8end{pmatrix}left[cegin{pmatrix}aend{pmatrix} ight] = egin{pmatrix}2&64&8end{ pmatrix}egin{pmatrix}cacbend{pmatrix} = caegin{pmatrix}24end{pmatrix} + cbegin{pmatrix}68end{pmatrix} = begin{pmatrix}2ac4acend{pmatrix} + egin{pmatrix}6bc8bcend{pmatrix} = underline{egin{pmatrix}2ac+6bc4ac+8bcend{pmatrix} }.]

qui devrait (et donne) le même résultat que

[cegin{pmatrix}
2 &6 \
4 &8
end{pmatrice}
egin{pmatrix}a bend{pmatrix}
=
cleft[ a egin{pmatrix}2 4end{pmatrix}
+
b egin{pmatrix}6 8end{pmatrix} ight]
= cleft[egin{pmatrix}2a4aend{pmatrix}+egin{pmatrix}6b8bend{pmatrix} ight] = cegin{pmatrix}2a+6b4a +8bend{pmatrix} = underline{egin{pmatrix}2ac+6bc4ac+8bcend{pmatrix} }.]

Additivité :

$$egin{pmatrix}
2 &6 \
4 &8
end{pmatrice}
left[ egin{pmatrix}a bend{pmatrix} + egin{pmatrix}c dend{pmatrix} ight]
=
egin{pmatrix}
2 &6 \
4 &8
end{pmatrice}
egin{pmatrix}a +c b+dend{pmatrix}
=
(a+c) egin{pmatrix}2 4end{pmatrix}
+
(b+d) egin{pmatrix}6 8end{pmatrix}
=
egin{pmatrix}2(a+c) 4(a+c)end{pmatrix}
+
egin{pmatrix}6(b+d) 8(b+d)end{pmatrix}]

[ = underline{ egin{pmatrix}2a+2c +6b+6d 4a+4c+8b+8dend{pmatrix} }]

auquel nous devons comparer

[egin{pmatrix}
2 &6 \
4 &8
end{pmatrice}
egin{pmatrix}a bend{pmatrix}
+
egin{pmatrix}
2 &6 \
4 &8
end{pmatrice}
egin{pmatrix}c dend{pmatrix}
=
aegin{pmatrix}24end{pmatrix} + begin{pmatrix}6 8end{pmatrix} + cegin{pmatrix}24end{pmatrix} +d begin{pmatrix}68end{pmatrix} = egin{pmatrix}2a4aend{pmatrix} + egin{pmatrix}6b 8bend{pmatrix} + egin{pmatrix}2c 4cend{pmatrix} +egin{pmatrix}6d8dend{pmatrix}$$
$$ = underline{egin{pmatrix}2a+2c +6b+6d 4a+4c+8b+8dend{pmatrix} }.]

Nous avons bouclé la boucle; les matrices ne sont que des exemples des types d'opérateurs linéaires qui apparaissent dans les problèmes d'algèbre comme ceux de la section 1.2. Toute équation de la forme (Mv=w) avec (M) une matrice, et (v,w) (n)-vecteurs est appelée ( extit {équation matricielle}). Le chapitre 2 traite de la résolution efficace de systèmes d'équations linéaires ou, de manière équivalente, d'équations matricielles.


Conférence n°3 : Algorithme PageRank - Les mathématiques de la recherche Google

Nous vivons à l'ère de l'informatique. Internet fait partie de notre quotidien et l'information n'est qu'à un clic. Ouvrez simplement votre moteur de recherche préféré, comme Google, AltaVista, Yahoo, tapez les mots clés et le moteur de recherche affichera les pages pertinentes pour votre recherche. Mais comment fonctionne vraiment un moteur de recherche ?

À première vue, il semble raisonnable d'imaginer que ce qu'un moteur de recherche fait est de conserver un index de toutes les pages Web, et lorsqu'un utilisateur tape une requête de recherche, le moteur parcourt son index et compte les occurrences des mots clés dans chaque fichier Web. Les gagnants sont les pages avec le plus grand nombre d'occurrences des mots clés. Ceux-ci sont affichés à l'utilisateur.

C'était la bonne image au début des années 90, lorsque les premiers moteurs de recherche utilisaient systèmes de classement basés sur du texte pour décider quelles pages sont les plus pertinentes pour une requête donnée. Il y avait cependant un certain nombre de problèmes avec cette approche. Une recherche sur un terme commun tel que « Internet » était problématique. La première page affichée par l'un des premiers moteurs de recherche était écrite en chinois, avec des occurrences répétées du mot « Internet » et ne contenant aucune autre information sur Internet. De plus, supposons que nous voulions trouver des informations sur Cornell. Nous tapons le mot "Cornell" et attendons que "www.cornell.edu" soit le site le plus pertinent pour notre requête. Cependant, il peut y avoir des millions de pages sur le Web utilisant le monde Cornell, et www.cornell.edu n'est peut-être pas celui qui l'utilise le plus souvent. Supposons que nous décidions d'écrire un site Web qui contienne le mot « Cornell » un milliard de fois et rien d'autre. Serait-il alors logique que notre site web soit le premier affiché par un moteur de recherche ? La réponse est évidemment non. Cependant, si tout ce qu'un moteur de recherche fait est de compter les occurrences des mots donnés dans la requête, c'est exactement ce qui pourrait arriver.

L'utilité d'un moteur de recherche dépend de la pertinence du jeu de résultats qu'il restitue. Il peut bien sûr y avoir des millions de pages Web qui incluent un mot ou une phrase en particulier, mais certaines d'entre elles seront plus pertinentes, populaires ou faisant autorité que d'autres. Un utilisateur n'a pas la capacité ou la patience de parcourir toutes les pages contenant les mots de requête donnés. On s'attend à ce que les pages pertinentes soient affichées dans les 20 à 30 premières pages renvoyées par le moteur de recherche.

Les moteurs de recherche modernes utilisent des méthodes de classement des résultats pour fournir d'abord les "meilleurs" résultats qui sont plus élaborés que de simples classement de texte. L'un des algorithmes les plus connus et les plus influents pour calculer la pertinence des pages Web est l'algorithme Page Rank utilisé par le moteur de recherche Google. Il a été inventé par Larry Page et Sergey Brin alors qu'ils étaient étudiants diplômés à Stanford, et il est devenu une marque de commerce de Google en 1998. L'idée que Page Rank a évoquée était que l'importance de toute page Web peut être jugée en regardant les pages. ce lien vers celui-ci. Si nous créons une page Web i et incluons un lien hypertexte vers la page Web j , cela signifie que nous considérons j important et pertinent pour notre sujet. S'il y a beaucoup de pages qui renvoient vers j, cela signifie que la croyance commune est que la page j est important. Si par contre, j n'a qu'un seul backlink, mais qui vient d'un site faisant autorité k, (comme www.google.com, www.cnn.com, www.cornell.edu) nous disons que k transfère son autorité à j en d'autres termes, k affirme que j est important. Que nous parlions de popularité ou d'autorité, nous pouvons attribuer de manière itérative un rang à chaque page Web, en fonction des rangs des pages qui y pointent.

Pour ce faire, nous commençons par représenter le Web net comme un graphe orienté, avec des nœuds représentés par des pages Web et des arêtes représentées par des liens entre eux.

Supposons par exemple que nous ayons un petit Internet composé de seulement 4 sites Web www.page1.com, www.page2.com, www.page3.com, www.page4.com, se référençant de la manière suggérée par l'image :

Nous "traduisons" l'image en un graphe orienté avec 4 nœuds, un pour chaque site web. Lorsque le site Web i fait référence à j , nous ajoutons une arête dirigée entre le nœud i et le nœud j dans le graphe. Dans le but de calculer leur page rank, nous ignorons tous les liens de navigation tels que les boutons retour, suivant, car nous ne nous soucions que des connexions entre les différents sites Web. Par exemple, Page1 renvoie à toutes les autres pages, de sorte que le nœud 1 du graphique aura des bords sortants vers tous les autres nœuds. La page3 n'a qu'un seul lien, vers la page 1, donc le nœud 3 aura un bord sortant vers le nœud 1. Après avoir analysé chaque page Web, nous obtenons le graphique suivant :

Dans notre modèle, chaque page doit transférer uniformément son importance aux pages auxquelles elle renvoie. Le nœud 1 a 3 arêtes sortantes, il transmettra donc son importance à chacun des 3 autres nœuds. Le nœud 3 n'a qu'un seul front sortant, il transmettra donc toute son importance au nœud 1. En général, si un nœud a k fronts sortants, il transmettra son importance à chacun des nœuds auxquels il se connecte. Visualisons mieux le processus en attribuant des poids à chaque arête.

Notons A la matrice de transition du graphe, A = .

Supposons qu'initialement l'importance soit uniformément répartie entre les 4 nœuds, chacun obtenant ¼. Notons v le vecteur de rang initial, dont toutes les entrées sont égales à ¼. Chaque lien entrant augmente l'importance d'une page Web, donc à l'étape 1, nous mettons à jour le classement de chaque page en ajoutant à la valeur actuelle l'importance des liens entrants. Cela revient à multiplier la matrice A par v . A l'étape 1, le nouveau vecteur d'importance est v 1 = Moy. Nous pouvons itérer le processus, ainsi à l'étape 2, le vecteur d'importance mis à jour est v 2 = A(Av) = A 2 v . Les calculs numériques donnent :

On remarque que les suites d'itérations v , Av , . A k v tend vers la valeur d'équilibre v * = . Nous appelons cela le vecteur PageRank de notre graphique Web.

Notons x 1, X 2, X 3, et x 4 l'importance des quatre pages. En analysant la situation à chaque nœud, nous obtenons le système :

Cela équivaut à demander les solutions des équations. D'après l'exemple 6 de la leçon 1, nous savons que les vecteurs propres correspondant à la valeur propre 1 sont de la forme . Étant donné que le PageRank ne doit refléter que l'importance relative des nœuds et que les vecteurs propres ne sont que des multiples scalaires les uns des autres, nous pouvons choisir l'un d'entre eux comme vecteur de PageRank. Choisissez v * pour être le vecteur propre unique avec la somme de toutes les entrées égale à 1. (Nous l'appellerons parfois le vecteur propre probabiliste correspondant à la valeur propre 1). Le vecteur propre est notre vecteur PageRank.

Étant donné que l'importance d'une page Web est mesurée par sa popularité (combien de liens entrants elle contient), nous pouvons considérer l'importance de la page i comme la probabilité qu'un internaute aléatoire sur Internet ouvre un navigateur sur n'importe quelle page et commence à suivre des hyperliens. , visite la page i. Nous pouvons interpréter les poids que nous avons attribués aux bords du graphique de manière probabiliste : un internaute aléatoire qui consulte actuellement la page Web 2 a ½ probabilité d'aller à la page 3 et ½ probabilité d'aller à la page 4 Nous pouvons modéliser le processus comme une marche aléatoire sur des graphes. Chaque page a une probabilité égale ¼ d'être choisie comme point de départ. Ainsi, la distribution de probabilité initiale est donnée par le vecteur colonne [¼ ¼ ¼ ¼] t . La probabilité que la page i soit visitée après une étape est égale à Ax , et ainsi de suite. La probabilité que la page i soit visitée après k étapes est égale à A k x . La séquence Ax , A 2 x , A 3 x , . A k x , . converge dans ce cas vers un unique vecteur probabiliste v * . Dans ce contexte, v * est appelé la distribution stationnaire et ce sera notre vecteur Page Rank. De plus, la i ème entrée dans le vecteur v * est simplement la probabilité qu'à chaque instant un internaute aléatoire visite la page i . Les calculs sont identiques à ceux que nous avons faits dans l'interprétation des systèmes dynamiques, seul le sens que nous attribuons à chaque étape étant légèrement différent.

Le vecteur Page Rank v * que nous avons calculé par différentes méthodes, indique que la page 1 est la page la plus pertinente. Cela peut paraître surprenant puisque la page 1 a 2 backlinks, tandis que la page 3 a 3 backlinks. Si nous regardons le graphique, nous voyons que le nœud 3 n'a qu'un seul bord sortant vers le nœud 1, il transfère donc toute son importance au nœud 1. De manière équivalente, une fois qu'un internaute qui ne suit que des hyperliens visite la page 3, il ne peut que allez à la page 1. Notez également comment le rang de chaque page n'est pas trivialement simplement la somme pondérée des bords qui entrent dans le nœud. Intuitivement, à l'étape 1, un nœud reçoit un vote d'importance de ses voisins directs, à l'étape 2 des voisins de ses voisins, et ainsi de suite.

La modification du graphique Web peut entraîner certains problèmes.

On calcule itérativement le rang des 3 pages :

Donc, dans ce cas, le rang de chaque page est 0. C'est contre-intuitif, car la page 3 a 2 liens entrants, elle doit donc avoir une certaine importance !

Une solution simple à ce problème serait de remplacer la colonne correspondant au nœud suspendu 3 par un vecteur de colonne avec toutes les entrées 1/3. De cette façon, l'importance du nœud 3 serait également redistribuée entre les autres nœuds du graphe, au lieu d'être perdue.

Un internaute aléatoire qui commence dans le premier composant connecté n'a aucun moyen d'accéder à la page Web 5 puisque les nœuds 1 et 2 n'ont aucun lien vers le nœud 5 qu'il peut suivre. L'algèbre linéaire n'aide pas non plus. La matrice de transition pour ce graphique est . Notez que ce sont tous deux des vecteurs propres correspondant à la valeur propre 1, et ils ne sont pas simplement trivialement l'un le multiple scalaire de l'autre. Ainsi, tant en théorie qu'en pratique, la notation des pages de classement du premier composant connecté par rapport à celles du deuxième composant connecté est ambiguë.

Le web est très hétérogène par nature, et certainement énorme, donc on ne s'attend pas à ce que son graphe soit connecté. De même, il y aura des pages qui sont purement descriptives et ne contiennent aucun lien sortant. Que faire dans ce cas ? Nous avons besoin d'une signification non ambiguë du rang d'une page, pour tout graphe Web orienté à n nœuds.

Afin de surmonter ces problèmes, fixez une constante p positive entre 0 et 1, que nous appelons le facteur d'amortissement (une valeur typique de p est de 0,15). Définissez la matrice Page Rank (également appelée matrice Google) du graphique par où .

La matrice M modélise le modèle surfeur aléatoire de la manière suivante : la plupart du temps, un surfeur suivra les liens d'une page : à partir d'une page i le surfeur suivra les liens sortants et se dirigera vers l'un des voisins de i . Un pourcentage plus petit, mais positif du temps, l'internaute videra la page actuelle et choisira arbitrairement une page différente du Web et se "téléportera" là-bas. Le facteur d'amortissement p reflète la probabilité que l'internaute quitte la page en cours et se « téléporte » vers une nouvelle. Puisqu'il peut se téléporter sur n'importe quelle page Web, chaque page a la probabilité d'être choisie. Ceci justifie la structure de la matrice B .

Intuitivement, la matrice M "connecte" le graphe et se débarrasse des nœuds pendants. Un nœud sans arêtes sortantes a maintenant la probabilité de se déplacer vers n'importe quel autre nœud. Rigoureusement, pour la matrice M , les théorèmes suivants s'appliquent :

  1. 1 est une valeur propre de multiplicité un.
  2. 1 est la plus grande valeur propre : toutes les autres valeurs propres ont une valeur absolue inférieure à 1.
  3. les vecteurs propres correspondant à la valeur propre 1 n'ont soit que des entrées positives, soit que des entrées négatives. En particulier, pour la valeur propre 1 il existe un vecteur propre unique avec la somme de ses entrées égale à 1.

Au vu de tout ce qui précède, nous concluons que :

Du point de vue mathématique, une fois que nous avons M , le calcul des vecteurs propres correspondant à la valeur propre 1 est, au moins en théorie, une tâche simple. Comme dans la leçon 1, il suffit de résoudre le système Ax = x ! Mais lorsque la matrice M a une taille de 30 milliards (comme pour le vrai graphe Web), même les logiciels mathématiques tels que Matlab ou Mathematica sont clairement débordés.

Une autre façon de calculer le vecteur propre probabiliste correspondant à la valeur propre 1 est donnée par la méthode de la puissance. Le théorème garantit que la méthode fonctionne pour des matrices stochastiques à colonnes positives. Nous avons pensé que le processus d'itération correspond à la façon dont l'importance se répartit sur le net suivant la structure des liens (Rappelons le modèle du surfeur aléatoire). D'un point de vue informatique, il est beaucoup plus facile, à partir du vecteur avec toutes les entrées 1, de multiplier x , M x . M n x jusqu'à convergence puis il s'agit de calculer les vecteurs propres de M . En fait, dans ce cas, il suffit de calculer les deux premiers itérations pour obtenir une bonne approximation du vecteur PageRank. Pour une matrice aléatoire, la méthode de la puissance est en général connue pour être lente à converger. Ce qui le rend rapide dans ce cas cependant, c'est le fait que le graphique Web est clairsemé. Cela signifie qu'un nœud i a un petit nombre de liens sortants (quelques centaines au mieux, ce qui est extrêmement petit correspondant aux 30 milliards de nœuds auxquels il pourrait théoriquement se lier). Par conséquent, la matrice de transition A a beaucoup d'entrées égales à 0.


Qu'est-ce qu'une matrice ?

Avant de plonger dans le domaine des matrices simplificatrices, la première question se pose : qu'est-ce qu'une matrice ?

La matrice est définie comme un tableau rectangulaire de nombres ou d'expressions disposés en lignes et en colonnes en mathématiques. Les opérations matricielles sont utilisées pour traiter des équations linéaires appelées système d'équations linéaires.

Par exemple, considérons une équation (1) qui est donnée ci-dessous :

Il a une infinité de solutions, et il forme une ligne droite. Mais si l'on considère une autre équation (2) qui est donnée par :

Maintenant, résoudre les deux équations simultanément ne donne qu'une seule solution pour x et y qui est le point :

Il peut également être considéré comme le point où les deux équations se croisent.

Les deux équations peuvent être représentées à l'aide d'une notation matricielle. La notation matricielle pour le système d'équation linéaire ci-dessus sera une matrice 2 x 2 donnée comme

où la ligne 1 de la matrice mentionnée ci-dessus représente l'équation (1) et la ligne 2 représente l'équation (2). Par conséquent, les opérations matricielles peuvent être utilisées pour simplifier les matrices d'équations complexes.


Motivation pour l'élimination gaussienne

L'élimination gaussienne est un moyen de résoudre un système d'équations de manière méthodique et prévisible à l'aide de matrices.

Regardons un exemple de système et résolvons-le en utilisant l'élimination.

Nous ne besoin d'algèbre linéaire pour résoudre ce problème, évidemment. Zut, nous pouvons le résoudre en un coup d'œil. La réponse est bien évidemment X = oui = 1. Mais les choses deviennent exponentiellement plus difficiles avec le plus d'inconnues et d'équations que nous avons.

Nous pouvons stocker toutes ces informations dans une matrice et deux vecteurs, une matrice qui stocke tous nos coefficients UNE, un vecteur d'inconnues X et nos réponses b.

Si nous multiplions cela, nous obtenons le même système d'équations. Plus important encore, nous pouvons réellement nous débarrasser du vecteur x et y lors de l'élimination, car il ne fournit aucune information. Nous connaître que le système est 2 x 2, et a donc deux inconnues.

Ainsi, nous pouvons créer un augmenté matrice de UNE et b.

Nous pouvons lire ce qui précède comme deux équations : 1x + 1y = 2, et 2x + 1y = 3 (si vous imaginez le X et oui vecteur étant toujours là - ou, plus facile, imaginez simplement l'inconnu correspondant assis à côté de chaque coefficient.

Nous pouvons effectuer l'élimination sous cette forme matricielle de la même manière. Ce que nous voulons faire est de transformer la matrice de coefficients A en U — ce que nous appelons le triangulaire supérieur.


Pourquoi trouver le rang ?

Le rang nous en dit long sur la matrice.

Il est utile pour nous faire savoir si nous avons une chance de résoudre un système d'équations linéaires : lorsque le rang est égal au nombre de variables, nous pouvons être en mesure de trouver une solution unique.

Exemple : pommes et bananes

Ensuite, nous pouvons comprendre que la pomme supplémentaire doit coûter 2 $, et donc les bananes coûtent 1 $ chacune.

(Il y a 2 variables et le rang est également 2.)

Nous ne pouvons pas aller plus loin car la deuxième ligne de données n'est que le double de la première et ne nous donne aucune nouvelle information. (Il y a 2 variables et le rang n'est que de 1.)

Il a également des utilisations dans la communication, la stabilité des systèmes et plus encore.


Opérations matricielles

Une addition

La somme de deux matrices, UNE et B, s'effectue en ajoutant ou en soustrayant l'élément d'une matrice avec l'élément correspondant d'une autre matrice. Ces opérations ne peuvent être effectuées que sur des matrices de dimension identique.

Multiplication scalaire

Multiplication d'une matrice par un scalaire, c, multiplie chaque élément de la matrice par le scalaire.

Multiplication matricielle

La multiplication matricielle consiste à calculer le produit scalaire de la ligne d'une matrice, UNE, avec la colonne d'une autre matrice, B. La multiplication matricielle n'est définie que si le nombre de colonnes de UNE, noté n, est égal au nombre de lignes de B, noté m. Leur produit est alors la matrice m &fois n, C. La multiplication matricielle implique certaines propriétés mathématiques. Premièrement, il est associatif en d'autres termes, (UNE &fois B) &fois C = UNE &fois (B &fois C). De plus, la multiplication matricielle n'est pas commutative en d'autres termes, UNE &fois B =/= B &fois UNE

Opérations sur les lignes

Il existe trois types d'opérations élémentaires sur les lignes qui sont utilisées pour transformer une matrice :

(mathrm_+k mathrm_ ightarrow mathrm_)


Types de matrices

Il existe plusieurs types de matrices, mais les plus couramment utilisées sont :

Matrice de lignes :
Une matrice est dite matrice de lignes si elle n'a qu'une seule ligne.

Matrice de colonnes :
Une matrice est dite matrice de colonnes si elle n'a qu'une seule colonne.

Matrice rectangulaire :
Une matrice est dite rectangulaire si le nombre de lignes n'est pas égal au nombre de colonnes.

Matrice Carrée:
Une matrice est dite carrée si le nombre de lignes est égal au nombre de colonnes.

Matrice diagonale:
Une matrice carrée est dite diagonale si au moins un élément de la diagonale principale est non nul et que tous les autres éléments sont nuls.

Matrice scalaire :
Une matrice diagonale est dite scalaire si tous ses éléments diagonaux sont les mêmes.

Matrice d'identité ou d'unité :
Une matrice diagonale est dite identité si tous ses éléments diagonaux sont égaux à un, noté $I$.

Matrice triangulaire :
Une matrice carrée est dite triangulaire si tous ses éléments au-dessus de la diagonale principale sont nuls (matrice triangulaire inférieure) ou tous ses éléments en dessous de la diagonale principale sont nuls (matrice triangulaire supérieure).

Matrice nulle ou nulle :
Une matrice est dite nulle ou nulle si tous ses éléments sont égaux à zéro. Il est noté $O$.

Transposition d'une matrice :
Supposons que $A$ soit une matrice donnée, alors la matrice obtenue en intervertissant ses lignes en colonnes est appelée la transposée de $A$. Il est noté $$.


Résumé du chapitre 10

On considère trois ensembles de matrices unitaires S (i) celui de matrices symétriques unitaires S invariantes sous les transformations SW SW, appelé ensemble orthogonal (circulaire) (ii) celui des matrices unitaires S invariant sous les transformations SUSV, connu sous le nom d'ensemble unitaire (circulaire) et (iii) celui des matrices unitaires autoduales S invariant sous les transformations SW R SW, connu sous le nom d'ensemble symplectique (circulaire). Ici W, U et V sont des matrices unitaires, W T est la transposition de W, et W R est le double de W.

La densité de probabilité conjointe des valeurs propres exp(jeθj), j = 1, …,N, se trouve être

où β=1 pour l'orthogonal, β=2 pour l'unitaire et β=4 pour l'ensemble symplectique (circulaire).


Quaternions doubles

En un mot, Double-Quaternion est un beau concept mathématique. Il combine la théorie des nombres doubles avec les mathématiques des quaternions. Un quaternion fournit un rotation représentation autour d'un axe, mais il ne fournit aucune représentation de translation. UNE Double-Quaternion nous permet de représenter la rotation et la translation d'un vecteur en une seule entité.

Au lieu d'utiliser une matrice 4x4 pour faire pivoter et translater un vecteur, tout ce dont nous avons besoin est un Double-Quaternion. UNE Double-Quaternion se compose de deux quaternions appelés : Quaternion réel et Quaternion double. le Quaternion réel représente rotation, tandis que Quaternion double représente Traduction.


Voir la vidéo: Talousmatematiikka - esimerkkitehtävät - matriisit 150414 (Décembre 2021).