Finishing Matrix and Relations
This commit is contained in:
		| @ -29,7 +29,8 @@ | ||||
|     - [Les Matrices](./math/all/matrix.md) | ||||
| - [Math Discrète](./math/disc/index.md) | ||||
|     - [Initiation à la théorie des graphe](./math/disc/graph.md) | ||||
|     - [Mathématique modulaire](./math/disc/mod.md) | ||||
|     - [Nombres Premiers](./math/disc/prime.md) | ||||
|     - [Les Relations](./math/disc/relations.md) | ||||
| # Physique générale I | ||||
| - [Mecanique](./phys/meca/index.md) | ||||
| 	- [Chapitre 1](./phys/meca/chap1.md) | ||||
|  | ||||
| @ -9,8 +9,8 @@ | ||||
| - Soit \\(V \subseteq \mathbb{R} ^n\\) | ||||
|     - On dit que V est un **Sous-Ensemble Vectoriel** de \\(\mathbb{R}^n\\) ssi | ||||
|         1) \\(V \neq \emptyset \\) | ||||
|         2) \\(\forall v_1 \in V \quad \forall v_2 \in V v_1 + v_2 \in V \\) | ||||
|         3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \lambda * v \in V \\) | ||||
|         2) \\(\forall v_1 \in V \quad \forall v_2 \in V \quad v_1 + v_2 \in V \\) | ||||
|         3) \\(\forall \lambda \in \mathbb{R} \quad \forall v \in V \quad \lambda v \in V \\) | ||||
|  | ||||
| On peut voir par example que pour \\(\mathbb{R}^3\\) nous avons comme sous-ensemble vectoriel (SEV): | ||||
| - \\(\\{(0,0)\\}\\) (L'origine du plan) | ||||
| @ -50,9 +50,29 @@ Il pourrait alors y avoir plusieurs combinaisons différentes pour la même solu | ||||
|  | ||||
| ## Dépendance linéaire | ||||
|  | ||||
| Qu'est ce que des vecteur linéairement dépendants ? | ||||
|  | ||||
| - Soient \\(v_1 ... v_k \in \mathbb{R}^n\\) | ||||
|     - On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement dépendant** | ||||
|         - SSI \\(\exists \lambda_1, ..., \lambda_k \in \mathbb{R}\\) **non-tous nuls** | ||||
|             - tel que \\(\lambda_1 v_1 + ... + \lambda_k v_k = \vec{0}\\) | ||||
|                 - C'est un ensemble de vecteurs tel que le vecteurs nul en est leurs combinaison linéaire (ou les facteurs sont différents de tous 0) | ||||
|     - On dit que les vecteurs \\(v_1 ... v_k\\) sont **linéairement indépendant** | ||||
|         - SSI \\( \forall \lambda_1, ..., \lambda_k \in \mathbb{R} \displaystyle\sum_{i=1}^{k} \lambda_i vi = 0 \implies \lambda_1 = ... = \lambda_k = 0 \\)  | ||||
|             - La seule combinaison linéaire pour obtenir le vecteur nul est de multiplier tout les vecteurs par 0 | ||||
|  | ||||
| Mais en général ca ne nous intéresse pas | ||||
| Un ensemble de vecteurs linérairement indépendant est appelé une **Partie ou famille libre ** | ||||
|  | ||||
| ## Base | ||||
|  | ||||
| - Soit \\( V \subseteq \mathbb{R}^n \\) un SEV | ||||
|     - Soient \\( v_1, ..., v_k \in V \\)  | ||||
|         - On dit que \\( \\{ v_1, ..., v_k \\}\\) est une **base de V** ssi, et | ||||
|             - \\( \\{ v_1, ..., v_k \\}\\) est une **famille libre** | ||||
|             - \\( \\{ v_1, ..., v_k \\}\\) est une **famille génératrice de V** | ||||
|     - B_1 et B_2 des bases de V: | ||||
|         - \\( |B_1| = |B_2| \\)  | ||||
|  | ||||
| > Peut être à ajouter: Déf 17 TODO | ||||
|  | ||||
|          | ||||
|  | ||||
| @ -173,3 +173,29 @@ On choisit ensuite une ligne a déveloper, au plus il y a de zeros au mieux c'es | ||||
|     - Si on développe la ie Ligne | ||||
|         - \\( \forall 1 \leq i \leq n \quad \det A = \displaystyle\sum_{j=n}^n a_{ij} * C_{ij} \\)  | ||||
|  | ||||
| #### Inverse d'une matrice | ||||
|  | ||||
| Sachant que l'inverse d'un réel \\( x \\) est \\( x^{-1}  \\) tel que \\( x * x^{-1} = 1\\)  | ||||
|  | ||||
| On peut étendre cette définition aux matrice pour que \\( A * A^{-1} * A = \mathbb{I}  \\)  | ||||
| Une matrice nxn est inversible ssi \\( \det A \neq 0 \\)  | ||||
|  | ||||
| On peut trouver cette matrice inverse à l'aide de la matrice ompagnon. | ||||
| 1) On vérifie que le détérminanat est différent de 0 | ||||
| 2) On applique des transformations élémentaires sur A et sur \\( \mathbb{I} \\) en même temps jusqu'a transformer \\( A \text{ en } \mathbb{I}\\)  | ||||
|  | ||||
| > Mais comment utiliser la matrice inverse pour résoudre un system? | ||||
|  | ||||
| On sait que \\( A \cdot x = b \\) est la représentation d'un système en matrice. | ||||
| \\[ | ||||
| \begin{align} | ||||
|     A*x &= b \\\\ | ||||
|     A^{-1} * A * x &= A^{-1} * b \\\\ | ||||
|     \mathbb{I} * x &= A^{-1} * b \\\\ | ||||
|     x &= A^{-1} * b | ||||
| \end{align} | ||||
| \\] | ||||
|  | ||||
| où x est la matrice de variable, on aura donc nos solutions directement en mutlipliant nos matrices | ||||
|  | ||||
|  | ||||
|  | ||||
		Reference in New Issue
	
	Block a user