(Canale 1 – lettere A-L)
A.A. 2025-2026
Docente: Flaminio
Flamini e-mail:
flamini@[ANTISPAM]mat.uniroma2.it
Codocente: Giuseppe
Pareschi e-mail:
pareschi@[ANTISPAM]mat.uniroma2.it
LEGENDA MATERIALE DIDATTICO
[T] = Testo “Matrici e vettori. Corso di base di geometria e algebra lineare”, F. Flamini, A. Verra, Casa editrice: Carocci Editore, Roma, 2008
NOTA BENE: Si possono trovare quasi tutti gli stessi argomenti (con diversa consecutività o notazione) in queste DISPENSE “Geometria e algebra lineare” a cura di Prof. Bruno Martelli
SEMESTRE |
SETTIMANA |
LEZIONE |
ARGOMENTI |
I |
Settimana 1 |
1 (2 ore) Mar. 23/9 |
Preliminari/nozioni motivanti il corso. [T] Parag. 4.1 e 4.2 “Coordinate” sulla retta cartesiana IR^1, nel piano cartesiano IR^2 e nello spazio cartesiano tridimensionale IR^3 Punti e vettori in IR^1, IR^2 e IR^3. Rette in IR^2 (equazioni cartesiane, equazioni parametriche e parallelismo con vettori direttori) Regola del parallelogramma tra vettori ed operazioni con i vettori IR^n come insieme di n-uple reali IR^n come spazio vettoriale delle n-uple reali: assiomi e proprietà Sottospazi vettoriali di IR^n Esempi di sottospazi vettoriali banali di IR^n: S={0} e S=IR^n Controesempi: sottoinsiemi di IR^n che non sono sottospazi vettoriali di IR^n |
|
|
2 (2 ore) Mer. 24/9 |
[T] Parag. 4.2 e 4.3 Definizione di spazio vettoriale V su IR: assiomi Esempi di altri spazi vettoriali V oltre IR^n: * Polinomi IR[x] * Funz ={Funzioni reali di variabile reale} * Matrici M(m,n; IR) Sottospazi vettoriali di uno spazio vettoriale V Esempi * per ogni spazio vettoriale V, S={0} e S=V sono sottospazi banali di V * IR[x] è sottospazio vettoriale non-banale dello spazio vettoriale Funz |
|
|
3 (2 ore) Ven. 26/9 |
[T] Parag. 4.3 e 4.4 Sistemi di vettori in uno spazio vettoriale V Combinazioni lineari di vettori in uno spazio vettoriale V. Esempi Sistemi di vettori linearmente indipendenti e sistemi di vettori linearmente dipendenti. Il vettore nullo è sempre linearmente dipendente Ogni sistema di vettori contenente il vettore nullo è un sistema di vettori linearmente dipendente Significati geometrici: un sistema di vettori è linearmente dipendente se e solo se uno di loro si può scrivere come combinazione lineare dei restanti |
I |
Settimana 2 |
4 (2 ore) Mar. 30/9 |
[T] Parag. 4.4 Esempio 4.10: (1) sistema linearmente dipendente formato da un solo vettore (significato geometrico) (2) sistema linearmente dipendente formato da 2 vettori (significato geometrico) (3) sistema linearmente dipendente formato da 3 vettori (significato geometrico) Sottospazio vettoriale di V generato da un sistema di vettori Lin(v_1, ..., v_n) = Span (v_1, ..., v_n) (Proposizione 4.8) Vari esempi di sottospazi Lin(v_1, ..., v_n) = Span (v_1, ..., v_n) in IR^2 con numero di vettori sovrabbondante e non Sistemi di generatori per uno spazio vettoriale (Definizione 4.18) Spazi vettoriali f.g. (finitamente generati) o di dimensione finita (Definizione 4.19) Esempio 4.12: esempi di spazi vettoriali di dimensione finita e non * {0}, IR^n, M(mxn; IR) sono tutti f.g. * IR[x], Funz NON sono f.g. |
I |
Settimana 2 |
5 (2 ore) Mer. 1/10 |
[T] Parag. 4.4 Base di un spazio vettoriale V f.g. (Definizione 4.20) Lemma di Steinitz o Lemma sostitutivo (Lemma 4.1) Esistenza di basi per uno spazio vettoriale f.g.. Tutte le basi di un medesimo spazio vettoriale V f.g. hanno la stessa cardinalità (Teoremi 4.1 e 4.2) Concetto di dimensione dim(V): è una buona definizione (Definizione 4.22) Definizione di IR[x]_{<=d} (o P_d sul libro di testo) come spazio vettoriale dei polinomi di grado al più d: è un sottospazio vettoriale f.g. di IR[x] Determinazione di basi canoniche per IR^n, M(mxn; IR), P_d= IR[x]_{<=d} Calcolo delle dimensioni di spazi vettoriali incontrati fino ad ora (pag. 92-93): * {0} ha dimensione 0 e non ha basi * IR^n ha dimensione n ed una sua base è la base canonica * M(m,n) ha dimensione mn e una sua base è la base canonica costituita dalle matrici elementari E_{i,j} * P_d= IR[x]_{<=d} ha dimensione d+1 e la sua base canonica è {1, x, x^2, ….., x^d} |
I |
Settimana 2 |
6 (2 ore) Ven. 3/10 |
[T] Parag. 4.4 Teorema di estrazione di una base da un sistema di generatori: ogni sistema di generatori contiene una base (Teorema 4.3) Metodo degli scarti successivi per estrarre una base da un sistema di generatori Teorema di estensione ad una base: ogni sistema linearmente indipendente di vettori in V si estende ad una base di V (Teorema 4.4) Conseguenze: (1) Se v_1,….., v_d è un sistema di vettori linearmente indipendenti e dim(V) = d, allora il sistema di vettori è una base di V (Teorema 4.5 e 4.6) (2) Se W è un sottospazio vettoriale di V f.g., allora W è f.g. e dim(W) è minore od uguale a dim(V). Inoltre se vale uguale, allora W=V è sottospazio banale di V (3) Se W è sottospazio di V tale che dim(W) = dim(V)-1 allora W si dice IPERPIANO di V (4) I sottospazi vettoriali di uno spazio vettoriale 1-dimensionale sono solo banali Esempi: (a) Esempi di estensione ad una base di un sistema LI in IR^3 (b) Esempi di estrazione di una base da un sistema di generatori per IR^3 (c) Calcolo di altre basi (non canoniche) per IR^2, IR^3, M(2x2; IR), IR[x]_{<= 2} (d) Esempi di iperpiani in IR^2, IR^3 e IR^4 |
I |
Settimana 3 |
7 (2 ore) Mar. 7/10 |
[T] Parag. 1.2 Matrici: breve “refresh” di operazioni di spazio vettoriale di matrici M(mxn;IR) Data una matrice A mxn, restano associate ad A sottomatrici riga R_i e sottomatrici colonna C_j di A Caso m=n: matrici quadrate di ordine n Casi particolari di matrici quadrate: triangolari superiori ed inferiori, matrici diagonali, matrici scalari Matrice identità I_n di ordine n Trasposta di una matrice rettangolare Matrici quadrate simmetriche ed antisimmetriche I sottoinsiemi di matrici quadrate triangolari superiori ed inferiori, di matrici diagonali, di matrici scalari di matrici simmetriche e di matrici antisimmetriche: formano tutti sottospazi vettoriali di M(n,n;IR) Esempio (a) Calcolo delle dimensioni e determinazione di basi per n=2 (cioè in M(2x2;IR)) dei sottospazi di matrici quadrate di ordine 2: triangolari superiori ed inferiori, diagonali, scalari simmetriche antisimmetriche (b) Caso n=3 (lasciato per esercizio) |
I |
Settimana 3 |
8 (2 ore) Mer. 8/10 |
[T] Parag. 2.1 e 2.2 Prodotto tra matrici rettangolari: condizione di compatibilità del prodotto Proprietà elementari del prodotto: associatività. Distributività rispetto a + Osservazioni sul prodotto: non sempre è definito; pure se è definito in generale non è commutativo; esistono zero-divisori Matrice trasposta di un prodotto di matrici (Teorema 2.1 no dimostrazione) Matrici invertibili Se una matrice quadrata ammette un’inversa, essa è unica (Proposizione 2.5) Matrici invertibili 2x2 (Esempio 2.2 e Proposizione 2.6): CNES di invertibilità |
I |
Settimana 3 |
9 (2 ore) Ven. 10/10 |
[T] Parag. 1.1 Sistemi lineari omogenei SLO(m,n) e non omogenei SL(m,n) di m equazioni in n indeterminate Matrici associate ad un SL(m,n): A matrice dei coefficienti, C matrice completa, b = matrice colonna o vettore dei termini noti Notazione di sistemi lineari che utilizza il prodotto righe per colonne Ax=b per SL(m,n) e Ax=0 per SLO(m,n) C = (A,b) è dunque la matrice completa di un SL(m,n) Soluzioni di un SL(m,n). Sistemi lineari compatibili ed incompatibili ESEMPIO: Utilizzo di CNES di invertibiltà di matrici 2x2 per capire quando un SL(2,2) amette o meno un’unica soluzione Significati geometrici (Esempio 1.1 ed Osservazione 1.1): (a) due rette incidenti nel piano IR^2 come sistema lineare due equazioni e due incognite compatibile con unica soluzione (b) due rette strettamente parallele nel piano come sistema lineare due equazioni e due incognite incompatibile e descrizione delle rette in forma parametrica (controllo della loro comune giacitura) (2) due rette coincidenti nel piano come sistema lineare due equazioni e due incognite compatibile con infinite soluzioni, descrizione delle retta in forma parametrica (controllo della giacitura) Proposizione 1.1 (i) Un SLO(m,n) è sempre compatibile con almeno soluzione nulla o in IR^n (ii) Il luogo S_0 = Sol (Ax=0) delle soluzioni in IR^n di un SLO(m,n) è sempre un sottospazio vettoriale di IR^n |
I |
Settimana 4 |
10 (2 ore) Mar. 14/10 |
[T] Parag. 1.3 e 1.4 Proposizione 1.1 (iii) L’insieme S= Sol(Ax=b) di un SL(m,n) compatibile è della forma S= s_p + S_0 cioè S è un traslato di S_0 mediante una soluzione particolare s_p e S_0 è la giacitura di S (iv) Un SL(m,n) compatibile si dice ammettere infinito alla k soluzioni o soluzioni che dipendono da k parametri liberi se dim(S_0) = k * Quali sistemi SL(m,n) si risolvono semplicemente? Pivots di una matrice (Definizione 1.13) Matrice ridotta per per riga (Definizione 1.14) Matrici ridotte a scala o a gradini: pivots principali Rango di una matrice M ridotta a scala o a gradini:= rg(M) = numero di righe non nulle di M= numero dei pivots principali di M Sistema SL(m,n) ridotto a gradini o a scala: lo è se la sua matrice completa C=(A|b) è ridotta a scala o a gradini Le righe non nulle di C=(A|b) ridotta a scala o a gradini sono linearmente indipendenti Condizione di compatibilità per un sistema lineare SL(m,n) a gradini (o a scala) e metodo di risoluzione a ritroso per un SL(m.n;IR) ridotto a scala (o a gradini) e compatibile (Teorema 1.4) Caratterizzazione di sistema lineari SL(m,n) a gradini (o a scala) compatibili e con unica soluzione: se e solo se m=n e A matrice tirangolare superiore con tutti elementi non nulli sulla diagonale principale |
I |
Settimana 4 |
11 (2 ore) Mer. 15/10 |
[T] Parag. 1.3 e 1.4 * Come accorgersi della compatibilità e come risolvere un sistema SL(m,n) qualsiasi (cioè non necessariamente ridotto a scala o a gradini)? Operazioni elementari sulle righe di una matrice (Definizione 1.11) Sistemi lineari equivalenti ed operazioni elementari sulle righe della matrice completa di un SL(m,n) (Definizione 1.15 e Teorema 1.2) Algoritmo di Gauss-Jordan di riduzione di una matrice qualsiasi ad una matrice a scala o a gradini (Teorema 1.3) Applicazioni: ogni sistema SL(m,n) è equivalente ad un sistema ridotto a scala o a gradini Esempi |
I |
Settimana 4 |
12 (2 ore) Ven. 17/10 |
[T] parag. 2.3 Sottomatrice di una matrice A (Definizione 2.5) rg(A) = rango di una matrice A (Definizione 2.6) Se A matrice ridotta a scala o a gradini, le due nozioni di rango coincidono Le operazioni elementari non cambiano il rango (massimo ordine di sottomatrice invertibile) di una matrice Il rango di A quantifica il massimo numero di righe indipendenti di A |
I |
Settimana 5 |
13 (2 ore) Mar 21/10 |
[T] parag. 2.3 Conseguenze: (a) Una matrice A mxn e la sua trasposta t^A nxm hanno lo stesso rango (b) Dunque data una matrice A mxn il rango per righe di A ed il rango per colonne di A è lo stesso (c) Teorema di Rouchè-Capelli (Teorema 2.7) rivisitazione CNES compatibilità di sistemi lineari e numero di parametri liberi (d) Utilizzo del rango per riga: prendo la matrice completa di un sistema Ax=b e con il rango mi rendo subito conto del massimo numero di righe indipendenti di A e di C= (A|b) e dunque compatibilità o meno del SL(m,n) (e) Se A quadrata di ordine n è di rango massimo n, allora A è invertibile. In particolare posso calcolare l’inversa di A attraverso n sistemi lineari associati Ax=e_j, 1 <=j <=n, dove e_j vettore colonna della base canonica [T] parag. 4.5 Se B è una base di uno spazio vettoriale V di dim(V) =n , allora ogni vettore u di V si scrive in modo unico come combinazione lineare dei vettori della base B I coefficienti di tali combinazione lineari formano un vettore colonna c_B(u) in IR^n detto vettore colonna delle componenti (o coordinate) di u rispetto alla base B Utilizzo del rango per colonna: sia B una base di V e sia W= {v_1, v_2,…., v_k} un sistema di vettori di V. Poniamo M_B (v_1, v_2,…., v_k) la matrice che ha per colonne i vettori colonna c_B(v_i) per 1 <= i <= k dunque M_B (v_1, v_2,…., v_k) è una matrice nxk. Allora dim(Lin/Span (v_1, v_2,…., v_k)) = rg(M_B (v_1, v_2,…., v_k)) |
I |
Settimana 5 |
14 (2 ore) Mer. 22/10 |
[T] Parag. 4.2, 4.4 e 4.5 * Matrici cambiamento di base M_{F, B} tra due basi diverse F e B di V: è una matrice quadrata invertibile * M_{F, B} e M_{B, F} sono una l’inversa dell’altra * Formula di cambio di coordinate di un vettore rispetto a due basi distinte Intersezione di sottospazi vettoriali di V: è un sottospazio vettoriale (l’unione in generale non è un sottospazio vettoriale) Somma di sottospazi vettoriali di V: è un sottospazio vettoriale Somma diretta di sottospazi vettoriali: significato geometrico della somma diretta in termini di scritture uniche Formula di Grassmann (solo enunciato, dimostrazione più avanti che utilizza applicazioni lineari) Utilizzo della formula di Grassmann per sottospazi di matrici 2x2 per capire se sono in somma diretta o meno in V=M(2,2;IR) |
I |
Settimana 5 |
15 (2 ore) Ven. 24/10 |
T] Cenni da Parag. 6.1, 6.2 e 6.3 (solo con V= IR^n) PROF PARESCHI Traslazione su IR^n mediante i vettori ed IR^n come spazio affine Riferimenti cartesiani affini nello spazio affine IR^n. Refresh su teorema di struttura delle soluzioni di un SL(m.n) compatibile Ax=b: (a) Sol(Ax=b) lo abbiamo definito come “traslato” del sottospazio vettoriale Sol (AX=0) che abbiamo denominato anche GIACITURA di Sol(Ax=b) (b) Sol(Ax=b) si dice sottospazio affini dello spazio affine IR^n. Sol(Ax=0) è giacitura del sottospazio affine associato Parallelismo tra sottospazi affini di IR^n ed interpretazione del Teorema di Rouchè -Capelli e della compatibilità dei SL(m,n) in termini di sottospazi affini: (a) se un SL(m,n) è incompatibile allora nelle sue equazioni cartesiane ci sono almeno due iperpiani affini paralleli non coincidenti (b) se SL(m,n) è compatibile il sottospazio affine delle soluzioni ha dimensione (come sottospazio affine) pari a quella della sua giacitura come sottospazio vettoriale di IR^n Equazioni cartesiane ed equazioni parametriche di sottospazi affini di IR^n: passaggio dalle une alle altre (a) da cartesiane a parametriche: risolvo SL(m,n) con i parametri liberi (b) da parametriche a cartesiane: (b-*) caso delle rette affini in IR^n: semplicemente eliminando il parametro t (esempio di una retta affine in IR^4) (b-**)
In
generale, due metodi operativi per trovare equazioni cartesiane
di un sottospazio affine della forma (b-** 1) W^\perp definito come il sottospazio delle soluzioni del sistema omogeneo le cui equazioni sono date dai coefficienti di w1,..,wk. Risolvendo si trova una base A1,..,Ak di W^\perp. Il sistema AX=0, dove A e' la matrice le cui righe sono A1,.., Ak ha come spazio delle soluzioni il sottospazio W e sostituendo il vettore a in queste equazioni si trova b tale che AX=b e' un sistema di equazioni cartesiane per S (b-** 2) Con eliminazione di Gauss-Jordan trovando prima equazioni cartesiane della giacitura W e poi di S. Per la giacitura W: x appartiene a W se solo se il sistema di matrice completa C|x e' compatibile, dove C e' la matrice le cui colonne sono i vettori w1,..,wk. Facendo l'eliminazione di Gauss-Jordan si trovano le condizioni di compatibilita' del sistema, che sono equazioni cartesiane per W. Poi si trovano equazioni cartesiane di S come in (** 1). |
I |
Settimana 6 |
16 (2 ore). Mar. 28/10 |
[T] Parag. 3.1 e 3.2 PROF PARESCHI Matrici quadrate e determinanti Caso 2x2 Caso 3x3 (Metodo di Sarrus) Regola di Laplace per il calcolo di un determinante nxn con n>3 (solo enunciato) Proprietà dei determinanti: alternanza e multilinearità (solo enunciato) |
I |
Settimana 6 |
17 (2 ore). Merc. 29/10 |
[T] Parag. 3.3, 3.4 PROF PARESCHI Determinanti e matrici invertibili: CNES per invertibilità di una matrice quadrata Teorema di Binet (Teorema 3.8 solo enunciato) Determinante della matrice inversa di una matrice invertibile A: det(A^{-1}) = 1/det(A) |
I |
Settimana 6 |
18 (2 ore). Ven. 31/10 |
[T] Parag. 3.3, 3.4 PROF PARESCHI Regola di Cramer per la risoluzione di SL(n,n) compatibili a rango massimo per mezzo di quozienti di determinanti Calcolo dell’inversa di una matrice invertibile: con uso dei determinanti e con matrice dei cofattori |
I |
Settimana 7 |
19 (2 ore) Mar. 4/11 |
[T] Parag. 3.4 PROF PARESCHI Minore di ordine k di una matrice M rettangolare mxn (Definizione 3.4) Rango e minori: il rango di M è il massimo ordine possibile di un minore non nullo di M (Teorema 3.6) Teorema di Kronecher o principio dei minori orlati (Teorema 3.7 solo enunciato ed utilizzo) [T] Cap. 5 PROF PARESCHI Prodotto scalare <, > su uno spazio vettoriale V (Definizione 5.4) (V, < , > ) spazio vettoriale euclideo (Definizione 5.8) Prodotto scalare standard in IR^n (Esempio 5.2) Norma di un vettore in uno spazio vettoriale euclideo (V, < , > ) Versori e versorizzazione di un vettore in (V, < , > ) Diseguaglianza di Cauchy-Schwartz in (V, < , > ) Distanza fra punti dello spazio euclideo IR^n |
I |
Settimana 7 |
20 (2 ore) Mer. 5/11 |
[T] Cap 5 PROF PARESCHI Angoli convessi fra vettori. <, > - ortogonalità tra vettori in (V, < , > ) Esempi di ortogonalità e calcolo di norme rispetto al prodotto scalare standard in IR^n Un sistema di vettori a due a due < ,>- ortogonali in (V, < , > ) e' un sistema di vettori linearmente indipendenti (Proposizione 5.6) Basi < , > - ortogonali e Basi < , > - ortonormali di uno spazio vettoriale euclideo (V, <,>) di dimensione finitamente Esempi di basi ortogonali ed ortonormali in IR^2 e IR^3 rispetto al prodotto scalare standard p_w(v) = proiezione < ,> - ortogonale in (V, < , > ) di un vettore v sullo Span di un vettore w Decomposizione < ,>-ortogonale v = p_w(v) + n dove p_w(v)= vettore componente di v parallelo (o proporzionale) a w mentre n = vettore componente di v che è < ,>-ortogonale (o perpendicolare) a w Esempi di proiezioni in IR^2 e IR^3 rispetto al prodotto scalare standard |
I |
Settimana 7 |
21 (2 ore) Ven. 7/11 |
[T] Cap 5 e Cap 7 PROF PARESCHI In uno spazio vettoriale euclideo (V, < , >) di dimensione finita: coordinate o componenti (v(1),,…, v(n)) di un vettore v di V rispetto ad una qualsiasi basi < , >-ortogonale Nella somma u = t(1) v(1) +….+ t(n) v(n), i vettori t(i) v(i) sono le proiezioni < , >-ortogonali del vettore u sullo Span di v(i), 1 <= i <= n Caso particolare rispetto a basi < , >-ortonormali Rette nello spazio euclideo IR^n: equazione parametrica di una retta x = a + Span(v) Equazioni di una retta per due punti distinti di IR^n Equazioni di una retta passante per un punto di IR^n e con giacitura Span(v) data PIANO CARTESIANO IR^2 (con prodotto scalare standard) IR^2 come piano (geometrico) euclideo: riferimenti cartesiani ortonormali di IR^2 Equazioni cartesiane e parametriche di rette in IR^2. Passaggio dalle une alle altre Giacitura di una retta, vettore direttore di una retta, parametri direttori di una retta. Rette parallele in IR^2 Vettore normale ad una retta r di IR^2: se una retta r ha equazione cartesiana ax+by = c, allora il vettore n:= (a,b) è un vettore ortogonale alla giacitura di r |
I |
Settimana 8 |
22 (2 ore) Mar. 11/11 |
[T] Capitolo 7 PROF PARESCHI Rette perpendicolari in IR^2 Vari esempi di calcolo dell'intersezione di due rette in IR^2 (con le equazioni cartesiane, con le equazioni parametriche, con una cartesiana e una parametrica) Fasci propri ed impropri di rette in IR^2. Condizioni lineari sui fasci di rette ed applicazioni geometriche |
I |
Settimana 8 |
22 (2 ore). Mer. 12/11 |
[T] Capitolo 7 PROF PARESCHI Fsempi di calcolo di alcune formule di Geometria affine ed euclidea in IR^2 (esercizi): (i) punto medio di un segmento, (ii) punto simmetrico rispetto ad un altro, (iii) distanza tra 2 punti, (iv) retta per due punti, (v) retta per un punto e parallela (oppure perpendicolare) ad una data, (vi) proiezione ortogonale di un punto su una retta, (vii) angolo convesso fra due rette orientate (viii) distanza punto-retta (fatto oltre che come sul libro con dispensa caricata su TEAMS con proiezione ortogonale). (ix) vari esempi di calcolo di distanza punto retta e punto di una una retta piu' vicino ad un dato punto. (x) determinazione del luogo dei punti che hanno distanza fissata da una retta data (e' l'unione di due rette parallele alla retta data) [T] Capitolo 8 e breve cenno paragrafo 6.3 PROF PARESCHI SPAZIO CARTESIANO IR^3 (con prodotto scalare standard) IR^3 come spazio (geometrico) euclideo: riferimenti cartesiani ortonormali di IR^3 Prodotto vettoriale nello spazio vettoriale euclideo IR^3. Proprieta' del prodotto vettoriale. |
I |
Settimana 8 |
23 (2 ore) Ven. 14/11 |
[T] Capitolo 8 PROF PARESCHI Determinazione di basi ortonormali destrorse di IR^3 per mezzo del prodotto vettoriale. La norma del prodotto
vettoriale è
uguale
all'area del parallelogramma costruito sui due vettori. Prodotto misto: e' uguale al determinante della matrice le cui colonne sono i tre vettori. Orientazione di una base di IR^n Applicazioni
del prodotto vettoriale/misto: Basi
ortogonali
di
IR^3: dati u e v indipendenti, come trovare una base ortogonale
{a,b,c} di R(3) tale che Span(u)=Span(a) e Span(u,v)=Span(a,b)
(problema
di Gram-Schmidt). Spazio
cartesiano IR^3 e suoi sottospazi affini: punti, rette e
piani. (b)
Vettore
normale ad
un piano come vettore ortogonale alla giacitura (d) Come (a,b,c) si puo' prendere il prodotto vettoriale dei vettori di una base delle giacitura (e) Posizione reciproca di due piani (paralleli, oppure l'intersezione e' una retta) |
I |
Settimana 9 |
24 (2 ore) Mar. 18/11 |
[T] Capitolo 8 PROF PARESCHI Piano vettoriale normale (o perpendicolare) ad una retta. Posizioni reciproche di rette e piani in IR^3 (incidenza, parallelismo, coincidenza, contenimento) * piano-piano *
piano-retta In
particolare: Calcolo di alcune formule di Geometria affine ed euclidea in IR^3: (i) retta per due punti distinti oppure retta per un punto e parallela ad una retta(eq. parametiche e cartesiane) (ii) retta per un punto e perpendicolare ad un piano, (iii) piano per 3 punti non allineati (eq. parametiche e cartesiane) (iv) piano per una retta e un punto. Svolto in due modi: (1) riconducendosi al caso precedente (piano per tre punti), (2) considerando il fascio dei piani che contengono la retta e imponendo il passaggio per il punto (v) piano per un punto e parallelo ad un piano dato, (vi) piano per un punto e perpendicolare (od ortogonale) ad una retta |
I |
Settimana 9 |
25 (2 ore) Mer. 19/11 |
[T] Capitolo 5 PROF PARESCHI Decomposizione ortogonale: dato U un sottospazio vettoriale di (V, <,>), denotiamo con U^{perp}:= complemento < ,>- ortogonale di U in V Decomposizione di V in somma diretta < ,> - ortogonale del sottospazio U e del suo complemento < , >-ortogonale U^{perp} Se dim(V) = n e dim(U) = k allora dim(U^{perp}) = n-k Individuazione di una base per U^{perp} Proiezione ortogonale su un sottospazio U Teorema di Gram-Schmidt per spazi vettoriali euclidei (V, <,>) Esempi in IR^2, IR^3 e IR^4 |
I |
Settimana 9 |
26 (2 ore) Ven. 21/11 |
[T] parag. 8 PROF PARESCHI Altri esempi di decomposizione ortogonale in IR^n Calcolo di ulteriori formule di Geometria euclidea in IR^3: (i) proiezione ortogonale di un punto su una retta o su un piano affine (ii) proiezione ortogonale di una retta su un piano (iii) distanza punto-retta e punto-piano (iiv) distanza tra due rette sghembe |
I |
Settimana 10 |
27 (2 ore) Mar. 25/11 |
[T] Cap. 5 + scansione pdf note lezione di Prof. Pareschi caricate su TEAMS PROF PARESCHI Matrici ortogonali. Generalità sulle matrici ortogonali: * il loro determinate e’ o +1 (speciali ortogonali) oppure -1 (ortogonali non-speciali) * il prodotto di due matrici ortogonali e’ ortogonale, * una matrice e’ ortogonale se e solo se le sue colonne (o equiv. le sue righe) formano una base ortonormale di IR^n con il prodotto scalare standard * Se M matrice ortogonale, allora la sua inversa coincide con la trasposta Descrizione/classificazione di tutte le matrici ortogonali 2x2 Esempi di matrici ortogonali o non ortogonali 3x3 Richiami sulle matrici di cambiamento di base M_{BA} (come nella lezione del 22/10 del Prof. Flamini) Proposizione: se C e’ una terza base, M_{CA}=M_{CB}M_{BA} Proposizione siano E ed F due basi ortonormali di IR^n, con il prodotto standard. Allora M_{EF} e M_{FE} sono matrici ortogonali. Proposizione Sia W un sottospazio vettoriale di dimensione k di IR^n. Siano E_W e F_W due basi ortogonali di W. Allora M_{E_W, F_W} e M_{F_W, E_W} sono matrici kxk ortogonali. |
I |
Settimana 10 |
28 (2 ore) Mer. 26/11 |
[T] Cenni Cap. 6 + scansione pdf note lezione di Prof. Pareschi caricate su TEAMS PROF PARESCHI Affinita’ di IR^n applicazioni F(x)=Ax + c con A matrice di ordine n invertibile. Le affinita’ sono funzioni invertibili e l’inversa di un’affinità è un’affinita’ (calcolata esplicitamente). Isometrie di IR^n = affinità di IR^n che conservano la distanza. Proposizione: un’affinità F(x)=Ax + c e’ un’isometria se e solo se A e’ una matrice ortogonale (dimostrata solo nel verso: se A e’ortogonale allora F e’ un’isometria) Descrizione/classificazione delle isometrie di IR^2: traslazioni, rotazioni, riflessioni. Esempi di come, data l’espressione F(x)=Ax + c, si calcola l’angolo e il centro di rotazione oppure l’asse di riflessione |
I |
Settimana 10 |
29 (2 ore) Ven. 28/11 |
NO LEZIONE PER PERMETTERE SVOLGIMENTO ESONERO DI ANALISI MATEMATICA 1 |
I |
Settimana 11 |
30 (2 ore) Mar. 2/12 |
[T] Cap. 9 Applicazioni lineari (o Morfismi) f: V → W di spazi vettoriali astratti: proprietà ed esempi * Applicazione lineare nulla f=0 * Applicazioni (non lineari) costanti non nulle * Applicazione lineare data da moltiplicazione per una costante k, m_k:V → V . Se k=1 allora m_1=Id_V = Identità di V * Applicazioni lineari da IR a IR: sono solo x → k x, con k scalare * Esempi di applicazioni lineari da IR^n→ IR^m Endomorfismi di uno spazio vettoriale V Un’applicazione lineare f: V → W è individuata univocamente dai valori che assume su una qualsiasi base del dominio V (Teorema 9.1) Nucleo (Ker(f)) di un applicazione lineare: è un sottospazio del dominio V Immagine (Im(f)) di un’applicazione lineare: è un sottospazio del codominio W f applicazione lineare iniettiva se e solo se il nucleo è banale, cioè Ker(f)={0} f applicazione lineare suriettiva se e solo se Im(f) = W |
I |
Settimana 11 |
31 (2 ore) Mer. 3/12 |
[T] Cap. 9 Se V ha dimensione finita, Im(f) ha dimensione finita e le immagini dei vettori di una qualunque base di V costituiscono un sistema di generatori per il sottospazio Im(f) <W (Prop. 9.3) Esempio di applicazione lineare f: V= IR^3 → W= IR[t] dove Im(f) ha dimensione 2 (anche se W non è f.g.) e dove f non è iniettiva con Ker(f) di dimensione 1 Teorema sulla dimensione o Teorema di Nullità e Rango (Teorema 9.2) Conseguenze: (a) Se f iniettiva allora dim(V) <= dim(W) (b) Se f suriettiva allora dim(V) >= dim(W) (c) In generale non vale il viceversa: endomorfismo di IR^3 che non è né iniettivo né suriettivo Isomorfismi di spazi vettoriali Spazi vettoriali isomorfi Due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione (Teorema 9.3) Se V e W f.g. t.c. dim(V) = dim(W) e f:V → W applicazione lineare o morfismo allora f isomorfismo se e solo se f iniettiva se e solo se f suriettiva Un isomorfismo f tra V e W trasforma basi di V in basi di W (Corollario 9.1) Automorfismi di V Esempio di un endomorfismo di IR^3 che non è un automorfismo di IR^3 Esempio di un isomorfismo esplicito tra IR^3 e IR[t]_{<= 2} Applicazione: dimostrazione della Formula di Grassmann via applicazioni lineari (Teorema 9.4) |
I |
Settimana 11 |
32 (2 ore) Ven. 5/12 |
[T] Cap. 9 Casi particolari di applicazioni lineari: Se A è una matrice m x n, allora A definisce sempre un’applicazione lineare f_A: IR^n → IR^m (1) Reinterpretazione del prodotto righe per colonne AB come composizione di applicazioni lineari (2) Reinterpretazione del fatto che il prodotto righe per colonne AB non è sempre definito via composizioni di applicazioni lineari (3) Reinterpretazione del fatto che il prodotto righe per colonne AB non è in generale commutativo via composizioni di applicazioni lineari (4) A matrice quadrata nxn è endomorfismo di IR^n e se det(A) diverso da zero è automorfismo di IR^n (5) Se A matrice mxn, il sottospazio Sol(Ax = 0) = Ker(f_A): so trovare dimensione dim(Ker(f_A)), una base di Ker(f_A), equazioni parametriche e cartesiane di Ker(F_A) (6) Se A è una matrice m x n, le colonne di A costituiscono un sistema di generatori per Im(f_A) (7) dim(Im(f_A)) = rg(A) e questo spiega la terminologia “Teorema di Nullità e Rango” (8) So determinare una base di Im(f_A) coinvolgendo le colonne che computano il rango, e anche equazioni parametriche e cartesiane di Im(f_A) (9) Rilettura in termini di applicazioni lineari del Teorema di Rouchè-Capelli: incompatibilità di Ax=b se e solo se b non appartiene a Im(f_A) (10) Risolvere un SL(m,n) compatibile Ax = b equivale a trovare l’insieme delle controimmagini mediante f_A del vettore b Tale insieme è un sottospazio affine di IR^n con giacitura Ker(f_A) (11) Reinterpretazione del Teorema di struttura dello spazio affine delle soluzioni di un SL(m,n) compatibile Ax = b in termini del Teorema sulla dimensione (o Teorema di Nullità e Rango) |
I |
Settimana 12 |
33 (2 ore) Mar. 9/12 |
[T] Cap. 9 Caso generale di applicazioni lineari: Matrice M_{G,E}(f) di un’applicazione lineare f: V → W rispetto a basi fissate E in dominio V e G in codominio W Se V ha dimensione n e B è una qualsiasi sua base, l’applicazione lineare c_B = coordinate in base B fornisce un isomorfismo con IR^n, cioè (V, B) isomorfo a IR^n A = M_{G,E}(f) riduce f: V → W astratta a f_A: IR^n → IR^m, con n = dim(V) e m = dim(W) Esempio: Matrice associata in date basi all’applicazione lineare DERIVATA d/dt da IR[t]_{<=2} a IR[t]_{<=1} Operazioni tra applicazioni lineari e matrici rappresentative: * addizione di applicazioni lineari e matrici rappresentative * moltiplicazione per uno scalare di un’applicazione lineare e matrici rappresentative * composizione di applicazioni lineari e matrici rappresentative |
I |
Settimana 12 |
34 (2 ore) Mer. 10/12 |
[T] Cap. 9 e 10 Come cambia la matrice rappresentativa M_{G,E}(f) e M_{G’,E’}(f) se si cambia base E’ invece che E in dominio V e base G’ invece che G in codominio W? Diagrammi commutativi di applicazioni lineari e matrici rappresentative in varie basi (Teorema 9.8) Rango di un applicazione lineare (Definzione 9.6) Esempio: Matrice associata in date basi all’applicazione lineare DERIVATA d/dt da IR[t]_{<=1} a IR[t]_{<=0} in differenti basi Caso di ENDOMORFISMO (od OPERATORE LINEARE) di V * Matrici coniugate o simili Proprietà 1: Se A e A’ rappresentano lo stesso endomorfismo astratto f in basi diverse B e B’ per lo spazio vettoriale V, allora A’ = M^-1 A M dove M = M_{B,B’} matrice cambiamento di base. In altri termini, se A e A’ sono matrici che rappresentano lo stesso endomorfismo astratto f in due basi diverse di V allora A e A’ sono matrici coniugate o simili per mezzo di M In particolare Im(f_A) e Im(f_A’) sono sottospazi vettoriali isomorfi e dunque rg(A) = rg(A’) |
I |
Settimana 12 |
35 (2 ore) Ven. 12/12 |
[T] Cap 10 Relazioni di equivalenza su un insieme: proprietà riflessiva, simmetrica e transitiva Classi di equivalenza e rappresentanti di una classe di equivalenza di elementi Esempio di relazione di equivalenza sull’insieme degli interi Z: x in relazione con y interi se e solo se x-y divisibile per 12 in Z. Le classi di equivalenza sono parametrizzate dalle tacche delle ore su orologio Il CONIUGIO (o SIMILITUDINE) tra matrici quadrate è una relazione di equivalenza sullo spazio vettoriale M(nxn; IR) Inversa di Proprietà 1: se A e A’ sono coniugate mediante una matrice invertibile M, allora A e A’ rappresentano un medesimo endomorfismo di IR^n ma in basi diverse e dunque rg(A) = rg(A’) Basi diagonalizzanti per un endomorfismo (od operatore lineare) D è una base di V diagonalizzante l’operatore f se e solo se M_{D,D}(f) è una matrice diagonale per f D è base di V diagonalizzante l’operatore f se e solo se esistono vettori v_1,…..,v_n linearmente indipendenti e scalari l_1,….,l_n (non necessariamente tutti distinti) per cui f(v_i) = l_i v_i per ogni 1<=i<=n |
I |
Settimana 13 |
36 (2 ore) Mar. 16/12 |
[T] Cap. 10 Endomorfismi (od Operatori lineari) f diagonalizzabili su uno spazio vettoriale di dimensione finita f è diagonalizzabile se e solo se esiste una base D di V che è diagonalizzante l’operatore f Equivalentemente, presa B una qualsiasi base di V e detta A =M_{B,B}(f) la matrice rappresentativa di f in base B, allora f è diagonalizzabile se e solo se nella classe di similitudine o coniugio di A esiste un rappresentante diagonale D, equivalentemente la matrice A è coniugata (o simile) ad una matrice diagonale D Autovalori ed autovettori di un endomorfismo (od operatore lineare) f su uno spazio vettoriale astratto V di dimensione finita Autospazio associato ad un autovalore di f: è un sottospazio vettoriale di V Se Ker(f) è non banale, esso corrisponde all’autospazio relativo all’autovalore nullo di f Esempi di endomorfismi con significati geometrici: riflessioni ortogonali rispetto ad una retta di IR^2; rotazioni di angolo theta attorno all’origine di IR^2 Ricerca di autovalori ed autovettori di un’endomorfismo f_A di IR^n: polinomio caratteristico di una matrice A e calcolo dei suoi autovalori Traccia di A e determinante di A Determinazione delle basi degli autospazi associati ad f_A |
I |
Settimana 13 |
37 (2 ore) Mer. 17/12 |
[T] Cap. 10 e 11 Se A e A’ sono matrici coniugate (o simili), il loro polinomio caratteristico è lo stesso Polinomio caratteristico di un endomorfismo (od operatore lineare) astratto f Autovettori di un endomorfismo astratto f relativi ad autovalori distinti sono vettori linearmente indipendenti Come capire se un operatore lineare è diagonalizzabile? Molteplicità algebrica e molteplicità geometrica di un autovalore di un endomorfismo f Diseguaglianza tra molteplicità algebrica e molteplicità geometrica Condizione Necessaria e Sufficiente (CNES) per la diagonalizzabilità di un endomorfismo f in termini delle radici del polinomio caratteristico e delle due molteplicità (algebrica e geometrica) per ciascuna radice reale Esempi e controesempi |
I |
Settimana 13 |
38 (2 ore) Ven. 19/12 |
[T] Cap. 11 Operatori autoaggiunti (o simmetrici) in (V, < , >) spazio vettoriale euclideo Se in (V, <, >) fissiamo una base O_V che è < , >-ortonormale, allora l’isomorfismo coordinate c_{O_V} rende (V, < ,>, O_V) isomorfo a IR^n munito di prodotto scalare standard f autoaggiunto su (V, <, >) se e solo se M_{O_V, O_V}(f) = A è una matrice simmetrica nxn Proprietà di operatori autoaggiunti: se U è un sottospazio vettoriale di V per cui f(U) <= U allora anche f(U^{perp}) <= U^{perp} Enunciato del Teorema spettrale degli operatori autoaggiunti (a) Se f è un operatore autoaggiunto (o simmmetrico) su (V, < , >) allora f ha SPETTRO totalmente reale (b) Per ogni autovalore di f, la sua molteplicità algebrica coincide con la sua molteplicità geometrica (c) Autospazi relativi ad autovalori distinti sono sottospazi ortogonali di V (d) Esiste una base ortonormale di V formata da autovettori di f Significato matriciale del Teorema Spettrale degli operatori autoaggiunti: se A è una matrice simmetrica nxn, esiste sempre una matrice ortogonale M per cui t^M A M = D dove D matrice diagonale tale che sulla diagonale principale di D ci sono tutti gli autovalori di A. Formulazione equivalente: una matrice simmetrica A nxn è sempre CONGRUENTE ad una matrice D diagonale Notare che se M è una matrice ortogonale nxn , la relazione di CONIUGIO (o SIMILITUDINE) e la relazione di CONGRUENZA tra matrici sono la stessa relazione di equivalenza |
I |
Settimana 14 |
39 (2 ore) Mar. 23/12
|
Lezione Prof. Flamini registrata on-line su Teams (per permettere a studenti fuori sede di raggiungere le famiglie per le festività natalizie) [T] Cap. 11 Dimostrazione del Teorema Spettrale degli operatori autoaggiunti: il punto (a) solo nei casi 1x1, 2x2 e 3x3 (vedi dimostrazione Teorema 11.2) Forme quadratiche reali in n indeterminate e matrice simmetrica associata ad una forma quadratica reale Forme quadratiche reali, operatori autoaggiunti (o simmetrici) di IR^n e matrici simmetriche nxn sono diversi aspetti dello stesso concetto Matrici rappresentative di forme quadratiche reali in diversi sistemi di coordinate: matrici congruenti Diagonalizzazioni di forme quadratiche reali per mezzo di matrici ortogonali: Forme Canoniche Metriche di forme quadratiche reali Teorema di Sylvester (o di Inerzia): indici di inerzia e Forme Canoniche Affini (o di Sylvester) di forme quadratiche reali Segnatura di una forma quadratica reale Forme quadratiche (semi)definite positive, (semi)definite negative ed indefinite: interpretazione con la segnatura |
I |
Settimana 14 |
40 (2 ore) Mer. 7/01 |
[T] Parag. 6.4 e 6.5 (solo caso IR^n) Richiami su affinità ed isometrie dello spazio IR^n (come nella lezione del 26/11 del Prof. Pareschi) Proprietà geometriche delle affinità e delle isometrie Figure geometriche affinemente equivalenti oppure isometriche (equiv congruenti): esempi e controesempi Equazioni di alcune affinità od isometrie notevoli di IR^2 e di IR^3 (esercizi): traslazioni, riflessioni rotazioni Matrice completa di un'isometria o di un'affinita' di IR^2 |
I |
Settimana 14 |
41 (2 ore) Ven. 9/01 |
[T] Capitolo 12 Generalita' sui polinomi di secondo grado in due indeterminate. Coniche del piano ed equazioni cartesiane: forma quadratica, forma lineare e termine noto dell'equazione di una conica. Matrice simmetrica completa di una conica e matrice simmetrica della forma quadratica associata alla conica. Coniche reali e supporti. Coniche congruenti e coniche affinemente equivalenti. Matrice completa di un'isometria o di un'affinita' di IR^2. Equazione matriciale di coniche congruenti od affinemente equivalenti. Coniche congruenti in IR^2 sono anche affinemente equivalenti ma non e' vero il viceversa. |
I |
Settimana 15 |
42 (2 ore) Mar. 13/1 |
[T] Capitolo 12 Il rango di una conica e' una proprieta' metrica (equivalentemente affine). Il rango della forma quadratica di una conica e' una proprieta' metrica (equivalentemente affine). Il segno del determinante della matrice simmetrica della forma quadratica di una conica e' una proprieta' metrica (equivalentemente affine). Prima distinzione tra coniche affini/euclidee: Parabole o Coniche a centro Le Coniche a centro si suddividono ulteriormente in Ellissi ed Iperboli |
I |
Settimana 15 |
43 (2 ore) Mer. 14/1 |
[T] Capitolo 12 Classificazione affine delle coniche e forme canoniche affini delle coniche. Classificazione metrica (o euclidea) delle coniche e forme canoniche metriche delle coniche. Forme canoniche metriche delle coniche di IR^2: esistono 9 distinte tipologie di coniche dal punto di vista metrico ma in ciascuna fissata tipologia esistono infinite forme canoniche metriche non equivalenti dal punto di vista metrico delle coniche. Studio delle proprieta' geometriche delle forme canoniche metriche delle coniche. Forme canoniche affini delle coniche di IR^2: esistono 9 tipologie di coniche dal punto di vista affine e per ogni tipologia esiste un'unica forma canonica affine. |
I |
Settimana 15 |
44 (2 ore) Ven. 16/1 |
[T] Capitolo 12 Algoritmo di riduzione a forma canonica metrica di una conica di IR^2. Determinazione dell’isometria tra i due riferimenti cartesiani Passaggio dalla forma canonica metrica alla forma canonica affine di una conica per mezzo del Teorema di Sylvester. Determinazione dell’affinita' tra i due riferimenti affini Esercizi esplicativi |