Corso di Laurea in Informatica
a.a 2023-2024 - secondo semestre
Diario delle lezioni del corso - da 6 CFU - di
GEOMETRIA ed ALGEBRA
(elencate in ordine cronologico inverso)
DOCENTE: Fabio Gavarini
Tutore: Riccardo Bellé
ORARIO (inizio 6 Marzo)
TUTORATO (inizio 19 Marzo): Martedì h. 11:00-13:00 (aula T7)
BIBLIOGRAFIA:
[A] - Marco Abate, Algebra lineare, McGraw-Hill Libri Italia srl, Milano, 2000
oppure
[AD] - Marco Abate, Chiara De Fabritiis, Geometria analitica con elementi di algebra lineare, McGraw-Hill Libri Italia srl, Milano, 2006
(( N.B.: esistono innumerevoli altri libri, o dispense universitarie, che possono andar bene come supporto - totale o parziale - allo studio del programma trattato in questo corso; in ogni caso, i testi qui indicati saranno quelli a cui il docente farà sempre riferimento, e ai quali si rifanno le indicazioni bibliografiche citate nel presente diario - tra i due, il primo è più corto ma comunque sufficiente - il secondo tratta anche materiale al di là del programma di questo corso ))
Esercizi di Algebra Lineare (C. Carrara) - disponibile on-line
* * * * * * * * *
VENTIQUATTRESIMA LEZIONE - 30 Maggio 2024:
Corollario: Se V ha dimensione n, allora per ogni endomorfismo T di V si ha |Sp(T)| ≤ n . In particolare, se |Sp(T)| = n allora T è diagonalizzabile; precisamente, se v1 , ... , vn sono autovettori con autovalori distinti λ1 , ... , λn , allora {v1 , ... , vn} è base di V per cui T ha matrice diagonale AT = diag(λ1 , ... , λn) .
La molteplicità geometrica di un autovalore.
Teorema: Le seguenti condizioni per un endomorfismo T di V sono equivalenti:
(a) T è diagonalizzabile;
(b) V è la somma degli autospazi di V ;
(c) la dimensione di V è uguale alla somma delle molteplicità geometriche di tutti gli autovalori di T.
Il polinomio caratteristico di una matrice quadrata.
Il polinomio caratteristico pT(x) di un endomorfismo T di uno spazio vettoriale V (di dimensione finita), come polinomio caratteristico pA(x) della matrice A che esprime T rispetto ad una fissata base di V. Indipendenza di pT(x) dalla scelta della base di V (cenni).
Teorema: Se A è una matrice di ordine n, e pA(x) è il suo polinomio caratteristico, allora:
(a) pA(x) ha grado n, e coefficiente direttivo (-1)n .
(b) gli autovalori di A sono le radici del polinomio caratteristico pA(x).
Strategia complessiva per il calcolo degli autovalori, delle molteplicità geometriche e degli autospazi di un operatore lineare, o di una matrice.
FINE del CORSO (seguono soltanto esercitazioni e/o ripasso, a frequenza facoltativa)
Bibliografia: [A] Capitolo 11, paragrafi 1-3 / [AD] Capitolo 13, paragrafi 1-3
VENTITREESIMA LEZIONE - 29 Maggio 2024:
Sottomatrici di una matrice (qualsiasi). Gli orlati di una sottomatrice in una matrice.
Teorema degli Orlati: Per ogni matrice A, il rango di A è r ⇔ esiste una sottomatrice A' di A quadrata di ordine r tale che det(A') ≠ 0 e per ogni sottomatrice A" di A che sia un orlato di A si ha det(A") = 0 .
Autovettori, autovalori, autospazi e spettro di un endomorfismo T di uno spazio vettoriale V.
Lemma: L'autospazio Vλ per T è il nucleo di (T - idV) ; in particolare, è un sottospazio vettoriale di V.
Endomorfismi diagonalizzabili. Un endomorfismo T di V è diagonalizzabile ⇔ esiste una base di V composta tutta da autovettori di V.
Proposizione: Sia T un endomorfismo di V. Allora autovettori di T con autovalori distinti sono linearmente indipendenti.
Bibliografia: [A] Capitolo 9, paragrafo 4; capitolo 11, paragrafo 1 / [AD] Capitolo 9, paragrafo 4; capitolo 13, paragrafo 1
VENTIDUESIMA LEZIONE - 23 Maggio 2024:
Proprietà della funzione determinante rispetto alla somma e alla moltiplicazione per uno scalare.
Teorema di Binet: Date due matrici quadrate A e B dello stesso ordine, si ha det(AB) = det(A) det(B) .
Corollario: Una matrice quadrata è invertibile se e soltanto se ha determinante diverso da zero, e in tal caso si ha det(A-1) = det(A)-1 .
Teorema di Cramer per la formula esplicita della soluzione (unica!) di un sistema lineare quadrato la cui matrice dei coefficienti sia invertibile.
Applicazione del Teorema di Cramer: la formula esplicita per la matrice inversa di una matrice quadrata invertibile.
Esempi di applicazioni del teorema di Cramer e della formula diretta per il calcolo dell'inversa di una matrice invertibile.
Bibliografia: [A] Capitolo 9, paragrafo 3 / [AD] Capitolo 9, paragrafo 3
VENTUNESIMA LEZIONE - 22 Maggio 2024:
Definizione del determinante, come funzione dn da Mn×n(K) a K che goda delle proprietà (1), (2) e (3).
Formula esplicita per il determinante nel caso di matrici diagonali o triangolari.
Teorema di Unicità della funzione determinante: La funzione "determinante", se esiste, è unica.
Proprietà ulteriori del determinante: dn(A) è diverso da 0 ⇔ rg(A) = n ⇔ le righe di A sono linearmente indipendenti ⇔ le colonne di A sono linearmente indipendenti ⇔ A è invertibile.
Sottomatrici e minori (quadrati) di una matrice.
Teorema di Esistenza del determinante, mediante costruzione iterativa tramite lo sviluppo di Laplace per det(A) lungo la prima colonna (senza dimostrazione).
Sviluppi di Laplace per il determinante det(A) lungo una qualsiasi colonna o una qualsiasi riga (senza dimostrazione).
Corollario: det(A) = det(AT )
Cenni sulla complessità delle diverse procedure di calcolo del determinante.
Formula esplicita del determinante per matrici quadrate di ordine n = 1, 2, 3.
Bibliografia: [A] Capitolo 9, paragrafi 1-2 / [AD] Capitolo 9, paragrafi 1-2
VENTESIMA LEZIONE - 16 Maggio 2024:
Sistemi (di equazioni lineari) simultanei. Risoluzione di sistemi simultanei quadrati.
Determinazione dell'invertibilità e calcolo dell'inversa (se esiste) per una matrice quadrata n×n mediante risoluzione di n sistemi simultanei.
Costruzione della funzione determinante: motivazioni, il determinante come "volume n-dimensionale".
Proprietà fondamentali richieste ad una funzione dn da Mn×n(K) a K che faccia da "determinante":
(1) nullità quando due righe sono uguali,
(2) linearità rispetto a ciascuna riga,
(3) dn(In) = 1 .
Proprietà fondamentali di una funzione dn da Mn×n(K) a K che goda delle proprietà (1) e (2): antisimmetria, banalità in caso di righe dipendenti, ecc.
Formula di calcolo di dn(A) tramite riduzione a forma triangolare (mediante eliminazione di Gauss). Calcolo esplicito nel caso di matrici diagonali.
Bibliografia: [A] Capitolo 9, paragrafo 1 / [AD] Capitolo 9, paragrafo 1
DICIANNOVESIMA LEZIONE - 15 Maggio 2024:
L'insieme GLn(K) delle matrici n × n invertibili a coefficienti in K.
Esemoi e controesempi di matrici invertibili.
Proposizione: Siano A e B matrici invertibili in Mn × n(K). Allora:
(a) la matrice inversa A-1 è invertibile, con inversa (A-1)-1 = A ;
(b) la matrice opposta -A è invertibile, con inversa (-A)-1 = -A-1 ;
(c) la matrice trasposta A-T è invertibile, con inversa (A-T)-1 = (A-1)T , che allora denotiamo con A-T ;
(d) la matrice prodotto AB è invertibile, con inversa (AB)-1 = B-1A-1 ;
(e) L'insieme GLn(K) delle matrici n × n invertibili a coefficienti in K è un gruppo rispetto al prodotto righe per colonne.
Teorema (criteri di invertibilità di una matrice quadrata): Sia A una matrice in Mn×n(K). Allora le seguenti condizioni sono equivalenti:
(1) la matrice A è invertibile;
(2) la funzione lineare LA è invertibile;
(3) la funzione lineare LA è iniettiva;
(4) la funzione lineare LA è suriettiva;
(5) rg(A) = n ;
(6) le colonne di A sono linearmente indipendenti;
(7) le righe di A sono linearmente indipendenti;
(8) il sistema lineare omogeneo Ax = 0 ha una e una sola soluzione (che è x = 0);
(9) per ogni b ∈ Kn , il sistema lineare Ax = b ha una e una sola soluzione (che è x = A-1b);
(10) la matrice A è non singolare (cioè, in ogni sua riduzione a forma triangolare - superiore o inferiore - tutti i termini diagonali risultano diversi da zero).
Corollario: Per ogni matrice A in Mn×n(K) si ha
A è invertibile ⇔ esiste una matrice Xs tale che Xs A = In ⇔ esiste una matrice Xd tale che AXd = In .
Inoltre, in tal caso si ha Xd = A-1 = Xs.
Bibliografia: [A] Capitolo 7, paragrafo 3 / [AD] Capitolo 7, paragrafo 3
DICIOTTESIMA LEZIONE - 9 Maggio 2024:
Proprietà notevoli del prodotto righe per colonne: distributività (a sinistra e a destra) rispetto alla somma, omogeneità rispetto alla moltiplicazione per uno scalare.
Richiami sulla relazioni tra matrici e morfismi tra spazi vettoriali (di dimensione finita); la composizione di applicazioni lineari tra spazi vettoriali è a sua volta lineare.
Il prodotto righe per colonne di una matrice l × t (a coefficienti in K) per una matrice t × n corrisponde al prodotto di composizione delle corrispondenti applicazioni da Kt a Kl e da Kn a Kt.
Trasposizione di matrici, matrice trasposta: definizione, proprietà fondamentali della trasposizione (linearità, involutività, antimoltiplicatività).
Rango-righe e rango-colonne di una matrice; relazioni con i rispettivi ranghi della matrice trrasposta.
Proposizione: Rango-righe e rango-colonne di una stessa matrice coincidono, e sono pari al numero di pivot in una qualsiasi riduzione a scala della matrice considerata.
Matrici quadrate invertibili, matrice inversa: definizione, unicità della matrice inversa.
Bibliografia: [A] Capitolo 7; capitolo 5 / [AD] Capitolo 7; capitolo 5
DICIASSETTESIMA LEZIONE - 8 Maggio 2024:
Esistenza di equazioni cartesiane (lineari) per sottospazi vettoriali di Kn.
Procedure di passaggio da equazioni parametriche a equazioni cartesiane e viceversa (per sottospazi vettoriali di Kn): metodo generale, esempi pratici.
Sottospazi affini di uno spazio vettoriale. Equazioni parametriche (lineari) ed equazioni cartesiane (lineari) di un sottospazio affine di Kn: definizione, esistenza, passaggio dalle une alle altre. Esempi pratici.
Il prodotto righe per colonne di una matrice l × t (a coefficienti in K) per una matrice t × n.
Casi notevoli: prodotto righe per colonne per matrici di forma particolare (matrici riga, matrici colonna, matrici quadrate). Prodotto righe per colonne di una matrice l × n a coefficienti in K per una matrice n × 1 (cioè un "vettore colonna" in Kn).
Proprietà notevoli del prodotto righe per colonne: associatività, esistenza delle matrici identità In (per ogni naturale positivo n). Il prodotto righe per conlonne non è commutativo (in generale).
Bibliografia: [A] Capitolo 6, paragrafi 4 e 5; capitolo 7, paragrafo 2 / [AD] Capitolo 6, paragrafi 4 e 5; capitolo 7, paragrafo 2
SEDICESIMA LEZIONE - 2 Maggio 2024:
Applicazioni del metodo di riduzione a scala ai seguenti problemi:
(1) risoluzione dei sistemi lineari;
(2) calcolo di rg(A) e di una base di Im(A) per una qualsiasi matrice A ;
(3) calcolo di Ker(A) e di una base di Ker(A) per una qualsiasi matrice A ;
(4) calcolo di dim(Span(v1,...,vk)) e di una base di Span(v1,...,vk) estratta dall'insieme di generatori {v1,...,vk} ;
(5) completamento di un insieme di vettori {v1,...,vk} linearmente indipendenti in Kn ad una base di Kn stesso.
Esempi di riduzione a scala di una matrice.
Equazioni parametriche ed equazioni cartesiane di sottoinsiemi di Kn: definizione generale, esempi.
Equazioni parametriche lineari ed equazioni cartesiane lineari per sottospazi vettoriali di Kn.
Esistenza di equazioni parametriche lineari per un sottospazio vettoriale di Kn; calcolo esplicito a partire da un sistema di generatori del sottospazio in questione.
Bibliografia: [A] Capitolo 6, paragrafi 1-4 / [AD] Capitolo 6, paragrafi 1-4
QUINDICESIMA LEZIONE - 24 Aprile 2024:
Esempio: Per la funzione lineare T := LA , con A una matrice l×n a coefficienti in K, si ha
(1) Im(LA) = { b ∈ Kl | il sistema lineare Ax=b ammette soluzioni } ,
(2) Ker(LA) = { insieme delle soluzioni (in Kn) del sistema lineare omogeneo Ax=0 } .
Risoluzione dei sistemi lineari a scala di rango r in n variabili, come sistemi in r variabili dipendenti dalle altre (n-r) variabili assunte come parametri liberi.
Algoritmo di riduzione a scala di una matrice (o di un sistema lineare, tramite la sua matrice completa).
Teorema: Sia Ax = b un sistema lineare, e sia Sx = c una sua riduzione a scala. Allora:
(a) la matrice S è una riduzione a scala della matrice A ;
(b) i due sistemi Ax = b e Sx = c sono equivalenti;
(c) Ker(A) = Ker(S) ;
(d) rg(A) = rg(S) =: r (=numero dei pivot di S);
(e) se j1 , ... , jr sono gli indici delle colonne in cui compaiono i pivot di S, allora {A j1 , ... , A jr} è una base di Im(A).
Bibliografia: [A] Capitolo 6, paragrafi 1-2/ [AD] Capitolo 6, paragrafi 1-2
QUATTORDICESIMA LEZIONE - 18 Aprile 2024:
Teorema della Dimensione: Se T è una funzione lineare da V a W, allora dim(Ker(T)) + dim(Im(T)) = dim(V) , o dim(Ker(T)) + rg(T) = dim(V) .
Corollario: Se T è una funzione lineare da V a W, allora
(1) T è suriettiva ⇔ rg(T) = dim(W) ;
(2) T è iniettiva ⇔ rg(T) = dim(V) ;
(3) se dim(V) = dim(W) , allora T è suriettiva ⇔ T è iniettiva ⇔ T è biiettiva.
Teorema di Struttura: (N.B.: la parte (2) è applicazione diretta della parte (1) al caso particolare V := Kn, W := Kl, T := LA , w0 := b , v0 := α )
(1) Sia T una funzione lineare da V a W, sia w0 ∈ W e v0 ∈ T -1(w0) . Allora T -1(w0) = v0 + Ker(T) .
(2) Sia A una matrice l×n a coefficienti in K, sia b ∈ Kl e α ∈ Kn tale che Aα = b . Allora
{ soluzioni del sistema ⊛: Ax = b } = α + { soluzioni del sistema omogeneo (associato) ⊛0: Ax = 0 } .
Teorema di Rouché-Capelli: Un sistema lineare Ax = b ha soluzioni ⇔ rg(A) = rg(A|b) . Inoltre, una tale soluzione (se esiste) è unica ⇔ rg(A) è uguale al numero di incognite del sistema.
Matrici a scala e loro pivot; sistemi lineari a scala.
Lemma: Sia S una matrice a scala, r il numero dei suoi pivot, S j1 , ... , S jr le colonne in cui stanno tali pivot. Allora
(1) {S j1 , ... , S jr} è base di Im(S) , (2) rg(S) = r , (3) Im(S) = { y ∈ Kl | yr+1 = ... = yl = 0 } .
Corollario: Sia S una matrice lxn a scala di rango r, e sia c ∈ Kl . Allora:
(a) il sistema Sx = c ha soluzioni ⇔ cr+1 = ... = cl = 0 ;
(b) dim(Ker(S)) = n-r , in altre parole lo spazio delle soluzioni di un sistema lineare omogeneo a scala ha dimensione pari alla differenza tra il numero n di variabili e il rango r della matrice dei coefficienti.
Bibliografia: [A] Capitolo 5, paragrafi 1-2; Capitolo 6, paragrafo 1 / [AD] Capitolo 5, paragrafi 1-2; Capitolo 6, paragrafo 1
TREDICESIMA LEZIONE - 17 Aprile 2024:
La funzione lineare TA da uno spazio V di dimensione n ad uno spazio W di dimensione l - in termini di basi fissate in V e in W - associata ad una matrice A di forma l×n a coefficienti in K.
La matrice AT di forma l×n a coefficienti in K associata ad una funzione lineare T da uno spazio V di dimensione n ad uno spazio W di dimensione l - in termini di basi fissate in V e in W.
Teorema: Le funzioni Ml,n(K) ⟶ HomK(V,W) , A ↦ TA , e HomK(V,W) ⟶ Ml,n(K) , T ↦ AT , sono isomorfismi di spazi vettoriali, inversi l'uno dell'altro. In particolare, gli spazi vettoriali HomK(V,W) e Ml,n(K) sono isomorfi l'uno all'altro.
L'immagine Im(T) := T(V) e il nucleo Ker(T) := T -1(0W) di una funzione lineare T da V a W.
Proposizione: Se T è una funzione lineare da V a W, V' ≤ V e W' ≤ W, allora T(V') ≤ W e T -1(W') ≤ V. Inoltre, si ha T(V') ⊆ Im(T) e T -1(W') ⊇ Ker(T) .
Proposizione: Se T è una funzione lineare da V a W, allora
(a) T è suriettiva ⇔ Im(T) = W ,
(b) T è iniettiva ⇔ Ker(T) = {0V} .
(c) T è costante (di valore pari a 0W) ⇔ Ker(T) = V .
Lemma: Se T è una funzione lineare da V a W, e V è generato dai vettori v1 , ... , vn , allora Im(T) è generato dai vettori T(v1) , ... , T(vn) .
Il rango rg(T) di una funzione lineare T . Il rango di una matrice A, definito come rg(A) := rg(TA) .
Proposizione: Se T è una funzione lineare da V a W, allora
(a) se dim(V) = n , allora rg(T) ≤ n ;
(b) se dim(W) = l , allora rg(T) ≤ l ;
(c) se dim(V) = n e dim(W) = l , allora rg(T) ≤ min(l,n) ;
(d) se A è una matrice di forma l × n , allora rg(A) ≤ min(l,n) .
Bibliografia: [A] Capitolo 5, paragrafi 1-2; Capitolo 7, paragrafo 1 / [AD] Capitolo 5, paragrafi 1-2; Capitolo 7, paragrafo 1
DODICESIMA LEZIONE - 11 Aprile 2024:
Funzioni lineari (o "trasformazioni lineari", o "(omo)morfismi") tra spazi vettoriali; esempi, controesempi, proprietà elementari.
La funzione σv1,...,vn (che produce le combinazioni lineari dei vettori v1 , ... , vn in V) è lineare. La funzione LA da Kn a Kl associata ad una matrice A di taglia l×n è lineare.
Esercizio: l'insieme HomK(V,W) di tutte le funzioni lineari da V a W è sottospazio vettoriale dello spazio vettoriale WV di tutte le funzioni da V a W.
Lemma: La composizione di funzioni lineari è a sua volta lineare.
Isomorfismi tra spazi vettoriali; spazi vettoriali isomorfi.
Lemma: L'applicazione inversa di un isomorfismo tra spazi vettoriali è a sua volta un isomorfismo.
Proposizione: Esiste 1! funzione lineare che assuma valori prefissati (arbitrariamente) sui vettori di una base assegnata. In particolare, se due funzioni lineari da V a W coincidono su una base di V allora esse sono uguali.
Proposizione: Date due matrici A' e A" della stessa forma l×n, e dette LA' e LA" le corrispondenti funzioni lineari da Kn a Kl, si ha LA' = LA" ⇔ A' = A" .
Bibliografia: [A] Capitolo 5, paragrafo 1 / [AD] Capitolo 5, paragrafo 1
UNDICESIMA LEZIONE - 10 Aprile 2024:
L'Algoritmo di Eliminazione (o "di Triangolarizzazione") di Gauss (=E.G.) per matrici quadrate e per sistemi lineari quadrati.
I pivot di una matrice quadrata. Matrici singolari, matrici non singolari.
Proposizione: L'algoritmo di E.G. trasforma un sistema quadrato in uno triangolare (superiore/inferiore) equivalente.
Teorema: Un sistema lineare quadrato ha una e una sola soluzione ⇔ i pivot della sua matrice dei coefficienti sono tutti diversi da zero ⇔ la sua matrice dei coefficienti è non singolare.
Sistemi lineari simultanei. Risoluzione di sistemi simultanei quadrati tramite l'algoritmo di E.G.: strategia, esempi espliciti.
Applicazioni dell'E.G.: Un insieme di n vettori in Kn è una base ⇔ la matrice quadrata che ha per colonne tali vettori è non singolare.
Bibliografia: [A] Capitolo 3, paragrafo 3 / [AD] Capitolo 3, paragrafo 3
DECIMA LEZIONE - 4 Aprile 2024:
Sistemi di equazioni lineari: generalità, formalismo matriciale. Sistemi lineari equivalenti.
Matrici quadrate, matrici triangolari (superiori o inferiori); sistemi quadrati, sistemi triangolari (superiori o inferiori). Esempi di risoluzione di un sistema triangolare.
Proposizione: Per un sistema lineare triangolare, esiste una e una sola soluzione ⇔ i termini diagonali della matrice dei coefficienti sono tutti non nulli.
Algoritmo generale di risoluzione di un sistema lineare triangolare.
Operazioni elementari sui sistemi lineari (e sulle matrici).
Proposizione: Ogni operazione elementare trasforma un sistema in un altro equivalente al primo.
Bibliografia: [A] Capitolo 3, paragrafi 1, 2, 3 / [AD] Capitolo 3, paragrafi 1, 2, 3
NONA LEZIONE - 3 Aprile 2024:
Teorema (del Completamento / di Scambio): Sia B = {v1 , ... , vn} una base di uno spazio vettoriale V, e sia L = {w1 , ... , wp} (con p ≤ n) un insieme di vettori linearmente indipendenti in V. Allora esistono vettori vi1 , ... , vin-p in B tali che {w1 , ... , wp , ... , vi1 , ... , vin-p} sia una base di V.
Corollario (equicardinalità delle basi): Tutte le basi di uno stesso spazio vettoriale hanno lo stesso numero di elementi.
Definizione: Se uno spazio vettoriale V ha una base (finita), si dice dimensione di V il numero di elementi di una sua qualunque base.
Corollario: Sia dim(V) = n . Allora:
(a) se q vettori sono linearmente indipendenti, allora è necessariamente q ≤ n ;
(b) se p > n , allora p vettori in V sono sempre linearmente dipendenti;
(c) n qualsiansi vettori linearmente indipendenti di V formano una base di V.
(d) n qualsiansi vettori di V che generino tutto V formano una base di V.
Proposizione: In uno spazio vettoriale V di dimensione finita, per ogni sottospazio W si ha:
(a) W ha dimensione finita, e si ha dim(W) ≤ dim(V) ;
(b) dim(W) = dim(V) ⇔ W = V .
Bibliografia: [A] Capitolo 4, paragrafo 4 / [AD] Capitolo 4, paragrafo 4
OTTAVA LEZIONE - 28 Marzo 2024:
Sottoinsiemi massimali di vettori linearmente indipendenti (in uno spazio vettoriale).
Proposizione: Un insieme (finito) di vettori B di V è base ⇔ B è insieme massimale di vettori indipendenti in V.
Sistemi minimali di generatori (di V).
Esercizio (per casa): Un insieme (finito) di vettori B di V è base ⇔ B è sistema minimale di generatori di V.
Lemma: Se Span(B) contiene un sistema di generatori di V, allora B stesso è a sua volta un sistema di generatori di V.
Proposizione: Se A è un sistema finito di generatori di V e B è un sottoinsieme massimale in A di vettori linearmente indipendenti, allora B stesso è una base di V.
Teorema (esistenza delle basi): Se V ha un sistema (finito) di generatori di V, allora esiste una base (finita) di V.
Esercizi varî sulle combinazioni lineari e sulla (in)-dipendenza lineare di vettori in V := Kn.
Bibliografia: [A] Capitolo 4, paragrafo 4 / [AD] Capitolo 4, paragrafo 4
SETTIMA LEZIONE - 27 Marzo 2024:
Dipendenza e indipendenza lineare di vettori in uno spazio vettoriale: definizione, casi speciali.
Proposizione: I vettori v1 , ... , vn sono linearmente indipendenti ⇔ uno di tali vettori può essere espresso come combinazione lineare degli altri.
Applicazione: Un sistema lineare ha al più una soluzione ⇔ le colonne della matrice dei coefficienti sono linearmente indipendenti.
Proposizione: I vettori v1 , ... , vn sono linearmente indipendenti ⇔ la funzione σv1,...,vn è iniettiva.
Base (finita) di uno spazio vettoriale: definizione, esempi, controesempi. La base canonica in Kn; la base "canonica" nello spazio k[x]≤ d dei polinomi di grado al più d.
Coordinate di un vettore rispetto a una base fissata.
Proposizione: I vettori v1 , ... , vn formano una base ⇔ la funzione σv1,...,vn è biiettiva.
Bibliografia: [A] Capitolo 4, paragrafo 3 / [AD] Capitolo 4, paragrafo 3
SESTA LEZIONE - 21 Marzo 2024:
Esempi di sottospazi vettoriali:
(1) le funzioni derivabili nell'intervallo (a,b) formano un sottospazio vettoriale dello spazio C0(a,b) delle funzioni continue (e quindi anche dello spazio R(a,b) di tutte le funzioni reali),
(2) il sottospazio Conv(R) delle successioni convergenti (nello spazio vettoriale RN di tutte le successioni reali),
(3) il sottospazio Inf(R) - in Conv(R) - delle successioni infinitesime,
(4) i sottospazi dei polinomi di grado limitato (nello spazio vettoriale K[x] di tutti i polinomi in x a coefficienti nel campo K).
Controesempio di sottospazio vettoriale: l'insieme delle successioni divergenti non è un sottospazio vettoriale dello spazio RN di tutte le successioni (reali).
Proposizione: Ogni sottospazio vettoriale W di uno spazio vettoriale V è a sua volta uno spazio vettoriale rispetto alla restrizione a W delle operazioni di V.
Combinazione lineare di n vettori in uno spazio vettoriale. L'applicazione σv1,...,vn da Kn a V che associa a ogni stringa di scalari la combinazione lineare dei vettori v1 , ... , vn con coefficienti quegli stessi scalari.
Lemma: L'insieme Span(v1 , ... , vn) di tutte le combinazioni lineari dei vettori v1 , ... , vn in V - cioè l'immagine della funzione σv1,...,vn - è un sottospazio vettoriale di V, detto "sottospazio generato da v1 , ... , vn".
Sistemi di generatori di uno spazio vettoriale V: i vettori v1 , ... , vn formano un sistema di generatori di V se Span(v1 , ... , vn) = V .
Sistemi di equazioni lineari (o "sistemi lineari"); caso generale, caso omogeneo. Formalismo matriciale.
Fatti: (1) L'insieme delle soluzioni di un sistema omogeneo in n incognite è un sottospazio vettoriale dello spazio vettoriale Kn.
(2) Un sistema lineare ha soluzioni ⇔ la colonna dei termini noti del sistema appartiene al sottospazio generato dalle colonne della matrice dei coefficienti.
Bibliografia: [A] Capitolo 4, paragrafi 1-2 / [AD] Capitolo 4, paragrafi 1-2
QUINTA LEZIONE - 20 Marzo 2019:
I campi; definizione, esempi finiti, esempi infiniti, controesempi.
Spazi vettoriali su un campo.
Esempi di spazi vettoriali:
(1) lo spazio VO dei vettori applicati in un punto O (della retta, del piano o dello spazio);
(2) ogni campo è spazio vettoriale su sé stesso;
(3) se K è un campo, ogni prodotto cartesiano V := Kn è spazio vettoriale su K rispetto alla somma componente per componente e al prodotto che moltiplica uno scalare per ciascuna componente di una n-pla;
(4) lo spazio vettoriale VE di tutte le funzioni da un insieme E a uno spazio vettoriale V.
Sottospazi vettoriali di uno spazio vettoriale.
Esempio di sottospazio vettoriale: le funzioni reali continue nell'intervallo reale (a,b) formano un sottospazio vettoriale C0(a,b) dello spazio vettoriale R(a,b) di tutte le funzioni reali definite nell'intervallo (a,b).
Bibliografia: [A] Capitolo 4, paragrafo 1 / [AD] Capitolo 4, paragrafo 1
QUARTA LEZIONE - 14 Marzo 2024:
Contenuto della lezione:
Coordinate di un vettore e/o di un punto rispetto a un riferimento affine fissato.
Trasformazione delle coordinate rispetto alle operazioni sui vettori: le operazioni tra vettori (addizione e moltiplicazione per uno scalare) corrispondono ad analoghe operazioni tra le coordinate dei vettori.
Equazioni parametriche di una retta (nel piano o nello spazio) e di un piano (nello spazio).
Esercizi varî su rette e piani nello spazio, mediante uso di equazioni parametriche: questioni di parallelismo, incidenza, inclusione, etc.
Bibliografia: [A] Capitolo 2, esercizi / [AD] Capitolo 2, esercizi
TERZA LEZIONE - 13 Marzo 2024:
Contenuto della lezione:
Equazione vettoriale di una retta, nel piano o nello spazio; vettore direttore di una retta. Equazione vettoriale della retta per due punti distinti.
Equazione vettoriale di un piano nello spazio; vettori di giacitura di un piano. Equazione vettoriale del piano per tre punti non allineati.
Condizioni di parallelismo o incidenza tra due rette nel piano in termini di equazioni vettoriali. Condizioni di complanarità (parallelismo o incidenza) o di sghembità tra due rette nello spazio in termini di equazioni vettoriali. Calcolo del punto di intersezione tra due rette (nel caso in cui esista).
Condizioni di parallelismo, incidenza, o inclusione tra retta e piano (nello spazio euclideo) in termini di equazioni vettoriali. Calcolo del punto di intersezione (nel caso in cui esista).
Bibliografia: [A] Capitolo 2, paragrafi 2-3 / [AD] Capitolo 2, paragrafi 2-3
SECONDA LEZIONE - 7 Marzo 2024:
Contenuto della lezione:
Proprietà fondamentali della somma tra vettori (lo spazio dei vettori orientati con la somma è un gruppo commutativo).
La moltiplicazione di un vettore applicato per un numero reale: definizione e proprietà fondamentali.
Riferimenti affini (nella retta, nel piano e nello spazio): coordinate di un vettore - o di un punto - relative a un riferimento affine.
Bibliografia: [A] Capitolo 2, paragrafi 1-3 / [AD] Capitolo 2, paragrafi 1-3
PRIMA LEZIONE - 6 Marzo 2024:
Contenuto della lezione:
Considerazioni generali sul corso, modalità d'esame, ecc.
Richiami di geometria euclidea: punti, rette, piani, spazio. Inclusione, intersezione, parallelismo tra tali enti; rette complanari, rette sghembe.
Vettori (orientati) applicati in un punto - nella retta, nel piano, nello spazio.
L'operazione di somma tra vettori applicati.
Bibliografia:
[A] Capitolo 1 - Capitolo 2, paragrafo 1 / [AD] Capitolo 1 - Capitolo 2, paragrafo 1