Diario delle lezioni di Geometria ed Algebra (C.d.L. Informatica) - a.a. 2018-19

Corso di Laurea in Informatica
a.a 2018-2019 - secondo semestre

Diario delle lezioni del corso - da 6 CFU - di

GEOMETRIA ed ALGEBRA

(elencate in ordine cronologico inverso)

DOCENTE:   Fabio Gavarini

ORARIO

Giovedì h. 11:00-13:00   -   Venerdì h. 11:00-13:00

TUTORATO (a cura di Paolo Marafini):   Mercoledì h. 11:00-13:00






PROGRAMMA MOV-NEW PROGRAMMA MOV-NEW PROGRAMMA



BIBLIOGRAFIA:
[A] - Marco Abate, Algebra lineare, McGraw-Hill Libri Italia srl, Milano, 2000
oppure
[AD] - Marco Abate, Chiara De Fabritiis, Geometria analitica con elementi di algebra lineare, McGraw-Hill Libri Italia srl, Milano, 2006

(( N.B.: esistono innumerevoli altri libri, o dispense universitarie, che possono andar bene come supporto - totale o parziale - allo studio del programma trattato in questo corso; in ogni caso, i testi qui indicati saranno quelli a cui il docente farà sempre riferimento, e ai quali si rifanno le indicazioni bibliografiche citate nel presente diario - tra i due, il primo è più corto ma comunque sufficiente - il secondo tratta anche materiale al di là del programma di questo corso ))



                * * *                 * * *                 * * *                

fine pagina )

VENTOTTESIMA LEZIONE - 14 Giugno 2019:
    Esercizi varî su:
      - equazioni parametriche ed equazioni cartesiane di rette e piani nello spazio;
      - iniettività, suriettività, biiettività della funzione lineare associata ad una matrice quadrata;
      - polinomio caratteristico e autovalori di una matrice quadrata;
      - diagonalizzabilità di una matrice quadrata;
      - matrici invertibili, calcolo della matrice inversa (in più modi diversi).
  MOV-BULL FINE del CORSO MOV-BULL
        Bibliografia:   [A] Capitoli 2, 4, 5, 6, 7, 11 / [AD] Capitoli 2, 4, 6, 7, 9, 10, 13

VENTISETTESIMA LEZIONE - 13 Giugno 2019:
    Esercizi varî su:
      - prodotto righe per colonne tra matrici;
      - calcolo di autovalori;
      - riduzione a scala di matrici;
      - risoluzione di sistemi di equazioni lineari;
      - estrazione di una base da un insieme di generatori di uno spazio vettoriale;
      - equazioni parametriche di rette e piani nello spazio.
        Bibliografia:   [A] Capitoli 2, 4, 6, 7, 11 / [AD] Capitoli 2, 4, 6, 7, 10, 13

VENTISEIESIMA LEZIONE - 7 Giugno 2019:
    Esercizi varî su:
      - calcolo di autovalori;
      - calcolo della molteplicità geometrica di un autovalore;
      - analisi della diagonalizzabilità di una matrice;
      - calcolo dell'autospazio associato ad un autovalore;
      - calcolo di una base diagonalizzante per una matrice diagonalizzabile.
        Bibliografia:   [A] Capitolo 11 / [AD] Capitolo 13

VENTICINQUESIMA LEZIONE - 6 Giugno 2019:
    La molteplicità geometrica di un autovalore.
    Teorema:   Le seguenti condizioni per un endomorfismo T di V sono equivalenti:
        (a) T è diagonalizzabile;
        (b) V è la somma degli autospazi di V ;
        (c) la dimensione di V è uguale alla somma delle molteplicità geometriche di tutti gli autovalori di T.
    Il polinomio caratteristico di una matrice quadrata.
    Il polinomio caratteristico pT(x) di un endomorfismo T di uno spazio vettoriale V (di dimensione finita), come polinomio caratteristico pA(x) della matrice A che esprime T rispetto ad una fissata base di V. Indipendenza di pT(x) dalla scelta della base di V.
    Teorema:   Se A è una matrice di ordine n, e pA(x) è il suo polinomio caratteristico, allora:
        (a) pA(x) ha grado n, e coefficiente direttivo (-1)n .
        (b) gli autovalori di A sono le radici del polinomio caratteristico pA(x).
    Strategia complessiva per il calcolo degli autovalori, delle molteplicità geometriche e degli autospazi di un operatore lineare, o di una matrice.
  MOV-BULL   FINE del PROGRAMMA (seguono soltanto esercitazioni e/o ripasso)
        Bibliografia:   [A] Capitolo 11, paragrafi 2-3 / [AD] Capitolo 13, paragrafi 2-3

VENTIQUATTRESIMA LEZIONE - 31 Maggio 2019:
    Soluzione di un sistema lineare quadrato tramite l'uso della matrice inversa - esistenza e unicità della soluzione (se tale inversa esiste).
    Algoritmo di calcolo della soluzione di un sistema quadrato non singolare, tramite E.G. nei due sensi.
    Algoritmo di calcolo dell'inversa A-1 di una matrice invertibile A di ordine n tramite risoluzione - mediante E.G. nei due sensi - di n sistemi lineari simultanei con A come matrice dei coefficienti.
    Autovettori, autovalori, autospazi e spettro di un endomorfismo T di uno spazio vettoriale V.
    L'autospazio Vλ per T è il nucleo di (T - idV) , e quindi è sottospazio vettoriale di V.
    Endomorfismi diagonalizzabili. Un endomorfismo è diagonalizzabile ⇔ esiste una base di autovettori.
    Proposizione:   Sia T un endomorfismo di V, con spettro Sp(T), e n = dim(V) . Allora autovettori di T con autovalori distinti sono linearmente indipendenti; in particolare |Sp(T)| ≤ n . Se v1 , ... , vn sono autovettori con autovalori distinti λ1 , ... , λn , allora {v1 , ... , vn} è base di V per cui T ha matrice diagonale AT = diag1 , ... , λn) .
        Bibliografia:   [A] Capitolo 7, paragrafo 3; capitolo 11, paragrafo 1 / [AD] Capitolo 7, paragrafo 3; capitolo 13, paragrafo 1

VENTITREESIMA LEZIONE - 30 Maggio 2019:
    Teorema di Cramer per la formula esplicita della soluzione (unica!) di un sistema lineare quadrato la cui matrice dei coefficienti sia invertibile.
    Applicazione del Teorema di Cramer : la formula esplicita per la matrice inversa di una matrice quadrata invertibile.
    Sottomatrici di una matrice (qualsiasi). Gli orlati di una sottomatrice in una matrice.
    Teorema degli Orlati:   Per ogni matrice A, il rango di A è r ⇔ esiste una sottomatrice A' di A quadrata di ordine r tale che det(A') ≠ 0 e per ogni sottomatrice A" di A che sia un orlato di A si ha det(A") = 0 .
        Bibliografia:   [A] Capitolo 9, paragrafi 3-4 / [AD] Capitolo 9, paragrafi 3-4

VENTIDUESIMA LEZIONE - 24 Maggio 2019:
    Proprietà ulteriori del determinante:   dn(A) = 0 ⇔ rg(A) < nA non è invertibile.
    Sottomatrici e minori (quadrati) di una matrice.
    Teorema di Esistenza del determinante, mediante costruzione iterativa tramite lo sviluppo di Laplace per det(A) lungo la prima colonna (senza dimostrazione).
    Sviluppi di Laplace per il determinante det(A) lungo una qualsiasi colonna o una qualsiasi riga (senza dimostrazione).
    Corollario:   det(A) = det(AT )
    Formula esplicita del determinante per matrici quadrate di ordine n = 1, 2, 3.
    Proprietà della funzione determinante rispetto alla somma e alla moltiplicazione per uno scalare.
    Teorema di Binet: Date due matrici quadrate A e B dello stesso ordine, si ha   det(AB) = det(A) det(B)     (cenni di dimostrazione).
    Corollario: Una matrice quadrata è invertibile se e soltanto se ha determinante diverso da zero, e in tal caso si ha   det(A-1) = det(A)-1 .
        Bibliografia:   [A] Capitolo 9, paragrafi 2-3 / [AD] Capitolo 9, paragrafi 2-3

VENTUNESIMA LEZIONE - 23 Maggio 2019:
    Costruzione della funzione determinante: motivazioni, il determinante come "volume".
    Proprietà fondamentali richieste ad una funzione dn da Mnxn(K) a K che faccia da "determinante":
        (1)   nullità quando due righe sono uguali,
        (2)   linearità rispetto a ciascuna riga,
        (3)   dn(In) = 1 .
    Proprietà fondamentali di una funzione dn da Mnxn(K) a K che goda delle proprietà (1) e (2): antisimmetria, banalità in caso di righe dipendenti, ecc.
    Formula di calcolo di dn(A) tramite riduzione a forma triangolare (mediante eliminazione di Gauss).
    Definizione del determinante, come funzione dn da Mnxn(K) a K che goda delle proprietà (1), (2) e (3).
    Formula esplicita per il determinante nel caso di matrici diagonali o triangolari.
    Teorema di Unicità della funzione determinante: Se esiste una funzione dn da Mnxn(K) a K (chiamata "determinante") che goda delle proprietà (1), (2) e (3), allora essa è unica.
        Bibliografia:   [A] Capitolo 9, paragrafo 1 / [AD] Capitolo 9, paragrafo 1

VENTESIMA LEZIONE - 17 Maggio 2019:
    Matrici quadrate invertibili, matrice inversa: definizione, unicità, esempi e controesempi. L'insieme GLn(K) delle matrici n × n invertibili a coefficienti in K.
    Proposizione: Siano A e B matrici invertibili in Mn × n(K). Allora:
        (a) la matrice inversa A-1 è invertibile, con inversa (A-1)-1 = A ;
        (b) la matrice opposta -A è invertibile, con inversa (-A)-1 = -A-1 ;
        (c) la matrice trasposta A-T è invertibile, con inversa (A-T)-1 = (A-1)T , che allora denotiamo con A-T ;
        (d) la matrice prodotto AB è invertibile, con inversa (AB)-1 = B-1A-1 .
    Teorema (criteri di invertibilità di una matrice quadrata): Sia A una matrice in Mn × n(K). Allora le seguenti condizioni sono equivalenti:
        (1)   la matrice A è invertibile;
        (2)   la funzione lineare LA è invertibile;
        (3)   la funzione lineare LA è iniettiva;
        (4)   la funzione lineare LA è suriettiva;
        (5)     rg(A) = n ;
        (6)   le colonne di A sono linearmente indipendenti;
        (7)   le righe di A sono linearmente indipendenti;
        (8)   il sistema lineare omogeneo   Ax = 0   ha una e una sola soluzione (che è x = 0);
        (9)   per ogni b ∈ Kn , il sistema lineare   Ax = b   ha una e una sola soluzione (che è x = A-1b);
        (10)   la matrice A è non singolare.
    Corollario: Per ogni matrice A in Mn × n(K) si ha
        A è invertibile ⇔ esiste una matrice Xs tale che Xs A = In ⇔ esiste una matrice Xd tale che AXd = In .
      Inoltre, in tal caso si ha   Xd = A-1 = Xs.
        Bibliografia:   [A] Capitolo 7, paragrafo 3 / [AD] Capitolo 7, paragrafo 3

DICIANNOVESIMA LEZIONE - 16 Maggio 2019:
    Richiami sul prodotto di composizione tra funzioni e sue proprietà.
    Esercizio: La composizione di applicazioni lineari tra spazi vettoriali è a sua volta lineare.
    Il prodotto righe per colonne di una matrice l × t (a coefficienti in K) per una matrice t × n - costruzione (=definizione) di tale prodotto come corrispondente al prodotto di composizione di applicazioni lineari.
    Proprietà notevoli del prodotto righe per colonne. Casi notevoli del prodotto righe per colonne per matrici di forma particolare (matrici riga, matrici colonna, matrici triangolari). Prodotto righe per colonne di una matrice l × n a coefficienti in K per una matrice n × 1 (cioè un vettore colonna in Kn). Le matrici identità In (per ogni naturale positivo n).
    Matrici l × n coefficienti in K e applicazioni lineari da Kn a Kl - descrizione dell'applicazione tramite il prodotto della matrice per un vettore colonna.
    Trasposizione di matrici, matrice trasposta: definizione, proprietà fondamentali della trasposizione (linearità, involutività, antimoltiplicatività).
    Rango-righe e rango-colonne di una matrice; uguaglianza tra i due ranghi, tramite uguaglianza col numero di pivot in una qualsiasi riduzione a scala (cenni).
        Bibliografia:   [A] Capitolo 7, paragrafo 2; capitolo 5, paragrafi 1-2 / [AD] Capitolo 7, paragrafo 2; capitolo 5, paragrafi 1-2

DICIOTTESIMA LEZIONE - 10 Maggio 2019:
    Sottospazi affini di uno spazio vettoriale. Equazioni parametriche (lineari) ed equazioni cartesiane (lineari) di un sottospazio affine di Kn: definizione, esistenza, passaggio dalle une alle altre.
    Esempi ed esercizi sui sottospazi affini (in Kn), loro equazioni parametriche (lineari) e loro equazioni cartesiane (lineari).
    Esercizi sulla discussione e la risoluzione di sistemi lineari dipendenti da un parametro, tramite riduzione a scala e risoluzione all'indietro.
    Esercizi sulle proprietà (indipendenza o dipendenza lineare, dimensione del sottospazio generato) di insiemi di vettori (in Kn) dipendenti da un parametro, tramite analisi della matrice di cui essi siano le colonne.
        Bibliografia:   [A] Capitolo 6, paragrafo 5 / [AD] Capitolo 6, paragrafo 4; capitolo 10 (per complementi varî)

DICIASSETTESIMA LEZIONE - 9 Maggio 2019:
    Equazioni parametriche (=parametrizzazioni) ed equazioni cartesiane di sottoinsiemi di Kn: definizione generale, esempi.
    Equazioni parametriche (=parametrizzazioni) lineari ed equazioni cartesiane lineari per sottospazi vettoriali di Kn.
    Esistenza di equazioni parametriche (lineari) e di equazioni cartesiane (lineari) per sottospazi vettoriali di Kn, e procedure di passaggio dalle une alle altre.
    Esempi di equazioni parametriche (lineari) e di equazioni cartesiane (lineari) per sottospazi vettoriali di Kn, e di passaggio dalle une alle altre.
        Bibliografia:   [A] Capitolo 6, paragrafo 4 / [AD] Capitolo 6, paragrafo 4

SEDICESIMA LEZIONE - 3 Maggio 2019:
    Algoritmo di riduzione a scala di una matrice (o di un sistema lineare, tramite la sua matrice completa).
    Teorema: Sia Ax = b un sistema lineare, e sia Sx = c una sua riduzione a scala. Allora:
        (a) la matrice S è una riduzione a scala della matrice A ;
        (b) i due sistemi Ax = b e Sx = c sono equivalenti;
        (c)   Ker(A) = Ker(S) ;
        (d)   rg(A) = rg(S) =: r (=numero dei pivot di S);
        (e) se j1 , ... , jr sono gli indici delle colonne in cui compaiono i pivot di S, allora {A j1 , ... , A jr} è una base di Im(A).
    Applicazioni del metodo di riduzione a scala ai seguenti problemi:
        (1) risoluzione dei sistemi lineari;
        (2) calcolo di rg(A) e di una base di Im(A) per una qualsiasi matrice A ;
        (3) calcolo di Ker(A) e di una base di Ker(A) per una qualsiasi matrice A ;
        (4) calcolo di dim(Span(v1,...,vk)) e di una base di Span(v1,...,vk) estratta dall'insieme di generatori {v1,...,vk} ;
        (5) completamento di un insieme di vettori {v1,...,vk} linearmente indipendenti in Kn ad una base di Kn stesso.
    Esempi di riduzione a scala di una matrice.
        Bibliografia:   [A] Capitolo 6, paragrafi 1-3 / [AD] Capitolo 6, paragrafi 1-3

QUINDICESIMA LEZIONE - 2 Maggio 2019:
    Teorema di Rouché-Capelli: Un sistema lineare Ax = b ha soluzioni   ⇔   rg(A) = rg(A|b) .   Inoltre, una tale soluzione (se esiste) è unica   ⇔   rg(A) è uguale al numero di incognite del sistema.
    Matrici a scala e loro pivot; sistemi lineari a scala.
    Lemma: Sia S una matrice a scala, r il numero dei suoi pivot, S j1 , ... , S jr le colonne in cui stanno tali pivot. Allora {S j1 , ... , S jr} è base di Im(S), rg(S) = r, e infine Im(S) = { xKl | xr+1 = ... = xl = 0 } .
    Corollario: Sia S una matrice lxn a scala di rango r, e sia cKl . Allora
        (a)   il sistema Sx = c ha soluzioni   ⇔   cr+1 = ... = cl = 0 ;
        (b)   dim(Ker(S)) = n-r ,   in altre parole lo spazio delle soluzioni di un sistema lineare omogeneo a scala ha dimensione pari alla differenza tra il numero n di variabili e il rango r della matrice dei coefficienti.
    Risoluzione dei sistemi lineari a scala di rango r in n variabili, come sistemi in r variabili dipendenti dalle altre (n-r) variabili assunte come parametri liberi.
        Bibliografia:   [A] Capitolo 5, paragrafo 2 - Capitolo 6, paragrafo 1 / [AD] Capitolo 5, paragrafo 2 - Capitolo 6, paragrafo 1

QUATTORDICESIMA LEZIONE - 19 Aprile 2019:
    Proposizione: Se f è una funzione lineare da V a W,   V'V   e   W'W, allora   f(V') ≤ W   e   f  -1(W') ≤ V.
    L'immagine   Im(f) := f(V)   e il nucleo   Ker(f) := f  -1(0W)   di una funzione lineare da V a W.
    Esempio: Se   f = LA   con A una matrice l×n a coefficienti in K, allora
        (I)   Im(LA) = { bKl | il sistema lineare Ax=b ammette soluzioni } ,
        (II)   Ker(LA) = { insieme delle soluzioni (in Kn) del sistema lineare omogeneo Ax=0 } .
    Proposizione: Se f è una funzione lineare da V a W, allora
      (a)   f è suriettiva   ⇔   Im(f) = W ,
      (b)   f è iniettiva   ⇔   Ker(f) = {0V} .
    Lemma: Se f è una funzione lineare da V a W, e V è generato dai vettori v1 , ... , vn , allora Im(f) è generato dai vettori f(v1) , ... , f(vn) .
    Il rango rg(f) di una funzione lineare f . Il rango di una matrice.
    Teorema della Dimensione: Se f è una funzione lineare da V a W, allora   dim(Ker(f)) + dim(Im(f)) = dim(V) ,   o   dim(Ker(f)) + rg(f) = dim(V) .
    Corollario: Se f è una funzione lineare da V a W, allora
        (1)   f è suriettiva ⇔ rg(f) = dim(W) ;
        (2)   f è iniettiva ⇔ rg(f) = dim(V) ;
        (3)   se   dim(V) = dim(W) ,   allora   f è suriettiva ⇔ f è iniettiva ⇔ f è biiettiva.
    Teorema di Struttura:   (N.B.: la parte (2) è applicazione diretta della parte (1) al caso particolare   V := Kn, W := Kl, T := LA , w0 := b , v0 := α )
        (1) Sia T una funzione lineare da V a W, sia   w0W e v0T  -1(w0) .   Allora   T  -1(w0) = v0 + Ker(T) .
        (2) Sia A una matrice l×n a coefficienti in K, sia bKl e αKn tale che Aα = b .   Allora   { soluzioni del sistema Ax = b } = α + { soluzioni del sistema omogeneo Ax = 0 } .
        Bibliografia:   [A] Capitolo 5, paragrafi 1-2 / [AD] Capitolo 5, paragrafi 1-2

TREDICESIMA LEZIONE - 18 Aprile 2019:
    Esercizio: se   h : VW   e   k : WU   sono funzioni lineari tra spazi vettoriali, allora anche la loro composizione   k ∘ h : VU   è lineare.
    Proposizione: Dati due spazi vettoriali V e W e una base BV in V, esiste una e una sola funzione lineare da V a W con valori preassegnati su BV.
    Corollario: Dati due spazi vettoriali V e W e una base BV in V, se due funzioni lineari da V a W assumono gli stessi valori sui vettori della base BV allora esse coincidono (su tutto lo spazio V).
    Proposizione: Date due matrici A' e A" di taglia l×n, e dette LA' e LA" le corrispondenti funzioni lineari da Kn a Kl, si ha   LA' = LA"A' = A" .
    La funzione lineare LA da uno spazio V di dimensione n ad uno spazio W di dimensione l - in termini di basi fissate in V e in W - associata ad una matrice A di forma l×n a coefficienti in K.
    La matrice AL di forma l×n a coefficienti in K associata ad una funzione lineare da uno spazio V di dimensione n ad uno spazio W di dimensione l - in termini di basi fissate in V e in W.
    Teorema: Le funzioni Ml,n(K) ⟶ HomK(V,W) , ALA ,   e   HomK(V,W) ⟶ Ml,n(K) , LAL ,   sono isomorfismi di spazi vettoriali, inversi l'uno dell'altro.
        Bibliografia:   [A] Capitolo 5, paragrafo 1 / [AD] Capitolo 5, paragrafo 1

DODICESIMA LEZIONE - 12 Aprile 2019:
    Sistemi lineari simultanei. Risoluzione di sistemi simultanei tramite l'algoritmo di E.G.: strategia, esempi espliciti.
    Applicazioni dell'E.G.: Un insieme di n vettori in Kn è una base ⇔ la matrice quadrata che ha per colonne tali vettori è non singolare.
    Funzioni lineari (o "trasformazioni lineari", o "(omo)morfismi") tra spazi vettoriali; esempi, controesempi.
    La funzione σv1,...,vn (che produce le combinazioni lineari dei vettori v1 , ... , vn in V) è lineare. La funzione LA da Kn a Kl associata ad una matrice A di taglia l×n è lineare.
    Proprietà elementari delle funzioni lineari. Isomorfismi tra spazi vettoriali.
    Lemma: L'applicazione inversa di un isomorfismo tra spazi vettoriali è a sua volta un isomorfismo.
    Esercizio: l'insieme HomK(V,W) di tutte le funzioni lineari da V a W è sottospazio vettoriale dello spazio vettoriale WV di tutte le funzioni da V a W.
        Bibliografia:   [A] Capitolo 3, paragrafo 3 - Capitolo 5, paragrafo 1 / [AD] Capitolo 3, paragrafo 3 - Capitolo 5, paragrafo 1

UNDICESIMA LEZIONE - 11 Aprile 2019:
    L'Algoritmo di Eliminazione (o "di Triangolarizzazione") di Gauss (=E.G.) per matrici quadrate e per sistemi lineari quadrati.
    I pivot di una matrice quadrata. Matrici singolari, matrici non singolari.
    Proposizione: L'algoritmo di E.G. trasforma un sistema quadrato in uno (triangolare superiore/inferiore) equivalente.
    Teorema: Un sistema lineare quadrato ha una e una sola soluzione ⇔ i pivot della sua matrice dei coefficienti sono tutti diversi da zero ⇔ la sua matrice dei coefficienti è non singolare.
        Bibliografia:   [A] Capitolo 3, paragrafo 3 / [AD] Capitolo 3, paragrafo 3

DECIMA LEZIONE - 5 Aprile 2019:
    Proposizione: In uno spazio vettoriale V di dimensione finita, per ogni sottospazio W si ha:
      (a)   dim(W) ≤ dim(V) ;
      (b)   dim(W) = dim(V) ⇔ W = V .
    Sistemi di equazioni lineari: generalità, formalismo matriciale. Sistemi lineari equivalenti.
    Operazioni elementari sui sistemi lineari (e sulle matrici).
    Proposizione: Ogni operazione elementare trasforma un sistema in un altro equivalente al primo.
    Matrici quadrate, matrici triangolari (superiori o inferiori); sistemi quadrati, sistemi triangolari (superiori o inferiori).
    Proposizione: Per un sistema lineare triangolare, esiste una e una sola soluzione ⇔ i termini diagonali della matrice dei coefficienti sono tutti non nulli.
    Algoritmo di risoluzione di un sistema lineare triangolare (cenni).
        Bibliografia:   [A] Capitolo 4, paragrafo 4 - Capitolo 3, paragrafi 1, 2, 3 / [AD] Capitolo 4, paragrafo 4 - Capitolo 3, paragrafi 1, 2, 3

NONA LEZIONE - 4 Aprile 2019:
    Teorema (del Completamento / di Scambio): Sia B = {v1 , ... , vn} una base di uno spazio vettoriale V, e sia L = {w1 , ... , wp} (con pn) un insieme di vettori linearmente indipendenti in V. Allora esistono vettori vj1 , ... , vjn-p in V tali che {w1 , ... , wp , ... , vj1 , ... , vjn-p} sia una base di V.
    Corollario (equicardinalità delle basi): Tutte le basi di uno stesso spazio vettoriale hanno lo stesso numero di elementi.
    Definizione: Se uno spazio vettoriale V ha una base (finita), si dice dimensione di V il numero di elementi di una sua qualunque base.
    Corollario: Sia dim(V) = n . Allora:
      (a) se q vettori sono linearmente indipendenti, allora è necessariamente qn ;
      (b) n qualsiansi vettori linearmente indipendenti di V formano una base di V.
      (c) se p > n , allora p vettori in V sono sempre linearmente dipendenti.
        Bibliografia:   [A] Capitolo 4, paragrafo 4 / [AD] Capitolo 4, paragrafo 4

OTTAVA LEZIONE - 29 Marzo 2019:
    Sottoinsiemi massimali di vettori linearmente indipendenti (in uno spazio vettoriale).
    Proposizione: Un insieme (finito) di vettori B di V è base ⇔ B è insieme massimale di vettori indipendenti in V.
    Sistemi minimali di generatori (di V).
    Esercizio (per casa): Un insieme (finito) di vettori B di V è base ⇔ B è sistema minimale di generatori di V.
    Lemma: Se Span(B) contiene un sistema di generatori di V, allora B stesso è a sua volta un sistema di generatori di V.
    Proposizione: Se A è un sistema finito di generatori di V e B è un sottoinsieme massimale in A di vettori linearmente indipendenti, allora B stesso è una base di V.
    Teorema (esistenza delle basi): Se V ha un sistema (finito) di generatori di V, allora esiste una base (finita) di V.
    Esercizi varî sulle combinazioni lineari e sulla (in)-dipendenza lineare di vettori in V := Kn.
        Bibliografia:   [A] Capitolo 4, paragrafo 4 / [AD] Capitolo 4, paragrafo 4

SETTIMA LEZIONE - 28 Marzo 2019:
    Dipendenza e indipendenza lineare di vettori in uno spazio vettoriale: definizione, casi speciali.
    Proposizione: I vettori v1 , ... , vn sono linearmente indipendenti ⇔ la funzione σv1,...,vn è iniettiva.
    Applicazione: Un sistema lineare ha al più una soluzione ⇔ le colonne della matrice dei coefficienti sono linearmente indipendenti.
    Proposizione: I vettori v1 , ... , vn sono linearmente indipendenti ⇔ uno di tali vettori può essere espresso come combinazione lineare degli altri.
    Base (finita) di uno spazio vettoriale: definizione, esempi, controesempi: la base canonica in Kn. Coordinate di un vettore rispetto a una base fissata.
    Proposizione: I vettori v1 , ... , vn formano una base ⇔ la funzione σv1,...,vn è biiettiva.
        Bibliografia:   [A] Capitolo 4, paragrafo 3 / [AD] Capitolo 4, paragrafo 3

SESTA LEZIONE - 22 Marzo 2019:
    Esempi di sottospazi vettoriali:
      (1) il sottospazio delle funzioni continue (nello spazio vettoriale R(a,b) delle funzioni reali definite nell'intervallo (a,b),
      (2) il sottospazio delle funzioni derivabili,
      (3) il sottospazio delle successioni convergenti (nello spazio vettoriale RN di tutte le successioni reali),
      (4) il sottospazio delle successioni infinitesime,
      (5) il sottospazio dei polinomi di grado limitato (nello spazio vettoriale K[x] di tutti i polinomi),
      (6) il sottospazio delle soluzioni di un sistema omogeneo in n variabili (nello spazio vettoriale Kn).
    Controesempio di sottospazio vettoriale: l'insieme delle successioni divergenti non è un sottospazio vettoriale dello spazio di tutte le successioni (reali).
    Combinazione lineare di n vettori in uno spazio vettoriale. L'applicazione σv1,...,vn da Kn a V che associa a ogni stringa di scalari la combinazione lineare dei vettori v1 , ... , vn con coefficienti quegli stessi scalari.
    Lemma: L'insieme Span(v1 , ... , vn) di tutte le combinazioni lineari dei vettori v1 , ... , vn in V - cioè l'immagine della funzione σv1,...,vn - è un sottospazio vettoriale di V, detto "sottospazio generato da v1 , ... , vn".
    Sistemi di generatori di uno spazio vettoriale V: i vettori v1 , ... , vn formano un sistema di generatori di V se Span(v1 , ... , vn) = V .
    Sistemi di equazioni lineari, o "sistemi lineari" in breve; caso generale, caso omomgeneo. Formalismo matriciale.
    Esempio: un sistema lineare ha soluzioni ⇔ la colonna dei termini noti del sistema appartiene al sottospazio generato dalle colonne della matrice dei coefficienti.
        Bibliografia:   [A] Capitolo 4, paragrafi 1-2 / [AD] Capitolo 4, paragrafi 1-2

QUINTA LEZIONE - 20 Marzo 2019:
    I campi (richiami); casi finiti e infiniti, esempi e controesempi.
    Spazi vettoriali su un campo: definizione.
    Esempi di spazi vettoriali:
      (1) lo spazio VO dei vettori applicati in un punto O (del piano o dello spazio);
      (2) ogni campo è spazio vettoriale su sé stesso;
      (3) se K è un campo, i prodotti cartesiani Kn sono spazi vettoriali su K rispetto alla somma componente per componente e al prodotto che moltiplica uno scalare per ciascuna componente di una n-pla;
      (4) spazi vettoriali di funzioni a valori in uno spazio vettoriale; spazi di successioni (in uno spazio vettoriale);
      (5) lo spazio vettoriale K[x] dei polinomi in una variabile x a coefficienti nel campo K; lo spazio vettoriale K[[x]] delle serie formali in una variabile x a coefficienti nel campo K.
    Sottospazi vettoriali di uno spazio vettoriale.
    Proposizione: Ogni sottospazio vettoriale W di uno spazio vettoriale V è a sua volta uno spazio vettoriale rispetto alla restrizione a W delle operazioni di V.
        Bibliografia:   [A] Capitolo 4, paragrafo 1 / [AD] Capitolo 4, paragrafo 1

QUARTA LEZIONE - 15 Marzo 2019:
    Esercizi varî su vettori geometrici (cioè applicati in un punto) nel piano e nello spazio; decomposizione, coordinate rispetto ad una base fissata, etc.
    Esercizi varî su rette e piani nello spazio, mediante uso di equazioni parametriche: questioni di parallelismo, incidenza, inclusione, etc.
    Richiami sui gruppi: definizione, esempi, controesempi.
        Bibliografia:   [A] Capitolo 2, esercizi / [AD] Capitolo 2, esercizi

TERZA LEZIONE - 14 Marzo 2019:
    Equazione vettoriale della retta per un punto con vettore direttore assegnato; equazione vettoriale della retta per due punti distinti.
    Equazione vettoriale di un piano nello spazio; vettori di giacitura di un piano. Equazione vettoriale del piano per un punto con vettori di giacitura assegnati; equazione vettoriale del piano per tre punti non allineati.
    Coordinate di un vettore e/o di un punto rispetto a un riferimento affine fissato; trasformazione delle coordinate rispetto alle operazioni sui vettori.
    Equazioni parametriche di una retta (nel piano o nello spazio) e di un piano (nello spazio).
    Criteri di parallelismo tra due rette, tra una retta e un piano, tra due piani.
    Criterio per la non-banalità dell'intersezione tra due rette; calcolo del punto di intersezione (nel caso in cui esista).
        Bibliografia:   [A] Capitolo 2, paragrafi 2-3 / [AD] Capitolo 2, paragrafi 2-3

SECONDA LEZIONE - 8 Marzo 2019:
    La moltiplicazione di un vettore applicato per un numero reale: definizione e proprietà fondamentali.
    Basi per vettori applicati in un punto; coordinate di un vettore relative a una base.
    Riferimenti affini (nel piano e nello spazio): coordinate di un vettore punto relative a un riferimento affine.
    Equazione vettoriale di una retta, nel piano o nello spazio; vettore direttore di una retta.
        Bibliografia:   [A] Capitolo 2, paragrafi 1-3 / [AD] Capitolo 2, paragrafi 1-3

  PRIMA LEZIONE - 7 Marzo 2019:
    Considerazioni generali sul corso, modalità d'esame, ecc.
    Richiami di geometria euclidea: punti, rette, piani spazio. Inclusione, intersezione, parallelismo tra tali enti; rette complanari, rette sghembe.
    Vettori (orientati applicati) in un punto - nella retta, nel piano, nello spazio.
    Operazione di somma tra vettori applicati: definizione e proprietà fondamentali (lo spazio dei vettori orientati con la somma è un gruppo commutativo).
        Bibliografia:   [A] Capitolo 1 - Capitolo 2, paragrafo 1 / [AD] Capitolo 1 - Capitolo 2, paragrafo 1




MODALITÀ d'ESAME:

L'esame consiste in una prova scritta e una prova orale, entrambe obbligatorie;
condizione preliminare per essere ammessi alla prova orale è aver già superato una prova scritta (con un voto sufficiente, cioè almeno 18).
Si può sostenere la prova orale anche in un appello successivo o in una sessione successiva a quella in cui si sia superata la prova scritta.
☆       ☆     ☆   ☆☆☆   ☆     ☆       ☆
È possibile sostenere la prova scritta anche più di una volta: in tal caso, sarà considerato come rilevante il voto più alto ottenuto.
Se si sostiene una prova orale senza successo - perché respinti o ritirati - il voto con cui sia stata precedentemente superata la prova scritta
resta valido
per presentarsi di nuovo alla prova orale; in altre parole, si deve rifare soltanto la prova orale, e non anche la prova scritta.
È possibile sostenere nuovamente la prova orale anche nella stessa sessione.
☆       ☆     ☆   ☆☆☆   ☆     ☆       ☆
Per partecipare a ciascuna prova (scritta o orale), *è necessario prenotarsi*, nei giorni precedenti, attraverso il sito Delphi.
In occasione di ciascuna prova (scritta e/o orale) è necessario portare con sé un documento di riconoscimento e (se lo avete) il libretto universitario.
☆       ☆     ☆   ☆☆☆   ☆     ☆       ☆
Così come il corso è tenuto in italiano, le prove d'esame (scritte e orali) devono essere ugualmente compilate in italiano. In casi particolari - precisamente, per studenti Erasmus o comunque non di madrelingua italiana - lo studente sotto esame può chiedere al docente (prof. Gavarini) di autorizzarlo a svolgere le suddette prove, in alternativa, in inglese, in francese o in spagnolo.
☆       ☆     ☆   ☆☆☆   ☆     ☆       ☆
Durante le prove (scritte e/o orali) è vietato l'uso di libri, appunti, dispense, calcolatrici, telefoni cellulari, tavolette (=tablets), scaltròfoni (=smartphones) e/o quant'altro:
in breve, è vietato l'uso di qualsiasi strumento di archiviazione/ricezione/trasmissione/elaborazione di dati. Fanno ECCEZIONE a questa regola i casi particolari previsti dal regolamento d'ateneo (invalidità, dislessia, ecc.) e riconosciuti dall'apposito ufficio CARIS che verranno gestiti secondo le indicazioni prescritte dal suddetto ufficio: a tal fine, gli studenti interessati sono tenuti a rivolgersi all'ufficio CARIS prima di presentarsi all'esame.
Durante una prova scritta non è consentito uscire dall'aula - salvo emergenze e esigenze sanitarie - se non per consegnare il proprio compito (e dunque concludere la propria partecipazione alla prova scritta).
☆       ☆     ☆   ☆☆☆   ☆     ☆       ☆
N.B.: nel caso di eventuali appelli straordinari, si applicano le stesse regole che per gli appelli ordinari.





( inizio pagina )

Ultimo aggiornamento:   5 Aprile 2019   -   Fabio Gavarini