Elementi di Algebra Tensoriale con Applicazioni alla Meccanica dei Solidi

Citation preview

Alessandro Bichara

Francesco dell’Isola

Elementi di Algebra Tensoriale con Applicazioni alla Meccanica dei Solidi

Augustin-Louis Cauchy

Albert Einstein

Tullio Levi-Civita

La scuola Meccanica di Erone d’Alessandria (III-II a.C.) come descritta da Pappo, adattamento dalla Synagoge viii., Prefazione 1-3, ed. Hultsch 1022,31028,3 Berlino 1876-1878: “La Scienza della Meccanica, mio caro Ermodoro, ha molti usi importanti nella vita pratica, ed è altamente considerata dai filosofi ed attentamente studiata dai matematici, perché ha il primo posto nello studio degli elementi materiali dell’universo. Essa tratta della stabilità e del moto dei corpi come effetto dell’azione di forze esterne utilizzando teoremi appropriati all’argomento. I meccanici della scuola di Erone dividono la Meccanica in Teorica e Tecnica: la Meccanica Teorica si basa sulla Geometria e l’Aritmetica e comprende l’Astronomia e la Fisica, quella Tecnica studia l’architettura, l’arte dei metalli, delle rocce e di qualsiasi cosa che può essere costruito. Colui che fosse addestrato nelle due branche della Meccanica sarebbe il miglior artefice ed il miglior inventore, possedendo la più versatile delle menti. Poiché tali doti sono rare nello stesso uomo essi formano i loro studenti seguendo le loro inclinazioni: 1) i costruttori di potenza meccanica, 2) i costruttori di macchine da guerra, 3) i costruttori di motori e di pompe idrauliche, 4) i meccanici teorici e sperimentali costruttori di macchine meravigliose (dimostrative delle leggi della Meccanica) i cui maestri sono Erone stesso ed Archimede di Siracusa, 5) i costruttori di orologi meccanici. È universalmente riconosciuto che Archimede sia il solo fra i meccanici che abbia compreso tutte le branche della Meccanica perché ha potuto applicare la sua mente versatile e genio inventivo a tutti gli scopi della vita ordinaria tuttavia contribuendo contemporaneamente allo sviluppo della Geometria e dell’Aritmetica tenendole pure e distinte dalle applicazioni tecnologiche. Perché si può applicare la Geometria alla Tecnica e con ragione, ma essa per questo non è diminuita essendo capace di dare contenuto a molte e diverse Tecniche e per questo anzi essa viene aumentata in significato ed importanza.”

Elementi di Algebra Tensoriale con Applicazioni alla Meccanica dei Solidi Alessandro Bichara

Francesco dell’Isola

ii

Indice Prefazione alla Parte I

xi

Prefazione alla Parte II

I

xiii

Algebra Tensoriale

1

1 SPAZI VETTORIALI 1.1 Definizione e prime proprietà. . . . . 1.2 Esempi. . . . . . . . . . . . . . . . . 1.3 Combinazioni lineari. . . . . . . . . . 1.4 Sottospazi. . . . . . . . . . . . . . . 1.5 Generatori. . . . . . . . . . . . . . . 1.6 Dipendenza ed indipendenza lineare.

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

3 3 4 5 5 7 7

2 BASI E DIMENSIONE 11 2.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2 Somme, somme dirette e relazione di Grassmann. . . . . . . . . . . . . . . . . . . . . . . . . . . 16 3 APPLICAZIONI LINEARI 3.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . 3.2 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Nucleo ed immagine. . . . . . . . . . . . . . . . . . . . . . . . . 3.4 IKn come modello universale di spazio vettoriale n-dimensionale 3.5 Ulteriori proprietà delle applicazioni lineari. . . . . . . . . . . .

. . . . .

21 21 22 22 26 27

4 APPLICAZIONI LINEARI E MATRICI 4.1 Applicazione lineare associata ad una matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Matrice associata ad un’applicazione lineare. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Cambiamenti di base; matrici invertibili. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29 29 31 33

5 SISTEMI LINEARI 5.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . 5.2 Sistemi lineari e teorema di Rouché-Capelli. . . . . 5.3 Sistemi omogenei. . . . . . . . . . . . . . . . . . . . 5.4 Insieme delle soluzioni di un sistema. . . . . . . . . 5.5 Sistemi di Cramer. . . . . . . . . . . . . . . . . . . 5.6 Lo spazio delle soluzioni di un sistema omogeneo. . 5.7 L’insieme delle soluzioni di un sistema compatibile.

. . . . . . .

37 37 38 38 39 40 41 42

. . . . .

45 45 46 47 48 51

6 DIAGONALIZZAZIONE 6.1 Definizioni e prime proprietà. . . 6.2 Autospazi. . . . . . . . . . . . . . 6.3 Ricerca degli autovalori. . . . . . 6.4 Diagonalizzazione di una matrice. 6.5 Molteplicità geometrica. . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . . iii

. . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . sul . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . . . . . . . . . . . . . . . . campo IK. . . . . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

. . . . .

. . . . . . .

. . . . .

iv

INDICE

7 PRODOTTI SCALARI. TEORIA GENERALE. 7.1 Definizione. . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Ortogonalità. . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Matrice simmetrica associata ad un prodotto scalare. . . . 7.5 Basi ortogonali. . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Prodotto scalare non degenere. Prodotti definiti positivi. . 7.7 Cambiamenti di basi ortonormali. . . . . . . . . . . . . . . 7.8 Complementi ortogonali. . . . . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

53 53 54 54 55 57 57 63 63

65 8 DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRn 8.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 8.2 Endomorfismi simmetrici. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 8.3 Diagonalizzazione degli endomorfismi simmetrici. . . . . . . . . . . . . . . . . . . . . . . . . . . 68 9 ANCORA SUI PRODOTTI SCALARI REALI 71 9.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 9.2 Criterio di Sylvester. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 10 TENSORI ED ALGEBRA TENSORIALE 10.1 Premessa. . . . . . . . . . . . . . . . . . . . . . 10.2 Spazio duale. . . . . . . . . . . . . . . . . . . . 10.3 Cambiamenti di base in V∗ . . . . . . . . . . . . 10.4 Spazio biduale. . . . . . . . . . . . . . . . . . . 10.5 Isomorfismo canonico tra VnIK ed il suo biduale. 10.6 Forme multilineari. . . . . . . . . . . . . . . . . 10.7 Tensori ed algebra tensoriale. . . . . . . . . . . 10.8 Cambiamento delle componenti di un tensore. . 10.9 Tensore contratto. . . . . . . . . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

77 77 78 79 80 82 82 82 87 88

Bibliografia

91

II

93

Applicazioni

11 ANCORA SUI TENSORI 95 11.1 Contrazioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 11.2 Prodotto duale tra tensori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 12 TENSORI CARTESIANI 103 12.1 Tensori sugli spazi vettoriali dotati di prodotto scalare. . . . . . . . . . . . . . . . . . . . . . . . 103 12.2 Contrazioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 12.3 Prodotto scalare tra tensori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 13 TENSORI DOPPI 13.1 Premessa. . . . . . . . . . . . . . . . . 13.2 Orientazione per V. . . . . . . . . . . . 13.3 Trasposto. . . . . . . . . . . . . . . . . 13.4 Invarianti. . . . . . . . . . . . . . . . . 13.4.1 Decomposizione in parte sferica 13.5 Tensore aggiunto. . . . . . . . . . . . . 13.6 Il teorema di Cayley-Hamilton. . . . . 13.7 Prodotto scalare tra tensori doppi. . . 13.8 Tensori simmetrici. . . . . . . . . . . . 13.9 Tensori antisimmetrici . . . . . . . . . 13.10Tensori ortogonali. . . . . . . . . . . . 13.10.1 Angoli di Eulero. . . . . . . . . 13.11Teorema di decomposizione additiva. . 13.12Teorema di decomposizione polare. . . 13.13Il teorema di commutazione. . . . . . .

. . . . e . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . parte deviatorica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

113 113 114 116 117 121 121 125 126 127 131 134 137 139 140 140

INDICE

v

14 CENNI DI ANALISI TENSORIALE 14.1 Spazi affini. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2 Applicazioni affini. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.3 Continuità e differenziabilità. Campi. . . . . . . . . . . . . . . . . . . . 14.4 Sistemi di coordinate e varietà affini. . . . . . . . . . . . . . . . . . . . 14.4.1 Alcuni sistemi di coordinate nelle varietà affini euclidee. . . . . 14.4.2 Basi naturali e basi anolonome. . . . . . . . . . . . . . . . . . . 14.5 La derivata covariante. . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.6 Derivata covariante lungo curve. . . . . . . . . . . . . . . . . . . . . . 14.7 Le formule di Frenet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.8 Elementi di geometria gaussiana. . . . . . . . . . . . . . . . . . . . . . 14.8.1 Vettore normale, piano tangente e tensore metrico superficiale. 14.8.2 Derivata covariante superficiale. . . . . . . . . . . . . . . . . . . 14.8.3 Seconda forma fondamentale: curvatura delle superfici. . . . . . 14.8.4 Regioni a forma di guscio e Shifters. . . . . . . . . . . . . . . . 14.9 Operatori differenziali sulle varietà euclidee tridimensionali. . . . . . . 14.10Teoremi di integrazione sulle varietà euclidee tridimensionali. . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

143 143 144 145 148 149 151 153 157 159 160 160 163 163 166 167 170

15 CENNI DI TEORIA DEI MODELLI 15.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2 Morfismi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.3 Modelli Matematici di Fenomeni Fisici. . . . . . . . . . . . . . . . . . . . . . . . . . . 15.3.1 Una visione induttivista del concetto di modello matematico. . . . . . . . . . 15.3.2 Una visione deduzionista-falsificazionista del concetto di modello matematico. 15.4 Relazione fra Matematica, Scienza e Tecnologia. . . . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

173 173 175 176 177 177 178

. . . . . . . . . . . . . . . .

181 181 181 182 183 184 184 185 185 186 186 187 188 190 190 191 192

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

16 CINEMATICA GALILEIANA 16.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.2 Particelle materiali ed osservatori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.3 Cinematica galileiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4 Spazio assoluto delle posizioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.5 Lo spazio delle configurazioni come modello dell’insieme degli stati. . . . . . . . . . . . . . . . 16.6 Spazi delle configurazioni finito od infinito dimensionali. . . . . . . . . . . . . . . . . . . . . . 16.6.1 Modelli finito-dimensionali: descrizioni con un numero finito di gradi di libertà. . . . . 16.6.2 Modelli infinito-dimensionali: descrizioni con infiniti gradi di libertà. . . . . . . . . . . 16.7 Continui come modelli di corpi: cinematica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.7.1 Configurazioni di un continuo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.7.2 Funzione piazzamento, campi di velocità di un continuo. . . . . . . . . . . . . . . . . . 16.7.3 Descrittori di stato in un continuo. Descrizione lagrangiana o euleriana. . . . . . . . . 16.8 Un caso notevole: continui rigidi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.8.1 Piazzamento rigido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.8.2 Gradi di libertà di un continuo rigido. . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.9 Trasformazioni galileiane delle velocità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.9.1 Legge di trasformazione galileiana delle velocità e delle accelerazioni nel cambiamento di osservatore. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.10Formula di rappresentazione euleriana dell’atto di moto rigido. . . . . . . . . . . . . . . . . . 17 DEFORMATICA 17.1 Parametri lagrangiani e gradi di libertà. . . . . . . . . . . . . . . 17.2 Vincoli in modelli finito-dimensionali. . . . . . . . . . . . . . . . 17.3 Moto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.4 Sistemi articolati di continui rigidi. . . . . . . . . . . . . . . . . . 17.4.1 Vincoli applicati ad un continuo rigido e loro molteplicità. 17.4.2 Moti rigidi piani. Centro istantaneo di rotazione. . . . . . 17.4.3 Vincoli interni. . . . . . . . . . . . . . . . . . . . . . . . . 17.4.4 Esempi di sistemi vincolati. . . . . . . . . . . . . . . . . . 17.5 Strutture Reticolari. . . . . . . . . . . . . . . . . . . . . . . . . . 17.5.1 Barre elastiche. . . . . . . . . . . . . . . . . . . . . . . . . 17.5.2 Strutture reticolari, ovvero sistemi di barre elastiche. . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. 193 . 194

. . . . . . . . . . .

199 199 200 200 202 202 203 205 206 208 208 209

vi

INDICE 17.5.3 Espressione lagrangiana dell’energia cinetica per barre. . . . . . 17.6 Cinematica dei continui tridimensionali. . . . . . . . . . . . . . . . . . 17.6.1 Funzione piazzamento per continui di Cauchy. . . . . . . . . . . 17.6.2 Derivata materiale. . . . . . . . . . . . . . . . . . . . . . . . . . 17.6.3 Tensore di deformazione. . . . . . . . . . . . . . . . . . . . . . 17.6.4 Il gradiente di velocità. . . . . . . . . . . . . . . . . . . . . . . 17.6.5 Bilancio della massa per continui tridimensionali. . . . . . . . . 17.7 Misure di Deformazione in un Continuo di Cauchy. . . . . . . . . . . . 17.7.1 Il tensore destro di Cauchy-Green, il tensore di deformazione di 17.7.2 Allungamento e spostamento angolare. . . . . . . . . . . . . . . 17.7.3 Velocità di deformazione e velocità di rotazione. . . . . . . . . 17.7.4 I tensori di deformazione e rotazione infinitesima. . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Saint-Venant. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

18 EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI 18.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.1.1 Il concetto di Forza è un concetto primitivo. . . . . . . . . . . . . . . . . . . . . . . . . 18.1.2 Il metodo logico-deduttivo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.1.3 Le ragioni per cui si debba preferire l’ assiomatica di Noll. . . . . . . . . . . . . . . . . 18.2 Forze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.2.1 Tipi di forza applicate ad un continuo. Potenza spesa da un sistema di forze su un campo di velocità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.2.2 Momento di un sistema di Forze e sua variazione al variare del polo. Coppie. . . . . . 18.2.3 Formulazione dell’ assioma sull’obiettività della potenza . . . . . . . . . . . . . . . . . 18.2.4 Conseguenze dell’obiettività della potenza. . . . . . . . . . . . . . . . . . . . . . . . . 18.2.5 L’assioma delle reazioni vincolari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3 Le azioni di contatto in un Continuo di Cauchy. . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3.1 Taglio di Cauchy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3.2 Controesempio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3.3 Lemma di Cauchy: ovvero il principio di azione e reazione per i vettori degli sforzi. . . 18.3.4 Il teorema del tetraedro di Cauchy: ovvero della dipendenza lineare del vettore degli sforzi dalla normale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3.5 Simmetria del tensore degli sforzi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.4 Il Teorema di Cauchy - Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.4.1 Rappresentazione dello stato di tensione in un continuo di cauchy. Tensioni principali. 18.4.2 Equazione di equilibrio indefinito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF 19.1 Il metodo delle potenze virtuali. . . . . . . . . . . . . . . . . . . . . . . . . . 19.2 Deduzione della legge euleriana di bilancio della forza. . . . . . . . . . . . . 19.2.1 Definizione dei moti virtuali e potenza virtuale delle forze di inerzia. 19.2.2 Potenza virtuale delle forze esterne. . . . . . . . . . . . . . . . . . . 19.2.3 Potenza virtuale delle forze interne. . . . . . . . . . . . . . . . . . . 19.2.4 Equazioni locali di bilancio della forza e dati al bordo. . . . . . . . . 19.2.5 Forma debole della legge euleriana di bilancio della forza. . . . . . . 19.3 Forma debole della legge lagrangiana di bilancio della forza. . . . . . . . . . 19.3.1 Potenza virtuale delle forze interne: espressione lagrangiana. . . . . 19.3.2 Potenza virtuale delle forze esterne: espressione lagrangiana. . . . . 19.3.3 Assioma delle potenze virtuali in forma lagrangiana. . . . . . . . . . 19.4 Forma forte della legge di bilancio lagrangiana della forza. . . . . . . . . . . 19.4.1 Tensori di Piola-Kirchooff. . . . . . . . . . . . . . . . . . . . . . . . . 19.4.2 Equazioni indefinite di equilibrio lagrangiane. . . . . . . . . . . . . . 20 MATERIALI ELASTICI 20.1 Modellazione delle proprietà materiali. . . . . . . . . . . . . . . 20.1.1 Assunzioni costitutive. . . . . . . . . . . . . . . . . . . . 20.1.2 Assiomi costitutivi. . . . . . . . . . . . . . . . . . . . . . 20.1.3 Il gruppo di simmetria. . . . . . . . . . . . . . . . . . . 20.1.4 Caratterizzazione dei fluidi e dei solidi in base al gruppo 20.2 Elasticità finita per i solidi. . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

209 211 211 212 212 214 214 215 216 217 217 219

. . . . .

223 223 223 223 224 225

. . . . . . . . .

225 227 227 228 230 231 231 232 233

. . . . .

234 236 238 238 241

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

245 245 246 246 247 248 249 250 250 250 251 252 253 253 254

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . di simmetria. . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

257 257 257 258 262 263 265

INDICE

vii

20.3 Elasticità lineare. . . . . . . . . . . . . . . . . . . . . . . . 20.3.1 Linearizzazione delle equazioni costitutive. . . . . . 20.3.2 Linearizzazione della legge di bilancio della forza. . 20.3.3 Interpretazione meccanica del lavoro delle azioni di 20.3.4 Ancora sul tensore di elasticità. . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . contatto. . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

274 274 278 279 280

21 CRITERI DI RESISTENZA PER I MATERIALI ISOTROPI 21.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Il dominio di elasticità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2.1 La funzione di carico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3 Alcuni stati di tensione per il tensore di Piola-Kirchhoff. . . . . . . . . . . . . . . . . . . . . 21.3.1 Stato di sforzo uniassiale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3.2 Taglio semplice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3.3 Stato di sforzo triassiale con simmetria intorno ad un asse (triassiale di rivoluzione). 21.3.4 Trazione o compressione isotropa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.4 Criterio di Tresca. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.5 Criterio di Coulomb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.6 Criterio di Beltrami. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.7 Criterio di von Mises. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

285 285 285 287 288 288 289 289 289 289 291 292 292

22 DINAMICA DEI SISTEMI FINITO-DIMENSIONALI 22.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.1.1 La Meccanica Lagrangiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.1.2 Serie di Fourier in L2 , analisi modale e riduzione di modelli infinito-dimensionali modelli finito-dimensionali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.2 Moto, traiettoria, velocità Lagrangiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.3 Problemi di ottimo e fondamenti di Calcolo delle Variazioni. . . . . . . . . . . . . . . . . . . 22.3.1 Principio di Fermat, funzionali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.3.2 Equazioni di Eulero-Lagrange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.4 Energia cinetica e potenziale in sistemi di corpi vincolati. . . . . . . . . . . . . . . . . . . . 22.5 Piccoli moti intorno ad una configurazione d’equilibrio stabile. . . . . . . . . . . . . . . . . . 22.5.1 Configurazioni di equilibrio stabili ed instabili. . . . . . . . . . . . . . . . . . . . . . 22.5.2 Moti nell’intorno di una configurazione di equilibrio stabile. Analisi Modale. . . . . .

. . a . . . . . . . . .

295 . 295 . 295 . . . . . . . . .

Bibliografia A RICHIAMI DI ALGEBRA A.1 Insiemi. . . . . . . . . . . . . . . . . A.1.1 Definizione e prime proprietà. A.1.2 Operazioni tra insiemi. . . . . A.1.3 Relazioni ed applicazioni. . . A.2 Gruppi. . . . . . . . . . . . . . . . . A.2.1 Definizioni e prime proprietà. A.3 Campi. . . . . . . . . . . . . . . . . . A.3.1 Definizione. . . . . . . . . . . A.4 Matrici. . . . . . . . . . . . . . . . . A.4.1 Definizioni e prime proprietà. A.4.2 Determinante. . . . . . . . . A.4.3 Aggiunta ed inversa. . . . . . A.4.4 Rango. . . . . . . . . . . . . . Indice analitico

296 297 297 297 299 301 305 305 306 313

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

315 315 315 316 317 319 319 320 320 320 320 322 322 322 325

viii

INDICE

La stesura di questo manuale è stata resa possibile da un finanziamento erogato dal Comune di Cisterna di Latina e dalla sua istituzione “Conoscere”

ix

x

Prefazione alla Parte I La genesi di queste pagine è da un lato semplice e dall’altro assai inusuale: dovendo approntare un curriculum per la Laurea Specialistica in Ingegneria per l’Ambiente ed il Territorio (per la Sede di Latina de “La Sapienza”) con Francesco dell’Isola si è pensato di tenere due corsi (cercando di coordinarne i contenuti, tempi e modalità di svolgimento) per così dire “paralleli”: uno di Geometria ed uno di Meccanica dei Solidi. Questo volume nasce, pertanto, dalla necessità di fornire agli studenti un riferimento scritto per i corsi di “Metodi tensoriali per l’Ingegneria” e di Scienza delle Costruzioni. Naturalmente, come ogni prima stesura, questo testo è lacunoso e perfettibile. Ogni suggerimento teso a migliorarlo sarà gradito. Agli autori (ed a me in particolare) corre l’obbligo (ma soprattutto il piacere) di rivolgere un caloroso ringraziamento al Dott. Davide Spinello che, con paziente lavoro di stesura (ma anche con quegli acuti suggerimenti che caratterizzano gli studenti più promettenti) ha consentito la pubblicazione di questo lavoro. Alessandro Bichara

xi

xii

PREFAZIONE ALLA PARTE I

Prefazione alla Parte II Uno dei risultati delle recenti riforme del sistema educativo italiano, ed in particolare di quello universitario, è che quasi tutti gli studenti hanno perso la capacità di studiare utilizzando i libri di testo. L’abitudine che va sempre più diffondendosi è quella di affidarsi alla tradizione orale: le lezioni dei docenti, ma anche i racconti ed i resoconti dei colleghi degli anni precedenti. Questa circostanza è sintomo di una profonda malattia dell’università italiana ed è prodromo di gravi difficoltà per la nostra società se è vero, come ampiamente discusso da G. Bigatti nel Capitolo La Matrice di una nuova Cultura Tecnica del saggio Amministrazione, formazione e professione: gli ingegneri in Italia tra Sette e Ottocento ([4], Bibliografia relativa alla Parte II), curato da L. Blanco, che la nascita della moderna figura dell’ingegnere, protagonista dell’inarrestabile progresso tecnologico avvenuto nell’Ottocento, è dovuta all’abbandono dell’antico modello di insegnamento basato sulla trasmissione orale del sapere. Lo studente segue, spesso distrattamente, la lezione e ritiene che questo sia sufficiente: nessuno sforzo viene fatto per fare proprie le idee che il corso intende trasmettere e tutti i tentativi di attirare la sua attenzione sono trattati con fastidio e talvolta ostilità. L’atteggiamento più diffuso porta a richiedere che questioni complesse siano esposte brevemente. Mi sono spesso sentito chiedere di spiegare, in due parole, il principio dei lavori virtuali oppure il metodo degli integrali di Mohr oppure in che cosa consista l’analisi modale di una struttura (qualche volta anche la teoria delle equazioni differenziali o addirittura il perché sia impossibile dividere per zero). Quindi non mi aspetto che molti studenti leggano, addirittura!, questa introduzione. A quei pochi che lo faranno voglio consigliare di non far sapere assolutamente ai loro colleghi che si sono dedicati a questa strana attività: non vorrei essere causa di loro problemi di socializzazione. In realtà mi è accaduto spesso di entrare in polemica discutendo sulle scelte che debbono essere fatte nel concepire un testo da utilizzare come supporto ad un corso universitario. Alla fine mi sono rassegnato: viviamo un ciclo storico (di quelli descritti da G.B. Vico) nel quale è alla moda ritenere che le uniche attività intellettuali utili siano quelle immediatamente dirette alla pratica: ogni sforzo per basare le applicazioni tecnologiche su solide basi teoriche viene deriso apertamente ed aspramente avversato. I pericoli per una società nella quale questa tendenza prende il sopravvento sono lucidamente descritti nel bellissimo saggio di Lucio Russo “La Rivoluzione Dimenticata” ([35], Bibliografia relativa alla Parte II). Rimandiamo a quel saggio per una approfondita descrizione delle ragioni per le quali si deve resistere alla citata tendenza. In questa introduzione si vuole semplicemente affermare esplicitamente quello che sarà sotto gli occhi di ogni lettore che studierà criticamente le pagine seguenti: l’algebra lineare e tensoriale sono uno strumento indispensabile per lo studio dei fenomeni descritti dalle teorie meccaniche. Poichè tali teorie sono la base di molte tecnologie correntemente utilizzate nelle applicazioni ingegneristiche (e questo era noto fin dai tempi della rivoluzione scientifica ellenistica: si veda ancora il saggio di Russo ed il brano in quarta di copertina) possiamo concludere che le matematiche sono strumento indispensabile alla pratica ingegneristica. Questa affermazione è stata considerata infondata in varie epoche e di conseguenza spesso nella storia delle istituzioni universitarie si è sentita la necessità di semplificare il curriculum formativo degli allievi ingegneri: è questa stessa storia che ci insegna quali siano gli esiti di tali semplificazioni. Rimandando al citato saggio [4], si ricordano gli effetti disastrosi sulla qualità del lavoro dei professionisti iscritti all’albo milanese nella prima metà dell’Ottocento a causa dell’abilitazione alla professione di ingegnere assicurata per mezzo di opportuni ope legis a tecnici non in possesso di titoli accademici e quindi di una adeguata preparazione teorica ma forti solo di una lunga attività professionale: la Scuola di Ingegneria Milanese dovette essere rifondata da professori provenienti da Vienna e Parigi. È di quell’epoca l’invenzione di un neologismo che molto ha fatto discutere i moderni riformatori: l’aggettivo propedeutico ed il sostantivo ad esso associato propedeuticità. Attestato fin dal 1829 questo aggettivo è definito dal Grande Dizionario Italiano dell’uso (il cosiddetto De Mauro) come segue: propedeutico=che serve da introduzione ad una scienza. La radice utilizzata è παιs=fanciullo da cui deriva παιδε´ υ ω=educo che insieme al prefisso πρo=prima produce πρoπα´ιδευσιs=istruzione preventiva attestato in epoca ellenixiii

xiv

PREFAZIONE ALLA PARTE II

stica. πρoπαιδευτ ικ´ os=propedeutico, sebbene non utilizzato nei testi greci a noi pervenuti, potrebbe essere stato già coniato in quell’epoca. La ragion d’essere di questo testo e della mia collaborazione con il Prof. Bichara è riaffermare che nella formazione dell’ingegnere sono indispensabili un numero congruo di discipline propedeutiche a quelle esclusivamente ingegneristiche più specificatamente applicative. Mi preme ringraziare qui esplicitamente l’Ing. Davide Spinello per l’impegno che ha profuso nella stesura di questo testo. Tutti i Capitoli della Parte II sono il risultato di lunghe ed interessanti discussioni che mi hanno dimostrato la sua cultura e passione per la scienza e che mi hanno molto arricchito: l’Ing. Spinello deve essere considerato co-autore a tutti gli effetti almeno dei Capitoli 19 e 20 sulle Potenze Virtuali e sulle Equazioni Costitutive. Devo anche ringraziare per la loro collaborazione gli ingegneri Giulio Sciarra, Stefano Vidoli, Corrado Maurini. Francesco dell’Isola

Parte I

Algebra Tensoriale

1

Capitolo 1

SPAZI VETTORIALI 1.1

Definizione e prime proprietà.

Siano (V, +) un gruppo abeliano e (IK, +, ·) un campo, che nel seguito verranno denotati con V e IK, rispettivamente. Diremo prodotto esterno sinistro di IK per V ogni applicazione ω : IK × V → V del prodotto cartesiano di IK per V in V. Se ω è un prodotto esterno sinistro di IK per V e risulta ω((k, v)) = w, scriveremo anche kv = w. Osserviamo esplicitamente che il prodotto esterno sinistro di IK per V è una legge che associa ad ogni coppia (k, v), costituita da un elemento di IK e da un elemento di V, un elemento di V da dirsi prodotto di k per v. Se V è un gruppo abeliano, IK è un campo ed ω è un prodotto esterno sinistro di IK per V, diremo che la terna VIK = (V, IK, ω) è uno spazio vettoriale sinistro costruito sul campo IK, se essa verifica gli assiomi seguenti: ∀h, k ∈ IK, ∀v ∈ V, (h + k)v = hv + kv. ∀h ∈ IK, ∀v, w ∈ V, h(v + w) = hv + hw. ∀h, k ∈ IK, ∀v ∈ V, (kh)v = h(kv). ∀v ∈ V, 1v = v.

(1.1) (1.2) (1.3) (1.4)

Evidentemente il simbolo 00 100 che compare nella (1.4) denota l’unità moltiplicativa del campo IK. Analogamente a quanto appena visto, è possibile definire il prodotto esterno destro di V per IK, quale applicazione ω 0 : V × IK → V. Se la terna (V, IK, ω 0 ) verifica le proprietà che si ottengono dalle (1.1), (1.2), (1.3) e (1.4), invertendo l’ordine in cui in esse compaiono gli elementi di IK e di V, diremo che (V, IK, ω 0 ) è uno spazio vettoriale destro costruito sul campo IK. In questi appunti, tratteremo soltanto gli spazi vettoriali sinistri, avvertendo che per gli spazi vettoriali destri valgono proprietà analoghe a quelle degli spazi vettoriali sinistri. Inoltre, preannunciamo sin da ora che in un numero successivo proveremo che tali due concetti sono sostanzialmente equivalenti. Nel seguito, quindi, con il termine spazio vettoriale intenderemo sempre sottinteso l’attributo sinistro. Se VIK è uno spazio vettoriale sul campo IK, diremo vettori gli elementi di V e diremo scalari gli elementi di IK. In tal caso, diremo proprietà distributiva del prodotto di uno scalare per un vettore rispetto alla somma di scalari e rispetto alla somma di vettori gli assiomi (1.1) e (1.2), rispettivamente. Se VIK è uno spazio vettoriale sul campo IK, risultano individuati lo scalare nullo 0 ed il vettore nullo 0, elemento neutro del gruppo (V, +); al riguardo proviamo ora che: Proposizione 1 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto dello scalare nullo per un vettore è il vettore nullo, cioè: ∀v ∈ V, 0v = 0. (1.5) Dimostrazione Si tratta di provare che, ∀w ∈ V, risulta 0v + w = w. All’uopo, osserviamo che: 0v + w = 0v + v − v + w = 0v + 1v − v + w = (0 + 1)v − v + w = 1v − v + w = v − v + w = w. Proviamo ora che: 3

(1.6)

4

CAPITOLO 1. SPAZI VETTORIALI

Proposizione 2 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto di uno scalare k per il vettore nullo è il vettore nullo. Inoltre, se il prodotto di k per v è il vettore nullo, almeno uno tra k e v è nullo. Dimostrazione Cominciamo con il provare che: ∀k ∈ IK : k0 = 0.

(1.7)

Infatti (cfr. proposizione 1) il vettore nullo è dato da 0 =0v,

∀v ∈V,

(1.8)

e quindi k0 =k (0v) = (k0) v =0v = 0.

(1.9)

Da quanto appena detto e dalla proposizione 1 segue che, dati k ∈ IK e v ∈V, se uno dei due fattori è nullo si ha kv = 0. (1.10) Assumiamo viceversa che sia kv = 0. Se k 6= 0, ∃ k −1 ∈ IK. Moltiplicando ambo i membri della (1.10) per k−1 si ha: ¡ ¢ k −1 (kv) = k −1 0 = 0 ⇒ k −1 k v = 0 ⇒1v = 0 ⇒ v = 0. (1.11) Proposizione 3 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto dell’opposto dell’unità moltiplicativa di IK per un vettore v è l’opposto di v, cioè: ∀v ∈ V,

− 1v = −v.

(1.12)

Dimostrazione È sufficiente osservare che, a norma della 1 e delle (1.1) e (1.2), risulta: (−1)v + v = −1v + 1v = (−1 + 1)v = 0v = 0.

1.2

(1.13)

Esempi.

Daremo ora alcuni esempi di spazi vettoriali. Se IK è un campo, sia V = IKn , cioè il prodotto cartesiano di IK per se stesso effettuato n volte; allora V è la totalità delle n-ple ordinate di elementi di IK. Se x = (x1 , x2 , ..., xn ) e y = (y1 , y2 , ..., yn ) sono due elementi di V è possibile definire la loro somma nel modo che segue: x + y = (x1 + y1 , x2 + y2 , ..., xn + yn ). (1.14) È poi possibile definire il prodotto ”·” di uno scalare k ∈ IK per l’elemento x = (x1 , x2 , ..., xn ) ∈ V nel modo che segue: k · x = (kx1 , kx2 , ..., kxn ). (1.15) Con tali definizioni di somma in V e di prodotto di un elemento di IK per un elemento di V, è possibile provare che: Proposizione 4 La terna (V, IK, ·) è uno spazio vettoriale. Lo spazio vettoriale di cui alla proposizione precedente verrà nel seguito denotato con il simbolo IKn . Se IR è il campo reale e C è il gruppo additivo dei complessi, allora è subito visto che la terna (C, IR, ·), ove ”·” è l’ordinario prodotto di un reale per un complesso, è uno spazio vettoriale sui reali. Analogamente, le terne (C, Q, ·) e (IR, Q, ·), ove “·” è l’ordinario prodotto numerico, risultano degli spazi vettoriali sul campo razionale. Se IK è un campo, sia IK[x], l’insieme dei polinomi di una indeterminata x a coefficienti in IK. Rispetto all’ordinaria somma ”+” tra polinomi, la coppia (IK[x], +) è un gruppo abeliano; se poi ”·” è l’ordinario prodotto di IK per un polinomio, la terna (IK[x], IK, ·) risulta uno spazio vettoriale sul campo IK; tale spazio sarà nel seguito denotato con IK[x]. Se F è l’insieme delle funzioni reali di una variabile reale, f e g sono due elementi di F, è possibile definire la f + g nel modo che segue: (f + g)(x) = f (x) + g(x). (1.16)

1.3. COMBINAZIONI LINEARI.

5

Con tale definizione di somma la coppia (F, +) risulta un gruppo abeliano, il cui elemento neutro è la funzione costante identicamente nulla ed in cui l’opposto della funzione f è la funzione −f , così definita: (−f )(x) = −f (x).

(1.17)

Possiamo poi definire il prodotto ”·” di un numero reale k per la funzione f di F nel modo che segue: (k · f )(x) = kf (x).

(1.18)

Con tale definizione la terna (F, IR, ·) risulta uno spazio vettoriale sul campo reale. Sia VIK uno spazio vettoriale sul campo IK. Diremo che VIK è lo spazio nullo se esso è costituito da un solo vettore che, allora, necessariamente è il vettore nullo.

1.3

Combinazioni lineari.

Sia VIK uno spazio vettoriale sul campo IK. Se v1 , v2 , ..., vn sono vettori di V ed x1 , x2 , ..., xn sono scalari di IK, diremo combinazione lineare di v1 , v2 , ..., vn a coefficienti x1 , x2 , ..., xn , rispettivamente, il vettore v così definito: n X v = x1 v1 + x2 v2 + ... + xn vn = xi vi . (1.19) i=1

Se J è l’insieme (eventualmente infinito) di vettori di V, diremo combinazione lineare di J ogni vettore di V che risulti combinazione lineare di un numero finito di vettori di J. Pertanto, se J è finito ed è costituito dagli n vettori v1 , v2 , ..., vn , allora ogni vettore della forma (1.19), al variare di x1 , x2 , ..., xn in IK è combinazione lineare di J.

1.4

Sottospazi.

Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, diremo che esso è un sottospazio di V se, e solo se, esso risulta uno spazio vettoriale rispetto alle operazioni definite in V; cioè se, e solo se, W risulta un sottogruppo abeliano di V ed inoltre il prodotto di uno scalare per un elemento di W è un elemento di W; osserviamo esplicitamente che in tal caso il prodotto esterno di uno scalare per un vettore di W verifica necessariamente le (1.1), (1.2), (1.3) e (1.4), poichè tali proprietà sono verificate per il prodotto di uno scalare per un elemento di V e W è un sottoinsieme di V. In definitiva, tenuto conto delle (A.56), (A.57), (A.58) e di quanto appena detto, possiamo provare ora che: Proposizione 5 Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, allora W risulta un sottospazio di V se, e solo se, sussistono le: W 6= ∅. v, w ∈ W ⇒ v + w ∈ W. k ∈ IK : v ∈ W ⇒ kv ∈ W.

(1.20) (1.21) (1.22)

Dimostrazione Se W è un sottospazio, allora esso è un sottogruppo del gruppo V e quindi esso verifica la (A.57) e la (A.58), cioè la (1.20) e la (1.21); inoltre, il prodotto di uno scalare per un vettore di W deve appartenere a W, onde la (1.22). Se invece W verifica le tre proprietà in enunciato, esso verifica la (A.56) e la (A.57); dalla (1.22), per k = −1, si deduce la (A.58) e quindi W è un sottogruppo di V. Dalla (1.22) si deduce che il prodotto di uno scalare per un vettore di W è un vettore di W, onde W risulta un sottospazio di V. Proveremo ora che: Proposizione 6 Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, allora W risulta un sottospazio di V se, e solo se, sussistono le:

h, k ∈ IK :

W 6= ∅, v, w ∈ W ⇒ hv + kw ∈ W.

(1.23) (1.24)

6

CAPITOLO 1. SPAZI VETTORIALI

Dimostrazione In forza della prop. precedente e poichè la (1.20) e la (1.23) sono uguali si tratta di provare che la (1.24) è equivalente alle (1.21) e (1.22). Se h, k ∈ IK; v, w ∈ W dalla (1.22) segue che hv e kw ∈ W, onde, per la (1.21), si trae che hv + kw ∈ W, cioè la (1.24). Supponiamo ora che valga la (1.24); se h = k = 1, da essa si deduce la (1.21); se invece h = 0, si deduce la (1.22). La proposizione precedente si enuncia più suggestivamente dicendo che il sottoinsieme W dello spazio vettoriale V è un sottospazio di V se, e solo se, esso risulta non vuoto e, contenendo due vettori, contiene ogni loro combinazione lineare. Se W è un sottospazio dello spazio vettoriale V scriveremo anche: W ≤ V.

(1.25)

Proviamo che: Proposizione 7 Sia VIK uno spazio vettoriale sul campo IK. Se W ≤ V, allora necessariamente il vettore nullo di V appartiene a W, cioè: W ≤ V ⇒ 0 ∈ W. (1.26) Dimostrazione Poichè W è un sottospazio di V, allora necessariamente esso risulta non vuoto; sia allora v ∈ W; in forza della (1.22) ogni multiplo di v, secondo uno scalare k, appartiene a W; in particolare, appartiene a W il prodotto dello scalare nullo per v, cioè (cfr. proposizione 1) il vettore nullo. Se J è un insieme di indici, sia {Wi : i ∈ J } una famiglia di sottospazi dello spazio vettoriale VIK . Per l’insieme dei sottospazi della famiglia proveremo ora che: Proposizione 8 Sia VIK uno spazio vettoriale sul campo IK. Se F = {Wi : i ∈ J } è una famiglia di sottospazi di V, allora l’intersezione dei sottospazi della famiglia F è necessariamente un sottospazio di V, cioè \ Wi ≤ V. (1.27) ∀i ∈ J Wi ≤ V ⇒ i∈J

Dimostrazione Dalla prop. 7 segue che ∀i ∈ J risulta 0 ∈ Wi e quindi: \ \ Wi ⇒ Wi 6= ∅. 0∈ i∈J

(1.28)

i∈J

Pertanto, l’intersezione dei sottospazi di F verifica la (1.23). Siano ora h e k due qualsivoglia scalari e siano v e w due qualsiasi elementi della intersezione dei sottospazi di F. Poichè v e w appartengono alla intersezione dei Wi , onde la combinazione lineare hv + kw appartiene, in forza della prop. 6, a ciascun sottospazio Wi . T Ne segue che tale combinazione lineare appartiene a Wi , che, pertanto, verifica la (1.24). Da quanto detto i∈J

in forza della prop. 6, si ha l’asserto. La prop. precedente si enuncia in modo più suggestivo dicendo che l’intersezione di sottospazi di uno spazio vettoriale è un sottospazio. Diamo ora alcuni esempi di sottospazi di uno spazio vettoriale: Se VIK è uno spazio vettoriale sul campo IK, allora esso è un sottospazio di se stesso; il sottoinsieme {0} di V, costituito solo dal vettore nullo, è un sottospazio di V, che diremo sottospazio nullo. Sia VIK = IR3 . I seguenti insiemi di IR3 risultano sottospazi vettoriali: A = {(x, y, z) : x = 0} , B = {(x, y, z) : x + y = 0} , C = {(x, y, z) : 2x + 3y + 4z = 0} .

(1.29)

Proviamo ora che: Proposizione 9 Sia J un qualunque insieme di vettori, non vuoto, dello spazio vettoriale VIK . Sia W l’insieme di tutte le combinazioni lineari di J. Allora W è un sottospazio di V e W contiene J. Dimostrazione Ogni vettore di J è pensabile come combinazione lineare di se stesso a coefficiente uguale a ”1”, onde J ⊆ W e, essendo J non vuoto, W verifica la (1.23).

1.5. GENERATORI.

7

Siano ora v e w due vettori di W. Allora, per definizione di W, sia v che w risultano ciascuno combinazione lineare di un numero finito di vettori di J; cioè, esistono vettori v1 , v2 , ..., vn e w1 , w2 , ..., wm di J e scalari x1 , x2 , ..., xn ed y1 , y2 , ..., ym tali che risulta: v=

n X xi vi i=1

w=

m X yj wj .

(1.30)

j=1

Ogni combinazione lineare di v e w a coefficienti h e k (del campo IK), rispettivamente, è allora della forma: n m X X hv+kw = hxi vi + kyj wj . i=1

(1.31)

i=1

Pertanto, hv+ kw è combinazione lineare dei vettori v1 , v2 , ..., vn e w1 , w2 , ..., wm di J, onde hv+kw appartiene a W, il quale allora verifica anche la (1.24) e risulta un sottospazio.

1.5

Generatori.

Sia VIK uno spazio vettoriale sul campo IK. Se J è un sottoinsieme di V, risulta individuata la famiglia F = {Wi : i ∈ J } dei sottospazi di V, ciascuno dei quali contiene J; tale famiglia non è vuota in quanto almeno V appartiene ad essa. L’intersezione dei sottospazi di F è un sottospazio di V (cfr. prop. 8), che diremo generato da J e denoteremo con hJi. Evidentemente risulta J ⊆ hJi; infatti essendo J contenuto in ciascun elemento di F, è necessariamente contenuto nella loro intersezione. Il sottospazio hJi è quindi il ”più piccolo” sottospazio di V che contiene J. Se l’insieme J genera hJi diremo che J è un insieme di generatori per hJi e che hJi è generato da J. Al riguardo proviamo che: Proposizione 10 Siano VIK uno spazio vettoriale sul campo IK e J un sottospazio di V. Allora, se J = ∅, necessariamente hJi è il sottospazio nullo di V. Se invece J è non vuoto, allora il sottospazio hJi coincide con il sottospazio W di V, costituito da tutte le combinazioni lineari di J (cfr. prop. 9). Dimostrazione Sia F = {Wi : i ∈ J } la famiglia dei sottoinsiemi di V, ciascuno dei quali contiene J; se J = ∅, allora F è costituita da tutti i sottospazi di V, onde anche il sottospazio nullo {0} ∈ F, onde hJi = {0}. Se invece J 6= ∅, allora (cfr. prop. 9) risulta W ∈ F, onde hJi ⊆ W; d’altra parte, poichè J ⊆ Wi , (∀i ∈ J ), il sottospazio Wi , contenendo i vettori di J contiene ogni loro combinazione lineare e quindi: (∀i ∈ J )

W ⊆ Wi ;

(1.32)

Pertanto, W risultando contenuto in ogni spazio di F, risulta contenuto nella loro intersezione hJi, cioè W ⊆ hJi. Poichè avevamo già visto anche hJi ⊆ W, risulta necessariamente hJi = W. Diamo ora alcuni esempi relativi al concetto di insieme di generatori per un sottospazio: • Sia VIK = IR3 . Se J = IR3 , allora, ovviamente: hJi = IR3 . • Se invece J = {e1 , e2 , e3 }, ove e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), allora hJi, dovendo, in forza della prop. 10, coincidere con la totalità delle combinazioni lineari dei vettori e1 , e2 ed e3 , è ancora uguale ad IR3 . • Sia ora J = {e1 , e2 }, allora hJi = {(x, y, 0) : x, y ∈ IR} . • Sia ora VIK = (F, IR, ·) lo spazio vettoriale delle funzioni reali di una variabile reale. Se J = {sin, cos}, allora hJi è il sottospazio delle funzioni della forma λ sin +µ cos con (λ, µ ∈ IR).

1.6

Dipendenza ed indipendenza lineare.

Sia VIK uno spazio vettoriale sul campo IK. Se v1 , v2 , ..., vn sono vettori di V diremo che essi sono linearmente dipendenti se esiste una loro combinazione lineare, a coefficienti non tutti nulli, che sia uguale al vettore nullo. Diremo invece che essi sono linearmente indipendenti se l’unica loro combinazione lineare che sia uguale al vettore nullo è quella a coefficienti tutti nulli, cioè se: n X xi vi = 0 ⇒ ∀i = 1, 2, ..., n, xi = 0. i=1

(1.33)

8

CAPITOLO 1. SPAZI VETTORIALI

Sia ora J un insieme di vettori (eventualmente infinito) appartenenti allo spazio vettoriale VIK costruito sul campo IK. Diremo che J è linearmente indipendente se ogni combinazione lineare di J, a coefficienti non tutti nulli, risulta diversa dal vettore nullo. Diremo invece che J è linearmente dipendente se esiste una combinazione lineare di J, a coefficienti non tutti nulli che sia uguale al vettore nullo. Possiamo ora provare che: Proposizione 11 Siano VIK uno spazio vettoriale sul campo IK e J un sottoinsieme di V. Allora J è linearmente dipendente se, e solo se, esiste un sottoinsieme I di J che sia linearmente dipendente. Dimostrazione Se J è dipendente, basta porre I = J ed è subito visto che J contiene un sottoinsieme dipendente. Sia ora I un sottoinsieme di J che sia dipendente. Poichè I è dipendente, esiste una combinazione lineare di un numero finito di vettori di I, che denotiamo con v1 , v2 , ..., vn , a coefficienti non tutti nulli, che è uguale al vettore nullo. Poichè I ⊆ J i vettori v1 , v2 , ..., vn appartengono a J, il quale risulta allora dipendente. Proposizione 12 Siano VIK uno spazio vettoriale sul campo IK e J un sottoinsieme di V. Se J contiene il vettore nullo, allora J è necessariamente linearmente dipendente. Dimostrazione Dalla prop. 2 segue che il vettore nullo è dipendente e quindi J contiene il sottoinsieme {0} che è dipendente; dalla prop. 11 segue allora l’asserto. Proposizione 13 Siano VIK uno spazio vettoriale sul campo IK e v1 , v2 , ..., vn vettori indipendenti di V. Allora, i vettori v1 , ..., vn , vn+1 risultano linearmente dipendenti se, e solo se, vn+1 appartiene al sottospazio generato da {v1 , v2 , ..., vn }. Dimostrazione Se vn+1 ∈ hv1 , v2 , ..., vn i, allora è combinazione lineare di v1 , v2 , ..., vn e quindi esistono scalari x1 , x2 , ..., xn tali che risulti: n X vn+1 = xi vi , (1.34) i=1

e ne segue:

n X xi vi = 0.

vn+1 −

(1.35)

i=1

Da tale ultima uguaglianza si deduce che la combinazione lineare di v1 , ..., vn , vn+1 a coefficienti rispettivi −x1 , −x2 , ..., −xn ed 1 è uguale al vettore nullo; poichè i suddetti coefficienti sono non tutti nulli (1 6= 0) i vettori v1 , ..., vn , vn+1 risultano dipendenti. Se invece v1 , ..., vn , vn+1 risultano dipendenti, allora esiste una loro combinazione lineare: n+1 X

xi vi = 0,

(1.36)

i=1

con almeno uno tra i coefficienti x1 , ..., xn , xn+1 diverso dallo scalare nullo. Non può risultare xn+1 = 0, altrimenti uno tra x1 , x2 , ..., xn sarebbe diverso da zero ed inoltre avremmo x1 v1 + x2 v2 + ... + xn vn = 0, cioè i vettori v1 , v2 , ..., vn sarebbero dipendenti, contro l’assunto. Pertanto xn+1 6= 0; dividendo allora ambo i membri della (1.36) per xn+1 e con ovvi passaggi otteniamo la: vn+1 = −(xn+1 )

−1

n X xi vi ,

(1.37)

i=1

da cui subito segue che vn+1 ∈ hv1 , v2 , ..., vn i. Quale immediata conseguenza della proposizione precedente, subito segue: Proposizione 14 Siano VIK uno spazio vettoriale sul campo IK e v1 , v2 , ..., vn vettori di V. Allora v1 , v2 , ..., vn sono linearmente dipendenti se, e solo se, uno tra essi è combinazione lineare di restanti. Illustreremo ora, con qualche esempio, i concetti di dipendenza ed indipendenza lineare. Sia VIK = IR3 . I tre vettori e1 = (1, 0, 0), e2 = (0, 1, 0) ed e3 = (0, 0, 1) risultano linearmente indipendenti, come è immediato verificare. Risultano indipendenti anche i tre vettori (1, 1, 0), (1, 0, 1) e (0, 1, 1). Risultano invece dipendenti i quattro vettori e1 , e2 , e3 , v =(1, 1, 1). Proviamo infine che:

1.6. DIPENDENZA ED INDIPENDENZA LINEARE.

9

Proposizione 15 Sia VIK = (F, IR, ·) lo spazio vettoriale delle funzioni reali di una variabile reale. Le due funzioni sin e cos di V risultano linearmente indipendenti. Dimostrazione Si tratta di provare che se λ sin +µ cos (ove λ, µ ∈ IR) è la funzione identicamente nulla 0, allora necessariamente risulta λ = µ = 0. Se λ sin +µ cos = 0,

(1.38)

(λ sin +µ cos)(x) = 0(x) = 0.

(1.39)

λ sin(x) + µ cos(x) = 0.

(1.40)

allora è: ∀x ∈ IR, Pertanto, deve essere ∀x ∈ IR,

Dalla (1.40), posto x = 0, si trae λ sin(0) + µ cos(0) = 0; ponendo invece x = π/2, otteniamo λ sin(π/2) + µ cos(π/2) = 0. Da tali due relazioni, si deduce λ = µ = 0.

10

CAPITOLO 1. SPAZI VETTORIALI

Capitolo 2

BASI E DIMENSIONE 2.1

Definizione e prime proprietà.

Sia VIK uno spazio vettoriale sul campo IK. Diremo base di V ogni insieme di generatori linearmente indipendente di V. Al riguardo sussiste la seguente notevole proposizione di cui omettiamo la complessa dimostrazione: Proposizione 16 Ogni spazio vettoriale non nullo ammette almeno una base. Ogni base dello spazio nullo è vuota. Diamo subito alcuni esempi di basi per uno spazio vettoriale: Sia VIK = IR3 . I tre vettori e1 = (1, 0, 0), e2 = (0, 1, 0) ed e3 = (0, 0, 1) risultano linearmente indipendenti e costituiscono un insieme di generatori di IR3 . Pertanto l’insieme B = {e1 , e2 , e3 } è una base per IR3 . Più in generale, se VIK = IKn , l’insieme B = {e1 , e2 , ..., en }, ove (∀i = 1, 2, ..., n) ei è la n-pla ordinata di scalari tutta nulla, eccezion fatta per l’i-ma componente che è uguale all’unità ”1” di IK, è una base per IKn . Tale base prende il nome di base naturale di IKn . Se VIK = IR3 , esempi di basi, diverse da quella naturale, sono dati dai seguenti insiemi: {(1, 1, 0), (1, 0, 1), (0, 1, 1)} ; {(1, 1, 0), (1, 0, 1), (1, 1, 1)} ;

(2.1)

{(a, 0, 0), (0, b, 0), (0, 0, c)} , ove abc 6= 0.

© ª Se VIK = IK[x], una base per V è data dall’insieme B = 1, x, x2 , ..., xi , ... dei monomi che si riducono ad una potenza della indeterminata x. Infatti ogni polinomio di IK[x] è combinazione lineare di B, onde B genera V; inoltre una combinazione lineare di B è il polinomio nullo se, e solo se, i suoi coefficienti sono tutti nulli, onde B è indipendente; pertanto B è una base di V. Nel seguito noi tratteremo soltanto degli spazi vettoriali che ammettono una base finita (cioè costituita da un numero finito di vettori). Avvertiamo che molte delle proposizioni che proveremo al riguardo, valgono, con convenienti modificazioni, anche per spazi vettoriali che non ammettono basi finite. Prima di passare alla trattazione di spazi vettoriali che ammettono basi finite, diamo un esempio di spazio vettoriale che non ammette alcuna base finita, provando che: Proposizione 17 Ogni base dello spazio vettoriale VIK = IK[x] dei polinomi di una indeterminata x a coefficienti nel campo IK è necessariamente infinita. Dimostrazione Procediamo per assurdo. Supponiamo dunque che IK[x] ammetta una base finita B. Se B = {p1 (x), p2 (x), ..., pn (x)}, siano g1 , g2 , ..., gn i gradi dei polinomi p1 (x), p2 (x), ..., pn (x), rispettivamente. Poichè B è una base di IK[x] essa genera V ed ogni polinomio di IK[x] è combinazione lineare dei polinomi di B. Pertanto risulta: p(x) ∈ IK[x] ⇒ ∃ k1 , k2 , ..., kn ∈ IK : p(x) = k1 p1 + k2 p2 + ... + kn pn .

(2.2)

Dalla (2.2) segue subito che, detto g il grado di p(x), necessariamente risulta: g ≤ γ = max {g1 , g2 , ..., gn } . 11

(2.3)

12

CAPITOLO 2. BASI E DIMENSIONE

Pertanto ogni polinomio di IK[x] ha un grado non superiore a γ. Però, il polinomio xγ+1 appartiene a IK[x] ed il suo grado è superiore a γ. Si è così ottenuta una contraddizione, nata dall’aver supposto che V ammetta una base finita. Pertanto, ogni base di V è necessariamente infinita. Proviamo ora che: Proposizione 18 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è un insieme di vettori di V, B risulta una base per V se, e solo se, ogni vettore di V si scrive in un modo ed in un modo soltanto come combinazione lineare dei vettori di B. Dimostrazione Se B è una base, allora i vettori v1 , v2 , ..., vn generano V; pertanto, ogni vettore di V appartiene a hv1 , v2 , ..., vn i e quindi si scrive in almeno un modo come combinazione lineare di v1 , v2 , ..., vn ; proviamo ora che tale modo è unico. Supponiamo allora che risulti, per v ∈ V: n X v = xi vi ,

(2.4)

i=1

ed anche: v=

n X yi vi .

(2.5)

i=1

Sottraendo membro a membro le due ultime relazioni si ottiene: 0=

n X (xi − yi )vi ,

(2.6)

i=1

ed essendo i vettori v1 , v2 , ..., vn indipendenti, dalla (2.6) si trae: (xi − yi ) = 0

i = 1, 2, ..., n,

(2.7)

da cui segue che: xi = yi

i = 1, 2, ..., n.

(2.8)

Si è così provata la prima parte dell’asserto. Supponiamo ora che ogni vettore di V si scriva esattamente in un modo come combinazione lineare di vettori di B. Allora ogni vettore di V appartiene allo spazio hv1 , v2 , ..., vn i, onde B è un insieme di generatori per V. Proviamo ora che B è indipendente; supponiamo quindi che risulti: n X xi vi = 0.

(2.9)

i=1

Risulta sicuramente anche:

n X yi vi = 0,

ove yi = 0

i = 1, 2, ..., n;

(2.10)

i=1

Dalle (2.9) ed (2.10), e poichè il vettore 0 ∈ V si può scrivere in esattamente un modo come combinazione lineare di v1 , v2 , ..., vn , subito segue: i = 1, 2, ..., n. (2.11) xi = 0 Sia ora B = {v1 , v2 , ..., vn } un insieme di generatori dello spazio vettoriale V. Diremo che B è un insieme minimale di generatori per V se ogni sottoinsieme proprio di B non genera tutto V. In sostanza B è un insieme minimale di generatori per V se sopprimendo un qualunque vettore di B si ottiene un sottoinsieme di B che genera un sottospazio di V che non coincide con V. Se B = {v1 , v2 , ..., vn } è un insieme di vettori indipendenti dello spazio vettoriale V, diremo che B è un sottoinsieme massimale di vettori indipendenti di V, se B non risulta propriamente contenuto in alcun sottoinsieme indipendente di V. In sostanza B è un insieme massimale di vettori di V, se comunque preso v ∈ V, l’insieme {v1 , v2 , ..., vn , v} risulta dipendente. Proviamo ora che:

2.1. DEFINIZIONE E PRIME PROPRIETÀ.

13

Proposizione 19 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è un insieme di vettori di V, allora le tre seguenti proposizioni sono equivalenti: B è una base di V, B è un insieme minimale di generatori di V, B è un insieme massimale di vettori indipendenti di V.

(2.12) (2.13) (2.14)

Dimostrazione Proveremo l’asserto mostrando che: (2.12) ⇒ (2.13) ⇒ (2.14) ⇒ (2.12).

(2.15)

Cominceremo col provare che (2.12) ⇒ (2.13). Poichè B è una base, esso è un insieme di generatori per V e basterà quindi provare la sua minimalità. Procediamo per assurdo e supponiamo che l’insieme di generatori di B non sia minimale; allora è possibile sopprimere uno dei vettori di B, ottenendo da B ancora un insieme di generatori per V; senza perdere di generalità, possiamo supporre che il vettore che possiamo sopprimere sia v1 , onde hv2 , v3 , ..., vn i = V. Poichè v1 ∈ V, il vettore v1 è allora combinazione lineare di v2 , ..., vn ad opportuni coefficienti x2 , ..., xn , cioè: n X v1 = xi vi , (2.16) i=2

da cui segue:

v1 −

n X xi vi = 0,

(2.17)

i=2

cioè che esiste una combinazione lineare di v1 , v2 , ..., vn a coefficienti non tutti nulli (il coefficiente di v1 è lo scalare “1”) che è uguale al vettore nullo, onde v1 , v2 , ..., vn sono dipendenti. Si è così pervenuti ad un assurdo (poichè B è una base e dunque indipendente) nato dall’aver supposto che B non sia minimale rispetto alla proprietà di generare V. Si è così vista la prima implicazione. Proviamo ora che (2.13) ⇒ (2.14). Cominciamo con il provare che v1 , v2 , ..., vn sono indipendenti. Procediamo per assurdo e supponiamo che esista una loro combinazione lineare: n X xi vi = 0,

(2.18)

i=1

con uno almeno tra i coefficienti diverso da zero. Senza perdere di generalità possiamo supporre che sia x1 6= 0; dividiamo allora ambo i membri della (2.18) per x1 e con ovvi passaggi otteniamo la: v1 = − {x1 }−1

n X xi vi ,

(2.19)

i=2

dalla quale si deduce che v1 ∈ hv2 , v3 , ..., vn i. Il sottospazio hv2 , v3 , ..., vn i di V contiene allora i vettori v2 , v3 , ..., vn (come è ovvio) ed il vettore v1 (come si è appena visto); pertanto v1 , v2 , ..., vn ∈ hv2 , v3 , ..., vn i e dunque ogni combinazione lineare di v1 , v2 , ..., vn appartiene al sottospazio hv2 , v3 , ..., vn i di V. Quindi hv1 , v2 , ..., vn i è contenuto in hv2 , v3 , ..., vn i; poichè hv1 , v2 , ..., vn i = V, risulta V ⊆ hv2 , v3 , ..., vn i; ne segue che {v2 , v3 , ..., vn } è un insieme di generatori di V, onde B non è un insieme minimale di generatori di V. Si è così pervenuti ad una contraddizione nata dall’aver supposto che B non sia indipendente. Ne segue l’indipendenza lineare di B. Proviamo ora che B è massimale rispetto alla proprietà di essere indipendente. Sia v ∈ V. Poichè B è un insieme di generatori di V, il vettore v è combinazione lineare di v1 , v2 , ..., vn ad opportuni coefficienti x1 , x2 , ..., xn , cioè: n X v = xi vi , (2.20) i=1

da cui segue:

v−

n X xi vi = 0,

(2.21)

i=1

cioè che i vettori v1 , v2 , ..., vn e v sono dipendenti (il coefficiente di v è lo scalare 00 100 ). Pertanto aggregando a B un qualsiasi vettore di V si ottiene un insieme dipendente e B risulta quindi un insieme massimale di vettori indipendenti. Si è così vista la seconda implicazione.

14

CAPITOLO 2. BASI E DIMENSIONE

Proviamo infine che (2.14) ⇒ (2.12). Poichè B è indipendente per ipotesi è sufficiente mostrare che hv1 , v2 , ..., vn i = V. Sia v ∈ V; L’insieme {v1 , v2 , ..., vn , v} è dipendente, per ipotesi, onde esiste una combinazione lineare: n X xv + xi vi = 0, (2.22) i=1

con uno tra i coefficienti x, x1 , ..., xn diverso da zero. Non può accadere che risulti x = 0, altrimenti uno tra x1 , x2 , ..., xn sarebbe diverso da zero e dalla (2.22) seguirebbe la dipendenza di B. Allora x 6= 0; con ovvi passaggi dalla (2.22) segue allora che: n X −1 v = − {x} xi vi , (2.23) i=1

onde v è combinazione lineare di B. Da quanto detto segue che ogni vettore di V appartiene a hv1 , v2 , ..., vn i e quindi che B genera V. Le proposizioni 18 e 19 sono due caratterizzazioni delle basi di uno spazio vettoriale. Al fine di pervenire al concetto di dimensione di uno spazio vettoriale proviamo che: Proposizione 20 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è una base di V, allora comunque presi n + 1 vettori w1 , ..., wn , wn+1 di V essi risultano dipendenti. Dimostrazione Se w1 , w2 , ..., wn sono dipendenti, l’asserto è conseguenza della prop. 9 . Pertanto proveremo l’asserto nel caso che i vettori w1 , w2 , ..., wn

sono indipendenti.

(2.24)

Poichè B è una base di V, ciascuno dei vettori w1 , ..., wn , wn+1 si può scrivere in esattamente un modo come combinazione lineare dei vettori v1 , v2 , ..., vn (cfr. prop. 18), cioè: w1 = x1,1 v1 + ... + x1,n vn , w2 = x2,1 v1 + ... + x2,n vn , .. . wn = xn,1 v1 + ... + xn,n vn , wn+1 = xn+1,1 v1 + ... + xn+1,n vn , oppure in notazione compatta: wi =

n X xi,j vj

i = 1, 2, ..., n + 1.

(2.25)

(2.26)

j=1

Osserviamo che uno almeno tra i coefficienti che compaiono al secondo membro della prima delle (2.25) è diverso da zero; altrimenti sarebbe w1 = 0, onde (cfr. prop. 12) w1 , w2 , ..., wn sarebbero dipendenti, contro la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori di B) che sia x1,1 6= 0; con ovvi passaggi, dalla prima delle (2.25) segue allora che: ⎡ ⎤ n X v1 = {x1,1 }−1 ⎣w1 − (2.27) x1,j vj ⎦ . j=2

Sostituendo nella seconda, terza, ... (n + 1)-ma delle (2.25) il valore di v1 fornito dalla (2.27) si riescono ad esprimere i vettori w2 , ..., wn , wn+1 quali combinazioni lineari dei vettori w1 , v2 , ..., vn ; cioè nella forma (ove i coefficienti yi,j , con i = 2, ..., n + 1 e j = 1, ..., n, sono convenientemente scelti): wi = yi,1 w1 +

n X yi,j vj

i = 2, ..., n + 1.

(2.28)

j=2

Osserviamo ora che uno almeno tra i coefficienti y2,2 , ..., y2,n è diverso da zero; altrimenti sarebbe w2 = y2,1 w1 , onde w2 − y2,1 w1 = 0 ed i vettori w1 e w2 sarebbero dipendenti; ne seguirebbe (cfr. prop. 11) la dipendenza di {w1 , w2 , ..., wn } contro la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori v2 , ..., vn ) che sia y2,2 6= 0; con ovvi passaggi dalla (2.28) per i = 2 segue che: ⎡ ⎤ 2 n X X −1 ⎣ v2 = − {y2,2 } y2,j wj + y2,j vj ⎦ . (2.29) j=1

j=3

2.1. DEFINIZIONE E PRIME PROPRIETÀ.

15

Sostituendo nella seconda terza, ..., n-ma delle (2.28) il valore di v2 fornito dalla (2.29) si riescono ad esprimere i vettori w3 , ..., wn , wn+1 quali combinazioni lineari dei vettori w1 , w2 , v3 , ..., vn ; cioè nella forma (ove i coefficienti zi,j , con i = 3, ..., n + 1 e j = 1, ..., n, sono convenientemente scelti): 2 n X X zi,j wj + zi,j vj wi = j=1

i = 3, ..., n + 1.

(2.30)

j=3

Osserviamo ora che uno almeno tra i coefficienti z3,3 , ..., z3,n è diverso da zero; altrimenti sarebbe: w3 =

2 X z3,j wj ,

(2.31)

j=1

onde è: w3 −

2 X z3,j wj = 0,

(2.32)

j=1

ed i vettori w1 , w2 e w3 sarebbero dipendenti; ne seguirebbe (cfr. prop. 11) la dipendenza di {w1 , w2 , ..., wn } contro la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori v3 , v4 , ..., vn ) che sia z3,3 6= 0; con ovvi passaggi dalla (2.30) per i = 3 segue che: v3 = − {z3,3 }−1

2 n X X z3,j wj + {z3,3 }−1 w3 − {z3,3 }−1 z3,j vj . j=1

(2.33)

j=4

Sostituendo nella seconda, terza,..., n-ma delle (2.30) il valore di v3 fornito dalla (2.33) si riescono ad esprimere i vettori w4 , ..., wn , wn+1 quali combinazioni lineari dei vettori w1 , w2 , w3 , v4 , ..., vn ;

(2.34)

con considerazioni analoghe a quelle ora descritte, dopo un totale di n iterazioni, si riesce ad esprimere il vettore wn+1 quale combinazione lineare dei vettori w1 , w2 , ..., wn (ove i coefficienti k1 , ..., kn sono convenientemente scelti): n X wn+1 = ki wi . (2.35) i=1

Dalla (2.35) subito segue la: wn+1 −

n X ki wi = 0,

(2.36)

i=1

che prova la dipendenza lineare di w1 , w2 , ..., wn+1 . Dalla proposizione precedente e dalla prop. 11 segue subito che: Proposizione 21 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è una base di V, allora comunque preso un insieme J contenente più di n vettori di V esso risulta necessariamente dipendente. Proviamo ora che: Proposizione 22 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } ,

0

B = {w1 , w2 , ..., wm } ,

sono due basi di V, allora necessariamente risulta n = m. 0

Dimostrazione Se fosse m > n, poichè B è una base di V, i vettori di B sarebbero dipendenti (cfr. prop. 21) ed è escluso che ciò accada (B0 è una base e quindi i suoi vettori sono indipendenti). Se fosse m < n, poichè B0 è una base di V, i vettori di B sarebbero dipendenti (cfr. prop. 21) ed è escluso che ciò accada (B è una base e quindi i suoi vettori sono indipendenti). Avendo escluso che sia m > n oppure n > m, ne segue n = m. Dalle proposizioni precedenti segue che:

16

CAPITOLO 2. BASI E DIMENSIONE

Proposizione 23 Se uno spazio vettoriale ammette una base finita costituita da n oggetti allora ogni altra sua base risulta costituita da n oggetti. Se VIK è uno spazio vettoriale costruito sul campo IK e B = {v1 , v2 , ..., vn } è una sua base diremo che V è di dimensione finita n; la dimensione di uno spazio vettoriale V uguaglia cioè la cardinalità di una (e quindi di ogni) base di V. Osserviamo esplicitamente che (cfr. prop. 20): Proposizione 24 La dimensione di uno spazio vettoriale V è uguale al numero massimo di vettori indipendenti di V. Se VIK è uno spazio vettoriale di dimensione finita n costruito sul campo IK talora lo denoteremo con il simbolo VnIK . Proviamo ora che: Proposizione 25 Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Allora comunque preso un insieme J costituito da m vettori indipendenti di V, esso risulta contenuto in (almeno) una base di V. Dimostrazione In forza della prop. 21 risulta necessariamente m ≤ n. Se è m = n, allora J è, in forza della prop. 21, un insieme massimale di vettori indipendenti, e quindi (cfr. prop. 19) una base di V. Se invece è m < n, allora J non è un insieme massimale di vettori indipendenti (altrimenti esso sarebbe una base di V, costituita da m < n vettori, e la prop. 23 esclude che ciò accada). Pertanto è possibile aggiungere a J un vettore in modo da ottenere un insieme J 0 costituito da m + 1 vettori indipendenti. Se m + 1 = n, allora J 0 costituisce una base di V contenente J. Se invece è m + 1 < n, possiamo ripetere per J 0 le considerazioni già svolte per J ed aggregare a J 0 un vettore in modo da ottenere un insieme J 00 costituito da m + 2 vettori indipendenti. Se m + 2 = n, allora J 00 è una base di V contenente J. Altrimenti, dopo un totale di n − m passi si riesce ad ottenere un insieme I = J (n−m) costituito da n vettori indipendenti e contenente J. L’insieme I è la base cercata. Proposizione 26 Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Se J è un insieme costituito da m generatori di V, allora necessariamente risulta n ≤ m; inoltre J contiene necessariamente (almeno) una base di V. Dimostrazione Sia I un insieme minimale di generatori contenuto in J. Allora, in forza della prop. 19, I è una base per V contenuta in J. Pertanto I è costituito da n vettori ed è n ≤ m (poichè I è un sottoinsieme di J).

2.2

Somme, somme dirette e relazione di Grassmann.

Sia VIK uno spazio vettoriale costruito sul campo IK. Se W1 e W2 sono due sottospazi di V, allora la loro intersezione insiemistica W1 ∩ W2 è (cfr. prop. 8) un sottospazio di V, che chiameremo intersezione di W1 e W2 . L’unione insiemistica di W1 e W2 non è, invece, in generale un sottospazio di V; diremo sottospazio congiungente W1 e W2 o somma di W1 e W2 il sottospazio generato da W1 ∪ W2 . Tale sottospazio somma nel seguito verrà denotato con W1 + W2 . Proviamo al riguardo che: Proposizione 27 Sia VIK uno spazio vettoriale costruito sul campo IK. Se W1 e W2 sono due sottospazi di V, allora il sottospazio somma W1 + W2 di W1 e W2 risulta così definito: W1 + W2 = {w1 + w2 : ∀ w1 ∈ W1 , ∀ w2 ∈ W2 } .

(2.37)

Dimostrazione Per definizione W1 + W2 = hW1 ∪ W2 i; dalla prop. 10 segue allora che la somma di W1 e W2 è la totalità delle combinazioni lineari di un numero finito di vettori appartenenti a W1 ∪ W2 . Pertanto: w ∈ W1 + W2 ⇔ (∃ u1 , ...uh ∈ W1 , ∃ v1 , ...vk ∈ W2 , ∃ x1 , ..., xh , y1 , ..., yk ∈ IK tali che risulti: w =

h k X X xi ui + yj vj ). i=1

j=1

(2.38)

2.2. SOMME, SOMME DIRETTE E RELAZIONE DI GRASSMANN. Poiché

Ph

i=1

xi ui ∈ W1 e

Pk

j=1 yj vj

17

∈ W2 , posto: h X xi ui ; w1 =

k X w2 = yj vj ,

i=1

(2.39)

j=1

dalla (2.38) si trae la (2.37). L’ultima proposizione giustifica il nome di somma per W1 + W2 . Proviamo ora che: Proposizione 28 Sia VIK uno spazio vettoriale costruito sul campo IK e siano W1 ,W2 due suoi sottospazi finito dimensionali. Allora sono individuati il sottospazio somma W1 + W2 ed il sottospazio intersezione W1 ∩ W2 i quali risultano entrambi di dimensione finita. Posto dim W1 = h, dim (W1 + W2 ) = c,

dim W2 = k, dim (W1 ∩ W2 ) = i,

tra queste sussiste la seguente relazione notevole: Relazione di Grassmann:

h + k = c + i.

(2.40)

Dimostrazione Il sottospazio W1 ∩ W2 è di dimensione finita come conseguenza del fatto che W1 e W2 sono di dimensione finita. Proviamo ora la relazione di Grassmann. Poichè W1 ∩ W2 è di dimensione finita i, ogni base di tale sottospazio è costituita da i vettori; fissiamo allora una base Bi = {v1 , v2 , ..., vi } per W1 ∩ W2 . I vettori indipendenti v1 , v2 , ..., vi di W1 ∩ W2 appartengono anche a W1 ; in forza della prop. 25 esistono allora h − i vettori vi+1 , ..., vh tali che l’insieme Bh = {v1 , v2 , ..., vh } risulti una base per il sottospazio W1 . Con analoghe considerazioni è possibile provare che esistono k − i vettori w1 , w2 , ..., wk−i tali che l’insieme Bk = {v1 , v2 , ..., vi , w1 , w2 , ..., wk−i } , risulti una base per W2 . Proviamo ora che l’insieme Bh+k−i = {v1 , v2 , ..., vh , w1 , w2 , ..., wk−i } è un insieme di generatori per W1 + W2 . Sia, all’uopo, w ∈ W1 + W2 . In forza della prop. precedente allora esistono w1 ∈ W1 , w2 ∈ W2 tali che risulti: w = w1 + w2 . (2.41) Poichè w1 ∈ W1 , allora esistono scalari x1 , ..., xh tali che: w1 =

h X xj vj .

(2.42)

j=1

Poichè w2 ∈ W2 , allora esistono scalari y1 , ..., yi , z1 , ..., zk−i tali che: w2 =

i k−i X X yj vj + zp wp .

(2.43)

p=1

j=1

Dalle (2.41), (2.42) ed (2.43) si trae: w=

h i k−i X X X xj vj + yp vp + zq wq , j=1

p=1

(2.44)

q=1

la quale implica: w=

i h k−i X X X (xj + yj )vj + xp vp + zq wq , j=1

p=i+1

(2.45)

q=1

dalla quale si deduce che w è combinazione lineare dei vettori v1 , v2 , ..., vh , w1 , w2 , ..., wk−i , onde Bh+k−i è un insieme di generatori per W1 + W2 . Proviamo ora che Bh+k−i è indipendente. Sia, all’uopo: h k−i X X xj vj + zq wq = 0. j=1

q=1

(2.46)

18

CAPITOLO 2. BASI E DIMENSIONE

Dalla quale segue subito che: h k−i X X xj vj = − zq wq .

Poniamo allora:

(2.47)

q=1

j=1

k−i X u = − zq wq .

(2.48)

q=1

Dalla (2.47) segue che u ∈W1 ∩ W2 , onde u è della forma: u=

i X yp vp .

(2.49)

p=1

Dalle (2.48) e (2.49) subito segue: i k−i X X yp vp = − zq wq , p=1

(2.50)

q=1

dalla quale si trae: i k−i X X yp vp + zq wq = 0. p=1

(2.51)

q=1

Dalla (2.51), essendo Bk = {v1 , v2 , ..., vi , w1 , w2 , ..., wk−i } una base per W2 , e quindi costituita da vettori indipendenti, segue che: yj = 0 zj = 0

j = 1, 2, ..., i, j = 1, 2, ..., (k − i) .

(2.52)

Sostituendo nella (2.46) i valori di zj forniti dalla seconda delle (2.52), si ottiene che: h X xj vj = 0.

(2.53)

j=1

dalla quale, essendo Bh = {v1 , v2 , ..., vh } una base per W1 , e quindi costituita da vettori indipendenti, segue che: j = 1, 2, ..., h. (2.54) xj = 0 Dalle (2.52) ed (2.54) segue che Bh+k−i è indipendente. Poichè avevamo già visto che Bh+k−i genera W1 +W2 , abbiamo provato che Bh+k−i è una base per W1 + W2 , onde la dimensione c di W1 + W2 risulta uguale ad h + k − i, cioè c = k + k − i. Se W1 e W2 sono due sottospazi dello spazio vettoriale VIK costruito sul campo IK, diremo che la somma di W1 e W2 è diretta se ogni elemento di W1 + W2 si scrive in esattamente un modo come somma di un vettore di W1 e di un vettore di W2 ; in tal caso la somma di W1 e W2 sarà denotata con il simbolo W1 ⊕ W2 . Al riguardo proveremo ora che: Proposizione 29 Sia VIK uno spazio vettoriale costruito sul campo IK. Se W1 e W2 sono due sottospazi di V, allora la loro somma è diretta se, e solo se, risulta: W1 ∩ W2 = {0} .

(2.55)

Dimostrazione Poniamo dapprima che sia verificata la (2.55). In tal caso, se w ∈ W1 + W2 e se w = w1 + w2

con w1 ∈ W1 e w2 ∈ W2 ,

(2.56)

w = w01 + w20

con w10 ∈ W1 e w20 ∈ W2 .

(2.57)

supponiamo che sia: Sottraendo membro a membro la (2.56) dalla (2.57) otteniamo: 0 = w1 − w10 + w2 − w20 ,

(2.58)

2.2. SOMME, SOMME DIRETTE E RELAZIONE DI GRASSMANN.

19

dalla quale subito segue: w1 − w10 = w20 − w2 .

(2.59)

Poichè il vettore a primo membro della (2.59) appartiene a W1 , ed il vettore a secondo membro di tale uguaglianza appartiene a W2 , segue che: w1 − w10 = w20 − w2 ∈ W1 ∩ W2 = {0} .

(2.60)

Pertanto è w1 − w10 = w20 − w2 = 0, onde w1 = w10 e w20 = w2 . Pertanto il vettore w si scrive in esattamente un modo come somma di un vettore di W1 e di un vettore di W2 , onde la somma W1 + W2 è diretta. Supponiamo ora che sia: W1 + W2 = W1 ⊕ W2 . (2.61) Proviamo che allora sussiste la (2.55). A tal fine, procediamo per assurdo e supponiamo che: ∃ w ∈ W1 ∩ W2 con w 6= 0.

(2.62)

Allora ovviamente è w ∈ W1 + W2 ed inoltre è: w = 0 + w con 0 ∈ W1 e w ∈ W2 ,

(2.63)

w = w + 0 con w ∈ W1 e 0 ∈ W2 .

(2.64)

ed è anche: Pertanto, il vettore w ∈ W1 + W2 si scrive in due distinti modi come somma di un vettore di W1 e di un vettore di W2 . La somma non è allora diretta, contro l’assunto (2.61). Siamo così pervenuti ad una contraddizione, nata dall’aver supposto la (2.62), la quale non può allora verificarsi. Diamo ora alcuni esempi di somme e somme dirette di sottospazi di uno spazio vettoriale. Sia VIK = IR3 , e siano A, B e C tre sottospazi di IR3 generati rispettivamente dalle seguenti basi: BA = {(0, 1, 0), (0, 0, 1)} , BB = {(0, 0, 1), (1, −1, 0)} ,

(2.65)

BC = {(1, 0, 0)} , pertanto la dimensione di A come quella di B è uguale a due, mentre al dimensione di C è uguale a uno. Prendiamo ora in considerazione il sottospazio intersezione A ∩ B. Come è immediato verificare si ha: A ∩ B = h(0, 0, 1)i 6= {0} .

(2.66)

Essendo il sottospazio intersezione diverso dallo spazio nullo, in forza della prop. 29 si deduce che la somma A + B non è diretta. Prendiamo ora in considerazione il sottospazio intersezione A ∩ C. Come è immediato verificare si ha: A ∩ C = {0} .

(2.67)

Essendo il sottospazio intersezione uguale allo spazio nullo, in forza della prop. 29 si deduce che la somma A + C è diretta. Possiamo dunque scrivere A + C = A ⊕ C.

20

CAPITOLO 2. BASI E DIMENSIONE

Capitolo 3

APPLICAZIONI LINEARI 3.1

Definizione e prime proprietà.

Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK. Diremo che l’applicazione L : VIK −→ WIK ,

(3.1)

è lineare se risultano verificate le seguenti proprietà: L(v + v0 ) = L(v) + L(v0 ), ∀ v, v0 ∈ V, ∀ k ∈ IK, ∀ v ∈ V, L(kv) = kL(v).

(3.2) (3.3)

Proviamo ora che: Proposizione 30 Se VIK e WIK sono due spazi vettoriali costruiti sul campo IK ed L:VIK −→ WIK è un’applicazione di V in W, allora L risulta lineare se, e solo se, verifica la: ∀ k, k 0 ∈ IK,

∀ v, v0 ∈ V,

L(kv + k0 v0 ) = kL(v) + k0 L(v0 ).

Dimostrazione Supponiamo che L sia lineare e proviamo che essa verifica la (3.4). IK, ∀ v, v0 ∈ V , allora, in forza della (3.2) risulta:

(3.4) Se ∀ k, k 0 ∈

L(kv + k 0 v0 ) = L(kv) + L(k 0 v0 ).

(3.5)

L(kv) + L(k 0 v0 ) = kL(v) + k 0 L(v0 ).

(3.6)

Poichè L verifica la (3.3) è anche:

Dalle (3.5) e (3.6) segue la (3.4). Proviamo ora che la (3.4) implica le (3.2) e (3.3). Se nella (3.4) poniamo k = k 0 = 1, otteniamo la (3.2). Per provare la (3.3) osserviamo che, avendo denotato con 0V il vettore nullo di V, risulta: L(kv) =L(kv + 0V ) =L(kv+0v),

(3.7)

e che, in forza della (3.4), avendo denotato con 0W il vettore nullo di W, risulta: L(kv+0v) =kL(v) + 0L(v) = kL(v) + 0W = kL(v).

(3.8)

Dalle (3.7) e (3.8) segue la (3.3),onde l’asserto. La prop. precedente fornisce una caratterizzazione delle applicazioni lineari dello spazio vettoriale V nello spazio vettoriale W. Proviamo che: Proposizione 31 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK è un’applicazione lineare di V in W, allora, denotati con 0V e 0W il vettore nullo di V e W (rispettivamente) necessariamente risulta: (3.9) L(0V ) = 0W 21

22

CAPITOLO 3. APPLICAZIONI LINEARI Dimostrazione Dalla prop. 1 e dalla (3.3) segue che, comunque scelto v ∈ V, si ha: L(0V ) = L(0v) = 0L(v) = 0W .

(3.10)

Diamo ora qualche ulteriore definizione. Sia L un’applicazione lineare dello spazio vettoriale W. Se L è iniettiva, diremo che è un monomorfismo. Se L è suriettiva, diremo che è un epimorfismo. Se, infine, L risulta biiettiva, diremo che L è un isomorfismo. Quindi un isomorfismo tra due spazi vettoriali è un monomorfismo che è anche un epimorfismo. Se poi i due spazi vettoriali coincidono, cioè se V = W, diremo che L è un endomorfismo; se l’endomorfismo L è anche un isomorfismo (cioè se è biiettivo) diremo che L è un automorfismo.

3.2

Esempi.

Diamo ora alcuni esempi di applicazioni lineari. Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK. Se 0W è il vettore nullo di W, l’applicazione N :VIK −→ WIK , che associa ad ogni vettore di V il vettore 0W di W, è un’applicazione lineare costante che diremo applicazione costante nulla. Se VIK è uno spazio vettoriale costruito sul campo IK, l’applicazione identica idV :VIK −→ VIK , che associa ad ogni vettore v di V se stesso, cioè tale che idV (v) = v, è un automorfismo di V, come il lettore verificherà facilmente. Se V = IR3 e W = IR2 , sia L:VIK −→ WIK così definita: L((x, y, z)) = (x + y, z). È immediato verificare che L è un epimorfismo. Daremo, nel seguito, altri esempi di applicazioni lineari.

3.3

Nucleo ed immagine.

Sia L:VIK −→ WIK un’applicazione lineare dello spazio vettoriale V nello spazio vettoriale W (costruiti sul medesimo campo IK). Risulta individuato il sottoinsieme Im L di W (cfr. A.49). Esplicitamente è Im L = {w ∈ W : ∃ v ∈ V, L(v) = w} .

(3.11)

Proviamo ora che: Proposizione 32 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK è un’applicazione lineare di V in W, allora il sottoinsieme immagine di L risulta un sottospazio di W, cioè: Im L ≤ W.

(3.12)

Dimostrazione Si tratta di provare che Im L verifica le (1.23) e (1.24). Dalla prop. 31 segue che il vettore nullo di W appartiene ad Im L, che è quindi non vuoto e verifica la (1.23). Siano ora w1 , w2 ∈ Im L e k1 , k2 ∈ IK. Allora esistono v1 , v2 ∈ V tali che L(v1 ) = w1 e L(v2 ) = w2 ; pertanto risulta: L(k1 v1 + k2 v2 ) = k1 L(v1 ) + k2 L(v2 ) = k1 w1 + k2 w2 .

(3.13)

onde k1 w1 + k2 w2 ∈ Im L, e la (1.24) è dimostrata. Se L:VIK −→ WIK è un’applicazione lineare dello spazio vettoriale V nello spazio vettoriale W (costruiti sul medesimo campo IK), denotato con 0W il vettore nullo di W, risulta individuato il seguente sottoinsieme di V: ker L = {v ∈ V : L(v) = 0W } . (3.14)

Evidentemente è ker L = L−1 (0W ); diremo nucleo o kernel di L l’insieme ker L. Al riguardo proviamo ora che: Proposizione 33 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK è un’applicazione lineare di V in W, allora, il nucleo di L risulta un sottospazio di V, cioè: ker L ≤ V.

(3.15)

Dimostrazione Si tratta di provare che ker L verifica le (1.23) e (1.24). Dalla prop 31 segue che il vettore nullo di V appartiene a ker L, che è quindi non vuoto e verifica la (1.23). Siano ora v1 , v2 ∈ ker L e k1 , k2 ∈ IK. Allora risulta: L(v1 ) = L(v2 ) = 0W , (3.16)

3.3. NUCLEO ED IMMAGINE.

23

inoltre é: L(k1 v1 + k2 v2 ) = k1 L(v1 ) + k2 L(v2 ) = = k1 0W + k2 0W = 0W .

(3.17)

Da quanto visto segue che k1 v1 + k2 v2 ∈ ker L, onde ker L verifica la (1.24). Denotato ora con 0V il vettore nullo di V, proviamo che: Proposizione 34 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed L : VIK −→ WIK ,

(3.18)

un’applicazione lineare di V in W. Allora L è un epimorfismo se, e solo se, risulta: Im L = W.

(3.19)

Inoltre L è un monomorfismo se, e solo se, risulta: ker L = {0V } .

(3.20)

Dimostrazione L è un epimorfismo se, e solo se, L è suriettiva; La prima parte dell’asserto è allora ovvia. L è un monomorfismo se, e solo se, L è iniettiva. Se L è iniettiva allora l’unico vettore di V la cui immagine in L è il vettore nullo di W è necessariamente il vettore nullo di V, onde: L è un monomorfismo =⇒ ker L = {0V } .

(3.21)

Al fine di provare che nella (3.21) vale anche l’implicazione in verso opposto, osserviamo che, se ker L = {0V }, posto L(v) = L(v0 ), risulta necessariamente (per la linerità di L): L(v − v0 ) = 0W ; da cui subito segue che: v − v0 ∈ ker L, onde v − v0 = 0V ; da cui ovviamente si trae v = v0 , e quindi la iniettività di L. Pertanto, abbiamo visto che: ker L = {0V } =⇒ L è un monomorfismo. (3.22) Dalla proposizione precedente, subito segue che: Proposizione 35 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed L : VIK −→ WIK ,

(3.23)

un’applicazione lineare di V in W. Allora L è un isomorfismo se, e solo se, risulta Im L = W e ker L = {0V } .

(3.24)

Proviamo ora che: Proposizione 36 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed L : VIK −→ WIK ,

(3.25)

un’applicazione lineare di V in W. Allora le immagini in L di vettori dipendenti di V sono vettori dipendenti di W. Dimostrazione Siano v1 , v2 , ..., vm m vettori dipendenti di V. Esistono allora m scalari x1 , x2 , ..., xm tali che risulti: m X xi vi = 0V , (3.26) i=1

ove 0V è il vettore nullo dello spazio V. Dalla (3.26) subito segue che: Ãm ! X L xi vi = L (0V ) .

(3.27)

i=1

In forza delle prop. 30 e 31, dalla (3.27) segue che: m X xi L(vi ) = 0W ,

(3.28)

i=1

ove 0W è il vettore nullo dello spazio W. Poichè uno almeno tra gli scalari x1 , x2 , ..., xm è diverso da zero, dalla (3.28) segue la dipendenza lineare dei vettori L(v1 ), L(v2 ), ..., L(vm ) di W, immagini dei vettori v1 , v2 , ..., vm (rispettivamente) di V.

24

CAPITOLO 3. APPLICAZIONI LINEARI

Proposizione 37 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed L : VIK −→ WIK ,

(3.29)

un isomorfismo di V in W. Se v1 , v2 , ..., vm sono m vettori di V, allora le loro immagini L(v1 ), L(v2 ), ..., L(vm ) sono dipendenti se, e solo se, sono dipendenti v1 , v2 , ..., vm . Dimostrazione Poichè L è un’applicazione lineare, se v1 , v2 , ..., vn sono dipendenti, dalla prop. 36 segue che anche L(v1 ), L(v2 ), ..., L(vm ) sono dipendenti. Supponiamo ora che L(v1 ), L(v2 ), ..., L(vm ) siano dipendenti. Esistono allora m scalari non tutti nulli x1 , x2 , ..., xm tali che risulti: m X xi L(vi ) = 0W , (3.30) i=1

ove 0W è il vettore nullo dello spazio W. Dalla (3.30), in forza della prop. 30 segue che: Ãm ! X L xi vi = 0W .

(3.31)

i=1

Dalla (3.31) si deduce che: m X xi vi ∈ ker L,

(3.32)

i=1

ma essendo L un isomorfismo, dalla prop. 35 segue che Ker L si riduce al vettore nullo 0V di V, onde è: m X xi vi = 0V .

(3.33)

i=1

Poichè uno almeno tra gli scalari x1 , x2 , ..., xm è diverso da zero, dalla (3.33) segue la dipendenza lineare dei vettori v1 , v2 , ..., vm di V. Dalla prop. precedente e dalla 24 segue subito che: Proposizione 38 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed L : VIK −→ WIK ,

(3.34)

un isomorfismo di V in W. Se v1 , v2 , ..., vm sono m vettori di V, essi risultano indipendenti se, e solo se, tali risultano le loro immagini in L. Ne segue che L, assieme alla sua inversa L−1 , conservano la dipendenza e la indipendenza lineare e che V risulta di dimensione finita n se, e solo se, W risulta di dimensione finita n. Per il caso di un’applicazione lineare L di uno spazio vettoriale VnIK di dimensione finita n in uno spazio WIK , proviamo ora che: Proposizione 39 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK, ed L : VIK −→ WIK , un’applicazione lineare di V in W. Allora, se V è di dimensione finita n, le dimensioni di ker L e di Im L risultano anch’esse finite. Inoltre, dette m e p le dimensioni di tali ultimi spazi (rispettivamente), necessariamente risulta: m + p = n. (3.35) Dimostrazione Poichè V è di dimensione finita n, in forza della prop. 24, segue che il massimo numero di vettori indipendenti di V è uguale a n. Il sottospazio ker L di V dovrà allora essere di dimensione finita non superiore ad n (altrimenti sarebbe possibile trovare n+1 vettori indipendenti di ker L; quindi in V esisterebbero n + 1 vettori indipendenti ed è escluso che ciò accada). Inoltre, dalla prop. 20 segue che comunque presi n + 1 vettori di Im L essi risultano dipendenti, onde anche la dimensione di Im L non può essere superiore ad n ed è dunque finita. Sia ora B = {v1 , v2 , ..., vm } una base per ker L. Si è appena visto che m ≤ n; gli m vettori indipendenti di B, appartenendo a ker L, appartengono a V; allora, in forza della prop. 25 , è possibile trovare n − m vettori vm+1 , vm+2 , ..., vn tali che l’insieme B0 = {v1 , v2 , ..., vm , vm+1 , ..., vn } sia una base per V. Proveremo ora che gli n − m vettori L(vm+1 ), L(vm+2 ), ..., L(vn ) di W costituiscono una base per Im L, cioè che:

3.3. NUCLEO ED IMMAGINE.

25

hL(vm+1 ), L(vm+2 ), ..., L(vn )i = Im L, L(vm+1 ), L(vm+2 ), ..., L(vn ) sono indipendenti.

(3.36) (3.37)

Cominciamo con il provare la (3.36) e sia all’uopo w ∈ Im L; dalla (3.11) segue che esiste un vettore v ∈V tale che L(v) = w; poichè B0 è una base per V, v si scrive in esattamente un modo come combinazione dei vettori di B0 , onde esistono n scalari x1 , x2 , ..., xn tali che risulti: n X v= xi vi .

(3.38)

i=1

Dalla (3.38) si trae, ricordando che L(v) = w , che: ! Ã n n X X xi vi = xi L(vi ). w =L(v) = L i=1

(3.39)

i=1

Poichè v1 , v2 , ..., vm appartengono a ker L, risulta: L(v1 ) = L(v2 ) = ... = L(vm ) = 0W il vettore nullo dello spazio W. Pertanto, dalla (3.39) si trae: n X w= xi L(vi ), (3.40) i=m+1

cioè che w è combinazione lineare dei vettori L(vm+1 ), L(vm+2 ), ..., L(vn ) i quali allora generano Im L. Si è così vista la (3.36). Proviamo ora la (3.37). Supponiamo quindi che sia: n X

i=m+1

Dalla (3.41) subito segue che: L

Ã

xi L(vi ) = 0W .

(3.41)

!

(3.42)

n X

xi vi

i=m+1

= 0W .

Pertanto, risulta: n X

i=m+1

xi vi ∈ ker L.

(3.43)

Poichè B è una base per ker L, esistono m scalari y1 , y2 , ..., ym tali che sia: m n X X yi vi = xi vi , i=1

(3.44)

i=m+1

da cui subito segue che: m n X X xi vi = 0V . − yi vi + i=1

(3.45)

i=m+1

Poichè i vettori di B0 sono indipendenti è allora necessariamente: −yi = 0 xi = 0

i = 1, 2, ..., m, i = m + 1, m + 2, ..., n.

(3.46)

Dalla (3.41) abbiamo dedotto che: xm+1 = xm+2 = ... = xn = 0.

(3.47)

Allora abbiamo provato la (3.37). Pertanto gli n − m vettori di W costituiscono una base per Im L. e quindi la dimensione p di Im L risulta uguale ad n − m, cioè p = n − m, onde la (3.35).

26

CAPITOLO 3. APPLICAZIONI LINEARI

3.4

IKn come modello universale di spazio vettoriale n-dimensionale sul campo IK.

Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è una base di V, allora ogni vettore di V si scrive in esattamente un modo come combinazione lineare dei vettori di B. Se v ∈ V e risulta : n X xi vi . (3.48) v= i=1

Diremo che la n-pla (x1 , x2 , ..., xn ) è la n-pla delle coordinate di v, valutate rispetto alla base B. Ogni volta che verranno utilizzate le coordinate di un vettore rispetto ad una base B = {v1 , v2 , ..., vn }, converremo di fissare un ordinamento dei vettori della stessa, pertanto da ora in avanti scriveremo B = (v1 , v2 , ..., vn ). Proveremo al riguardo che: Proposizione 40 Siano VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK e B = (v1 , v2 , ..., vn ) , una base di V. Allora l’applicazione χB : VnIK −→ IKn che associa ad ogni vettore di V la n-pla delle sue coordinate, valutate rispetto a B, è un isomorfismo tra VnIK e IKn . Dimostrazione Proviamo intanto che χB è lineare. Siano all’uopo v, w ∈ V; se risulta: χB (v) = (x1 , x2 , ..., xn ), allora è: v=

χB (w) = (y1 , y2 , ..., yn ),

n X xi vi ,

w=

i=1

onde risulta:

n X yi vi ,

(3.49)

(3.50)

i=1

n X v + w = (xi + yi )vi .

(3.51)

i=1

Pertanto è:

χB (v + w) = ((x1 + y1 ), (x2 + y2 ), ..., (xn + yn )) = χB (v) + χB (w).

(3.52)

L’applicazione χB verifica allora la (3.2). Proviamo ora che χB verifica anche la (3.3). Se k ∈ K, allora è (cfr.(3.50)): Ã n ! n X X kv = k xi vi = (kxi )vi , (3.53) i=1

i=1

onde risulta:

χB (kv) = ((kx1 ), (kx2 ), ..., (kxn )) = kχB (v).

(3.54)

Abbiamo così visto che χB è lineare. Proviamo ora che è suriettiva: se (z1 , z2 , ..., zn ) ∈ IKn , sia: u=

n X zi vi ,

(3.55)

i=1

allora evidentemente risulta χB (u) = (z1 , z2 , ..., zn ), onde (z1 , z2 , ..., zn ) ∈ Im χB ed χB risulta suriettiva. Proviamo infine che Ker χB si riduce al vettore nullo 0V di V. Sia, a tal fine u0 =

n X ki vi i=1

con

u0 ∈ ker χB ,

(3.56)

allora è: χB (u0 ) = (0, 0, ..., 0),

(3.57)

onde risulta: ki = 0

i = 1, 2, ..., n,

(3.58)

3.5. ULTERIORI PROPRIETÀ DELLE APPLICAZIONI LINEARI.

27

e quindi: u0 = 0V .

(3.59) VnIK

n

Dalla prop. 35 segue allora che l’applicazione lineare χB è un isomorfismo di in IK . Dalla proposizione precedente segue che ogni spazio vettoriale n-dimensionale, costruito sul campo IK, risulta isomorfo allo spazio IKn . Tale spazio è allora, come si dice, un modello universale per gli spazi vettoriali n-dimensionali su IK. Dalla proposizione precedente segue poi in particolare che: Proposizione 41 Siano VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK e B = (v1 , v2 , ..., vn ) , una base di V. Allora la n-pla delle coordinate della somma di due vettori v e w di V, valutata rispetto a B, è la somma delle n-ple delle coordinate di v e di w, valutate rispetto alla stessa base B. Inoltre la n-pla delle coordinate, valutate rispetto a B, del prodotto dello scalare k per un vettore v è data dal prodotto di k per la n-pla delle coordinate di v, valutate rispetto a B. Inoltre, m vettori di V sono dipendenti se, e solo se, tali risultano le n-ple delle loro coordinate, valutate rispetto a B.

3.5

Ulteriori proprietà delle applicazioni lineari.

Proposizione 42 Siano VnIK e WIK due spazi vettoriali costruiti sul medesimo campo IK, L, M : V −→ W due applicazioni lineari di V in W. Sia poi B = (v1 , v2 , ..., vn ) una base di V. Allora le applicazioni L ed M coincidono se, e solo se, esse agiscono allo stesso modo sui vettori di B, cioè: L = M ⇐⇒ L(vi ) = M(vi )

i = 1, 2, ..., n.

(3.60)

Inoltre, se w1 , w2 , ..., wn sono n vettori di W, esiste ed è unica l’applicazione lineare N : V −→ W, tale che: N (vi ) = wi

i = 1, 2, ..., n.

(3.61)

Dimostrazione Se L = M, allora è: ∀ v ∈V,

L(v) = M(v).

(3.62)

Pertanto, in particolare, risulta: L(vi ) = M(vi )

∀i = 1, 2, ..., n.

(3.63)

Se invece è verificata la (3.63), sia v ∈V; poichè B è una base per V, il vettore v individua univocamente le sue coordinate x1 , x2 , ..., xn , valutate rispetto a B, onde è: v=

n X xi vi .

(3.64)

i=1

Dalla (3.64) segue che:

à n ! n X X L(v) = L xi vi = xi L(vi ). i=1

(3.65)

i=1

In forza della (3.63), tale ultima espressione risulta uguale a: n X xi M(vi ),

(3.66)

i=1

la quale è, a sua volta uguale a:

! Ã n X xi vi = M(v). M

(3.67)

i=1

Pertanto, la (3.63) implica L(v) = M(v); si è così completamente provata la prima parte dell’asserto. Per provare la restante parte, basta osservare l’applicazione N : V −→ W, tale che: ! Ã n n X X xi vi = xi wi , (3.68) N i=1

i=1

è lineare (come è facile verificare). Dalla prima parte dell’asserto segue poi che essa è l’unica applicazione lineare di V in W che verifichi la (3.61). Proviamo ora che:

28

CAPITOLO 3. APPLICAZIONI LINEARI

Proposizione 43 Siano VnIK e WIK due spazi vettoriali costruiti sul medesimo campo IK, L : V −→ W un’applicazione lineare da V in W e B = (v1 , v2 , ..., vn ) una base di V. Allora, gli n vettori L(v1 ), L(v2 ), ..., L(vn ) di W generano Im L. Dimostrazione Sia w ∈ Im L; allora esiste un vettore v ∈ V tale che L(v) = w. Poichè B è una base per V, il vettore v si scrive in esattamente un modo come combinazione lineare dei vettori di B. Sia v=

n X xi vi ;

(3.69)

i=1

allora risulta

à n ! n X X w =L(v) = L xi vi = xi L(vi ). i=1

(3.70)

i=1

Pertanto, il vettore w appartiene al sottospazio hL(v1 ), L(v2 ), ..., L(vn )i, onde Im L = hL(v1 ), L(v2 ), ..., L(vn )i. Osserviamo esplicitamente che i vettori L(v1 ), L(v2 ), ..., L(vn ), di cui alla proposizione precedente, in generale, non costituiscano una base per Im L poichè possono risultare dipendenti. Siano ora VIK , WIK e UIK tre spazi vettoriali costruiti sul medesimo campo IK. Siano poi L : VIK −→ WIK e M : WIK −→ UIK applicazioni di V in W e di W in U, rispettivamente. È allora individuata l’applicazione ML : V −→ U dello spazio V nello spazio U, che diremo prodotto di L ed M, definita nel modo seguente: ∀v ∈V

ML(v) = M(L(v)).

(3.71)

Proveremo, al riguardo, ora che: Proposizione 44 Siano ora VIK , WIK e UIK tre spazi vettoriali costruiti sul medesimo campo IK. Se L : VIK −→ WIK ,

M : WIK −→ UIK ,

sono applicazioni lineari di V in W e di W in U, rispettivamente, allora l’applicazione prodotto ML : V −→ U dello spazio V nello spazio U risulta necessariamente lineare. Dimostrazione Siano v, v0 ∈V; allora è ML(v + v0 ) = M(L(v + v0 ));

(3.72)

0

(3.73)

in forza della linearità di L, risulta:

M(L(v + v0 )) = M(L(v) + L(v )); inoltre, essendo lineare anche M, risulta: Infine dalla (3.71) segue: Abbiamo così provato che:

M(L(v) + L(v0 )) = M(L(v)) + M(L(v0 )).

(3.74)

M(L(v)) + M(L(v0 )) = ML(v) + ML(v0 ).

(3.75)

∀ v, v0 ∈V, Siano ora k∈IK e v ∈V; allora è in forza della linearità di L, risulta: inoltre, essendo lineare anche M, risulta:

ML(v + v0 ) = ML(v) + ML(v0 ).

(3.76)

ML(kv) =M(L(kv));

(3.77)

M(L(kv)) =M(kL(v));

(3.78)

M(kL(v)) =kM(L(v)).

(3.79)

kM(L(v)) =kML(v).

(3.80)

Infine dalla (3.71) segue: Abbiamo così provato che: ∀k∈IK, ∀v ∈V,

Dalle (3.76) e (3.81) segue l’asserto.

ML(kv) =kML(v).

(3.81)

Capitolo 4

APPLICAZIONI LINEARI E MATRICI In questo numero tratteremo di applicazioni lineari tra spazi vettoriali di dimensione finita.

4.1

Applicazione lineare associata ad una matrice.

Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite n ed m, rispettivamente. Siano poi B = (v1 , v2 , ..., vn ) una base di V e B 0 = (w1 , w2 , ..., wm ) una base di W. Se Pn v = i=1 xi vi ∈ V, con P il simbolo Xv denoteremo la colonna (x1 , x2 , ..., xn )T delle sue coordinate, valum tate rispetto a B. Se w = i=1 yi wi ∈ W, con il simbolo Yw denoteremo la colonna (y1 , y2 , ..., ym )T delle sue coordinate, valutate rispetto a B0 . Sia ora A ∈ M(m × n, IK) una matrice di m righe ed n colonne ad elementi in IK. Possiamo ora definire un’applicazione, che denoteremo con LB A,B0 e diremo associata ad A, dello spazio V nello spazio W, nel modo che segue: LB A,B0 (v) = w ⇐⇒Y w = AXv .

(4.1)

Osserviamo esplicitamente che l’applicazione LB A,B0 dipende, in modo essenziale, sia dalla matrice A, che dalle basi B e B0 . Proveremo, tra poco che l’applicazione testè definita risulta lineare. Prima di procedere alla 2 dimostrazione di questo risultato converrà fornire qualche esempio. Siano, all’uopo, VnIK = IR3 e Wm IK = IR ; 3 2 siano poi N = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) e N 0 = ((1, 0), (0, 1)) le basi naturali di IR e IR rispettivamente. Sia infine A la matrice così definita: µ ¶ 1 2 1 A= . (4.2) 2 0 3

3 2 3 L’applicazione LN A,N 0 : IR −→ IR associa al vettore v = (x, y, z) di IR il vettore w = (x + 2y + z, 2x + 3z) 2 di IR . Infatti, la colonna delle coordinate di v, valutata rispetto ad N coincide con (x, y, z)T ; il prodotto AXv è allora: ⎛ ⎞ µ ¶ µ ¶ x 1 2 1 ⎝ x + 2y + z y ⎠= AXv = . (4.3) 2 0 3 2x + 3z z

T Pertanto, il vettore w = LN A,N 0 (v) ha colonna delle coordinate Yw , data da (x + 2y + z, 2x + 3z) , onde w = (x + 2y + z, 2x + 3z). 2 0 Siano, ancora VnIK = IR3 e Wm IK = IR ; se B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) e B = ((1, 0), (1, 1)) sono le basi 3 2 di IR e IR , rispettivamente, sia A la matrice definita in (4.2). Il vettore v = (x, y, z) di IR3 ha colonna delle coordinate Xv , valutate rispetto a B, data da (α, β, γ)T , ove x+y−z x−y+z −x + y + z α= , β= , γ= . (4.4) 2 2 2 0 Pertanto, il vettore w = LB A,B0 (v) ha colonna delle coordinate, valutate rispetto a B , data da Yw , ove: ⎛ ⎞ 1 (x + y − z) ⎜ ⎟ ⎛ ⎞ ⎟ µ ¶⎜ 2 x+z ⎜ ⎟ 1 2 1 ⎜ 1 ⎠. ⎝ Yw = AXv = (4.5) (x − y + z) ⎟ 1 ⎟= 2 0 3 ⎜ ⎜ 2 ⎟ (5y − x + z) ⎝ 1 ⎠ 2 (y − x + z) 2

29

30

CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI

Pertanto w = (x + z) (1, 0) +

µ

−x + 5y + z 2



(1, 1) =

µ

x + 5y + 3z −x + 5y + z , 2 2



.

(4.6)

Procediamo ora con la dimostrazione della linearità della applicazione definita nella (4.1); proviamo quindi che: Proposizione 45 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V e una base B0 = (w1 , w2 , ..., wm ) di W. Se A ∈ M(m × n, IK) è una matrice ad m righe ed n colonne ad elementi in IK, allora l’applicazione n m LB A,B0 (v) : VIK −→ WIK ,

(4.7)

definita in (4.1) è lineare. Dimostrazione Siano v, v0 ∈ V; denotate con Xv ed Xv0 le colonne delle loro coordinate (rispettivamente), valutate rispetto a B, per la colonna Xv+v0 delle coordinate di v + v0 , valutate sempre rispetto a B, risulta (in forza della prop. 36): Xv+v0 = Xv + Xv0 . (4.8) Analogamente, se k ∈ K e v ∈ V; allora, dette Xv e Xkv le colonne delle coordinate di v e di kv (rispettivamente), valutate rispetto a B, risulta: Xkv = kXv .

(4.9)

0 B 0 0 Siano ora w =LB A,B0 (v) e w =LA,B0 (v ). Le colonne Yw e Yw0 delle coordinate di w e w (rispettivamente), 0 valutate rispetto a B , sono allora date, a norma della (4.1) da:

Yw = AXv ,

Yw0 = AXv0 .

(4.10)

0 00 0 Posto w00 =LB A,B0 (v + v ), la colonna Yw00 delle coordinate di w , valutata rispetto a B , è data da:

Yw00 = AXv+v0 .

(4.11)

Sostituendo nella (4.11) il vettore Xv+v0 fornito dalla (4.8) otteniamo: Yw00 = AXv+v0 = A(Xv + Xv0 ).

(4.12)

In forza della (A.78) dalle (4.12) e (4.10) si trae: Yw00 = AXv + AXv0 = Yw + Yw0 .

(4.13)

Pertanto, la colonna delle coordinate di w00 è la somma delle colonne delle coordinate di w e w0 . Dalla 0 B prop. 40 segue allora che w00 = w + w0 . Ricordando ora le posizioni fatte (w00 =LB A,B0 (v + v ), w =LA,B0 (v), 0 w0 =LB A,B0 (v )), da quanto detto segue che: 0 B B 0 LB A,B0 (v + v ) = LA,B0 (v)+LA,B0 (v ).

(4.14)

0 Se ora u =LB A,B0 (kv), la colonna delle coordinate di u, valutata rispetto a B , è data da:

Yu = AXkv .

(4.15)

Yu = A(kXv ),

(4.16)

Dalle (4.15) e (4.9) segue subito che: in forza della (A.84), dalle (4.16) e (4.10) segue: Yu = k(AXv ) = kYw .

(4.17)

Pertanto, la colonna delle coordinate di u è il prodotto dello scalare k per la colonna delle coordinate di w; B ne segue che u = kw. Ricordando le posizioni fatte (u =LB A,B0 (kv), w =LA,B0 (v)), da quanto detto segue: B LB A,B0 (kv) = kLA,B0 (v).

Dalle (4.14) e (4.18) segue l’asserto. Osserviamo esplicitamente che:

(4.18)

4.2. MATRICE ASSOCIATA AD UN’APPLICAZIONE LINEARE.

31

Proposizione 46 Nelle ipotesi della proposizione precedente, se vj è (j = 1, 2, ..., n) il j-esimo vettore della 0 base B di V allora la colonna delle coordinate del vettore LB A,B0 (vj ), valutata rispetto alla base B , è data dalla j j-esima colonna A della matrice A. Dimostrazione La colonna delle coordinate di vj , valutata rispetto alla base B, è data da Xvj = (0, ..., 1, ..., 0)T , ove l’unità compare in j-esima posizione. Se A = (ai,j ) (i = 1, 2, ..., m; j = 1, 2, ..., n), l’elemento LB A,B0 (vj ) ha, quale valutate rispetto a B0 , la colonna AXvj , esplicitamente data da: ⎛ ⎞ 0 ⎞⎜ 0 ⎟ ⎛ ⎛ a1,j a1,1 a1,2 · · · a1,j · · · a1,n ⎜ ⎟ .. ⎟ ⎜ a ⎜ a2,1 a2,2 · · · a2,j · · · a2,n ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ . ⎟ ⎜ 2,j ⎜ ⎜ .. .. . . . . ⎟=⎜ . .. .. .. .. ⎟ ⎠⎜ ⎝ . . ⎜ 1 ⎟ ⎝ .. ⎜ .. ⎟ am,1 am,2 · · · am,j · · · am,n am,j ⎝ . ⎠ 0

colonna delle coordinate,



⎟ ⎟ ⎟. ⎠

(4.19)

Pertanto, AXvj = Aj .

4.2

Matrice associata ad un’applicazione lineare.

Nel numero precedente abbiamo visto che l’applicazione (associata alla matrice A e definita in (4.1)) n m LB A,B0 : VIK −→ WIK ,

è lineare. Ora proveremo che ogni applicazione lineare di VnIK in Wm IK è associata ad una matrice, nel senso che: Proposizione 47 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V, una base B0 = (w1 , w2 , ..., wm ) di W ed un’applicazione lineare L : V −→ W di V in W. Risulta allora individuata la matrice A ad m righe ed n colonne ad elementi in IK la cui j-esima colonna Aj (j = 1, 2, ..., n) è data dalla colonna delle coordinate dell’immagine in L del j-esimo vettore vj di B, valutata rispetto alla base B0 . Ebbene, l’applicazione lineare LB A,B0 (vj ), definita in (4.1) associata a tale matrice è necessariamente l’applicazione fissata L. Dimostrazione La colonna delle coordinate di L (vj ), valutata rispetto a B0 , per ogni j = 1, 2, ..., n coincide con la j-esima colonna Aj della matrice A (per come è costruita A); d’altra parte (in forza della prop. 0 45), anche la colonna delle coordinate di LB A,B0 (vj ) valutata rispetto a B , per ogni j = 1, 2, ..., n coincide con j B la j-esima colonna A di A. Ne segue che L (vj ) ed LA,B0 (vj ) hanno le stesse coordinate, valutate rispetto a B0 . Pertanto, in forza della prop. 40, risulta: ∀ j = 1, 2, ..., n.

L (vj ) = LB A,B0 (vj ) .

(4.20)

Ne segue che l’applicazione fissata L e la LB A,B0 agiscono allo stesso modo sui vettori della base B di V; dalla prop. 42 segue allora che L = LB . 0 A,B La matrice A di cui alla proposizione precedente, la cui j-esima colonna Aj ( j = 1, 2, ..., n) è data dalla colonna delle coordinate dell’immagine in L del j-esimo vettore vj di B, valutata rispetto alla base B0 , dipende in modo essenziale dall’applicazione lineare L : V −→ W di V in W e dalla scelta delle basi B di V e B0 di W. Diremo che tale matrice che denoteremo con il simbolo AB L,B0 , è la matrice associata ad L quando sono fissate le basi B di V e B0 di W. Dalle prop. 45 e 47 segue allora che: Proposizione 48 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V, una base B0 = (w1 , w2 , ..., wm ) Pn T di W. Se v = i=1 xi vi ∈ V, con il simbolo Xv denoteremo la colonna (x1 , x2 , ..., xn ) delle sue coordinate, Pm valutate rispetto a B. Se w = i=1 yi wi ∈ W con il simbolo Yw denoteremo la colonna (y1 , y2 , ..., ym )T delle sue coordinate, valutate rispetto a B0 . Siano allora L : V −→ W un’applicazione lineare di V in W ed AB L,B0 la matrice associata ad L quando sono fissate le basi B di V e B 0 di W. Allora sussiste la seguente relazione: L (v) = w ⇐⇒ Yw = AB L,B0 Xv .

(4.21)

32

CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI

Illustriamo ora con qualche esempio la nozione di matrice associata ad un’applicazione lineare. Siano, 2 all’uopo, VnIK = IR3 e Wm IK = IR ; siano poi N = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) ,

N 0 = ((1, 0), (0, 1)) ,

(4.22)

le basi naturali di IR3 e IR2 , rispettivamente. Sia infine L : IR3 −→ IR2 , l’applicazione lineare così definita: L (x, y, z) = (x + 2y + z, 2x + 3z) .

(4.23)

La matrice AL N ,N 0 coincide con la matrice definita in (4.2), come subito si verifica. 2 Siano, ancora VnIK = IR3 e Wm IK = IR ; se B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) ,

B0 = ((1, 0), (1, 1)) ,

(4.24)

sono le basi di IR3 e IR2 , rispettivamente, alla applicazione lineare L : IR3 −→ IR2 , così definita: L (x, y, z) = (x + 2y + z, 2x + 3z) , risulta associata la matrice seguente: AB L,B0 =

µ

1 −3 0 2 5 3



(4.25)

.

(4.26)

L ((0, 1, 1)) = (3, 3) ,

(4.27)

Infatti L ((1, 1, 0)) = (3, 2) , L ((1, 0, 1)) = (2, 5) , e poichè le colonne delle coordinate di (3, 2) , (2, 5) , (3, 3) ,

(4.28)

valutate rispetto alla base B0 , sono rispettivamente uguali a T

T

T

(1, 2) , (−3, 5) , (0, 3) ,

(4.29)

la matrice cercata è quella sopra scritta. Evidentemente risulta che: Proposizione 49 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V, una base B 0 = (w1 , w2 , ..., wm ) di W. Se A ∈ M(m × n, IK) è una fissata matrice ad m righe ed n colonne ad elementi in IK, allora è n m B individuata l’applicazione lineare L = LB A,B0 : VIK −→ WIK definita in (4.1). Allora la AL,B0 associata a tale 0 applicazione L, quando sono fissate le basi B di V e B di W coincide necessariamente con la matrice fissata A. Relativamente alla matrice associata ad un prodotto di applicazioni lineari, proviamo ora che: p Proposizione 50 Siano VnIK , Wm IK e UIK tre spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite n, m e p (rispettivamente). Siano poi B , B0 e B00 basi per V, W e U (rispettivamente). Se

L : VIK −→ WIK ,

(4.30)

è un’applicazione lineare di V in W ed M : WIK −→ UIK ,

(4.31) 0

B è un’applicazione lineare di W in U, sono individuate le matrici AB L,B0 e AM,B00 , associate ad L ed M B (rispettivamente) ed anche la matrice AML,B00 , associata all’applicazione lineare prodotto (cfr. prop. 44)

ML : VIK −→ UIK .

(4.32)

Tra tali matrici sussiste la seguente relazione: 0

B B AB ML,B00 = AM,B00 AL,B0 ,

(4.33)

cioè la matrice associata al prodotto ML è il prodotto della matrice associata ad M per la matrice associata ad L (quando le basi sono fissate come nella (4.33)).

4.3. CAMBIAMENTI DI BASE; MATRICI INVERTIBILI.

33

Dimostrazione Sia v ∈ V; poniamo: w = L (v) ;

u = ML (v) .

(4.34)

Denotiamo ora con Xv , Yw e Zu le colonne delle coordinate di v, w ed u, valutate rispetto a B, B0 e B00 (rispettivamente). Dalla (4.21) segue allora che: Zu = AB ML,B00 Xv .

(4.35)

u = M (L (v)) = M (w) .

(4.36)

D’altra parte, in forza della (3.71), risulta:

Pertanto, esiste un’altro modo per calcolare Zu : 0

Zu = AB M,B00 Yw .

(4.37)

Yw = AB L,B0 Xv .

(4.38)

Inoltre è: Sostituendo nella (4.37) il valore di Yw fornito dalla (4.38) segue: 0

B Zu = AB M,B00 AL,B0 Xv .

(4.39)

Dalle (4.39) e (4.35) si trae: 0

B B AB ML,B00 Xv = AM,B00 AL,B0 Xv ,

(4.40)

quale che sia il vettore v ∈ V. Se v = vj , j-esimo (j = 1, 2, ..., n) vettore della base B di V, la colonna è T data da (0, ..., 1, ..., 0) , ove l’unità compare in j-esima posizione; in tal caso, il primo membro della (4.40) è uguale alla j-esima colonna della matrice AB ML,B00 , mentre il secondo membro della (4.40) è uguale alla B0 B j-esima colonna della matrice AM,B00 AL,B0 . Pertanto tali due matrici hanno la j-esima colonna uguale; poiché ciò è stato provato per ogni j = 1, 2, ..., n, si ha la (4.33).

4.3

Cambiamenti di base; matrici invertibili.

Cominciamo con il provare che: Proposizione 51 Sia VnIK , uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se B = (v1 , v2 , ..., vn ) ,

B0 = (w1 , w2 , ..., wn ) ,

sono due basi di V, allora la matrice AB id,B0 associata all’applicazione lineare identica id : V −→ V di V in sé è la matrice identica In di M(n × n, IK) se, e solo se, B = B0 . In particolare, dunque: AB id,B = In .

(4.41)

Dimostrazione L’immagine id(vj ) del j-esimo vettore della base B è (per j = 1, 2, ..., n) uguale a vj ; la T n-pla delle coordinate di vj , valutata rispetto alla base B è data da (0, ..., 1, .., 0) , ove l’unità compare in T j-esima posizione; pertanto la j-esima colonna della matrice AB id,B è data da (0, ..., 1, .., 0) , onde (cfr. A.69) AB id,B = In . T B Se poi AB id,B0 = In , allora la j-esima colonna di Aid,B0 è (0, ..., 1, .., 0) , ove l’unità compare in j-esima posizione (per ogni j = 1, 2, ..., n); pertanto la colonna delle coordinate di id (vj ), immagine del j-esimo vettore della base B, valutata rispetto alla base B0 , è data da (0, ..., 1, .., 0)T ; poichè id (vj ) = vj , il vettore vj di B coincide con il vettore wj di B0 (per ogni j = 1, 2, ..., n); onde B = B0 .

Proposizione 52 Sia VnIK , uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se B = (v1 , v2 , ..., vn ) , è una base di V,allora la matrice AB L,B associata all’applicazione lineare L : V −→ V di V in sé è la matrice identica In di M(n × n, IK) se, e solo se, L è l’applicazione identica di V in sè.

34

CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI

Dimostrazione Se L è l’applicazione identica di V in sè, allora, dalla prop. 51 segue che AB id,B = In . = I . Allora, per ogni j = 1, 2, ..., n, la colonna delle coordinate valutate rispetto alla Sia ora AB n L,B T base B, di L (vj ) è data da (0, ..., 1, .., 0) , ove l’unità compare in j-esima posizione; pertanto, L (vj ) = vj . Da ciò segue che L agisce come l’identità sugli elementi della base B di V. In forza della prop. 37, allora necessariamente L coincide con l’identità di V. Proviamo ora che: Proposizione 53 Sia VnIK uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se B0 = (w1 , w2 , ..., wn ) ,

B = (v1 , v2 , ..., vn ) ,

sono due basi di V, allora denotate con Xv ed Yv le colonne delle coordinate di un vettore v ∈V, valutate rispetto a B e B0 , rispettivamente, necessariamente risulta: Yv = AB id,B0 Xv .

(4.42)

Dimostrazione Dalla (4.21) segue che la colonna AB id,B0 Xv è la colonna delle coordinate di id(v) valutata rispetto alla base B0 . Poichè id(v) = v, si ha l’asserto. Osserviamo esplicitamente che, ai sensi della prop. 47, la j-esima colonna (j = 1, 2, ..., n) della matrice 0 AB id,B0 è la colonna delle coordinate di vj = id (vj ), valutate rispetto alla base B . n Per il caso di un’applicazione lineare L di uno spazio vettoriale V in uno spazio Wn equidimensionali, proviamo ora che: Proposizione 54 Siano VnIK e WnIK due spazi vettoriali costruiti sul medesimo campo IK, aventi uguale dimensione finita n. Siano poi fissate una base B di V e una base B0 di W. Siano ora L : V −→ W un’applicazione 0 lineare di V in W ed AB L,B0 la matrice associata ad L quando sono fissate le basi B di V e B di W. Ebbene B l’applicazione L risulta invertibile se, e solo se, tale risulta la matrice AL,B0 . Dimostrazione Supponiamo dapprima che L risulti invertibile, onde è individuata l’applicazione lineare 0 B L−1 : W −→ V. In forza della prop. 50, per le matrici AB L−1 ,B e AL,B0 risulta: 0

B B AB L−1 ,B AL,B0 = AL−1 L,B , 0

(4.43)

0

B B AB L,B0 AL−1 ,B = ALL−1 ,B0 .

Poichè LL−1 è l’identità di W e poichè L−1 L è l’identità di V, dalla prop. 51 segue che: 0

B AB L−1 ,B AL,B0 = In ,

(4.44)

0

B AB L,B0 AL−1 ,B = In .

Pertanto se L è invertibile allora AB L,B0 risulta invertibile ed è:

¡ B ¢−1 0 = AB AL,B0 L−1 ,B .

(4.45)

Supponiamo ora che la matrice AB L,B0 risulti invertibile e che sia:

È allora individuata l’applicazione lineare

¡ B ¢−1 = B. AL,B0

M = LB B,B0 : W −→ V.

(4.46)

(4.47)

La matrice associata a tale applicazione M, quando sono fissate le basi B0 di W e B di V, coincide (cfr. prop. 49) con B; cioè: 0 AB (4.48) M,B = B. Dalle (4.33), (4.48) e (4.46) segue che per la matrice associata all’applicazione ML : V −→ V, risulta:

0

B B B AB ML,B = AM,B AL,B0 = BAL,B0 = In.

(4.49) (4.50)

4.3. CAMBIAMENTI DI BASE; MATRICI INVERTIBILI.

35

Analogamente per la matrice associata all’applicazione LM : W −→ W, risulta:

0

0

B B B AB LM,B0 = AL,B0 AM,B = AL,B0 B = In.

(4.51) (4.52)

In forza della prop. 52, le (4.50) e (4.52) implicano che ML è l’applicazione identica di V in sé e che LM è l’applicazione identica di W in sè. Pertanto, L ed M risultano l’una l’inversa dell’altra. Sia ora A una matrice quadrata appartenente a M(n × n, IK). Proveremo al riguardo ora che: Proposizione 55 Sia A una matrice quadrata appartenente a M(n × n, IK). Allora A risulta invertibile se, e solo se, le sue colonne A1 , A2 , ..., An sono indipendenti. Dimostrazione Evidentemente, la matrice A individua un’applicazione lineare n n L = LN A,N : IK −→IK ,

(4.53)

quando in IKn è fissata la base naturale N = (e1 , e2 , ..., en ). In forza della prop. 54 risulta: A è invertibile ⇐⇒ L è invertibile.

(4.54)

L’applicazione L è invertibile se, e solo se, L è un isomorfismo. Ciò accade se, e solo se, (cfr. prop. 35), risulta Im L = IKn e ker L = {0}. In forza della prop. 39, ciò equivale a dire che Im L = IKn oppure ker L = {0}. Pertanto: L è invertibile ⇐⇒ Im L = IKn , L è invertibile ⇐⇒ ker L = {0} .

(4.55)

Dalla prop. 43, segue che l’immagine di L coincide con IKn se, e solo se, i vettori L (e1 ) , L (e2 ) , ..., L (en ) sono indipendenti. In forza della prop. 40 e 38 tali vettori sono indipendenti se, e solo se, tali risultano le colonne delle loro coordinate, valutate rispetto ad N . Le colonne delle coordinate dei vettori L (e1 ) , L (e2 ) , ..., L (en ) valutate rispetto ad N coincidono (cfr. prop. 46) con le colonne A1 , A2 , ..., An della matrice A. Pertanto, risulta: Im L = IKn ⇐⇒ A1 , A2 , ..., An sono indipendenti. (4.56) Dalle (4.54), (4.55) e (4.56). Proposizione 56 Sia A una matrice quadrata appartenente a M(n × n, IK). Allora A risulta invertibile se, e solo se, le sue righe A1 , A2 , ..., An sono indipendenti. Dimostrazione A è invertibile, se e solo se, la sua trasposta AT è invertibile; AT è invertibile se, e solo se (cfr. prop. 55), le sue colonne sono indipendenti. Poichè le colonne di AT sono le righe di A.

36

CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI

Capitolo 5

SISTEMI LINEARI 5.1

Premessa.

Sia IKn lo spazio vettoriale n-dimensionale delle n-ple ordinate di elementi di IK. In questo numero denoteremo T ogni elemento v = (x1 , x2 , ..., xn ) ∈ IKn sotto forma di colonna, cioè porremo v = (x1 , x2 , ..., xn ) . Proviamo ora che: Proposizione 57 Sia IKn lo spazio vettoriale n-dimensionale delle n-ple ordinate di elementi di IK. Se in IKn è fissata la base naturale N = {e1 , e2 , ..., en }, allora la colonna Xv delle coordinate del vettore T T v = (x1 , x2 , ..., xn ) di IKn , valutate rispetto ad N , coincide con v = (x1 , x2 , ..., xn ) cioè: Xv = v.

(5.1)

Dimostrazione Risulta: v=

n X xi ei .

(5.2)

i=1

n m Proposizione 58 Siano A una matrice di m righe ed n colonne ad elementi in IK ed L = LN A,N 0 : IK −→ IK n m l’applicazione lineare associata ad A quando in IK ed in IK sono fissate le rispettive basi naturali N ed N 0 . Allora, se v ∈ IKn e w ∈ IKm , necessariamente risulta:

L (v) = w ⇐⇒ w = Av.

(5.3)

Dimostrazione Dalla prop. 49 segue che A = AL N ,N 0 e dalla (4.21) e (5.1) segue l’asserto. Proposizione 59 Siano A una matrice di m righe ed n colonne ad elementi in IK ed n m L = LN A,N 0 : IK −→ IK ,

(5.4)

l’applicazione lineare associata ad A quando in IKn ed in IKm sono fissate le rispettive basi naturali N ed N 0 . Allora dette A1 , A2 , ..., An le colonne della matrice A, necessariamente risulta: ® ­ Im L = A1 , A2 , ..., An .

(5.5)

In altri termini, l’immagine di L è il sottospazio di IKm generato dagli n vettori di IKm ciascuno dei quali è una colonna di A. Dimostrazione Dalla prop. 46 segue che le colonne di A sono le colonne delle coordinate, valutate rispetto ad N 0 , delle immagini in L dei vettori di N . Dalla prop. 57 segue allora che le immagini in L dei vettori di N sono gli n vettori di IKm ciascuno dei quali è una colonna di A. Dalla prop. 43 segue quindi l’asserto. 37

38

5.2

CAPITOLO 5. SISTEMI LINEARI

Sistemi lineari e teorema di Rouché-Capelli.

Consideriamo ora un sistema lineare (cioè costituito da equazioni di primo grado) di m equazioni nelle n incognite x1 , x2 , ..., xn , a coefficienti nel campo IK: ⎧ a1,1 x1 + a1,2 x2 + ... + a1,n xn = b1 ⎪ ⎪ ⎪ ⎨ a2,1 x1 + a2,2 x2 + ... + a2,n xn = b2 . (5.6) .. ⎪ . ⎪ ⎪ ⎩ am,1 x1 + am,2 x2 + ... + am,n xn = bm

Sia A = (ai,j ) ∈ M (m × n, IK) la matrice dei coefficienti delle equazioni del sistema lineare (5.6). Se X = (x1 , x2 , ..., xn )T ∈ IKn è la colonna delle incognite e B = (b1 , b2 , ..., bm )T ∈ IKm è la colonna dei termini noti del sistema di IK, la (5.6) si può scrivere nella forma più compatta: AX = B;

A ∈ M (m × n, IK) ;

B ∈ IKm .

(5.7)

Diremo soluzione del sistema ogni elemento (x1 , x2 , ..., xn )T ∈ IKn , che identicamente soddisfi la (5.7). Se non esiste alcuna soluzione del sistema, diremo che esso è incompatibile. Diremo invece che esso è compatibile, se esso ammette almeno una soluzione. Al riguardo sussiste il seguente teorema di RouchéCapelli: Proposizione 60 Sia assegnato il sistema di m equazioni ed n incognite (5.7). Se A = (ai,j ) ∈ M (m × n, IK) è la matrice dei coefficienti del sistema, sia C la matrice completa dei coefficienti e dei termini noti di (5.7), ottenuta aggregando ad A la colonna B dei termini noti. Allora il sistema risulta compatibile se, e solo se, il rango di A è uguale al rango di C. n m Dimostrazione Sia L = LN l’applicazione lineare associata ad A quando in IKn ed in A,N 0 : IK −→ IK IKm sono fissate le rispettive basi naturali N ed N 0 . Siano A1 , A2 , ..., An le colonne della matrice A, allora risulta: ⎛ ⎞ ⎞ ⎛ .. .. .. .. .. .. .. . ⎟ . . ⎟ ⎜ .1 .2 ⎜ .1 .2 n ⎟ ⎜ A A · · · An B ⎟ . A A A A=⎜ · · · ; C = (5.8) ⎝ ⎠ ⎝ ⎠ .. .. .. .. .. .. .. . . . . . . .

Pertanto, C ∈ M (m × (n + 1), IK). Inoltre il sistema (5.7) si può scrivere nella forma: n X xi Ai = B,

(5.9)

i=1

T

Pertanto, il sistema ammette la soluzione (x1 , x2 , ..., xn ) ∈ IKn , se, e solo se, il vettore colonna dei termini noti B è combinazione lineare delle colonne A1 , A2 , ..., An , a coefficienti x1 , x2 , ..., xn (rispettivamente). Dalla prop.59 segue allora che il sistema è compatibile se, e solo se, risulta: ­ ® B ∈ A1 , A2 , ..., An = Im L. (5.10)

­ ® Se B ∈ A1 , A2 , ..., An , allora la colonna B dipende dalla colonne di A ed il massimo numero di colonne indipendenti di C coincide con il rango di A. Se invece il rango di A coincide con quello di C, allora necessariamente la colonna dei termini noti B è dipendente dalle colonne di A (altrimenti il rango di C sarebbe superiore di una unità a quello di A).

5.3

Sistemi omogenei.

Consideriamo ora un sistema della forma (5.7) con B = 0; la m-pla dei termini noti è cioè tutta nulla. Un siffatto sistema si dice omogeneo ed esplicitamente ha la forma: AX = 0;

A ∈ M (m × n, IK) .

(5.11)

Il sistema (5.11) ammette sempre almeno la soluzione banale tutta nulla e quindi risulta sempre compatibile. Più precisamente:

5.4. INSIEME DELLE SOLUZIONI DI UN SISTEMA.

39

Proposizione 61 Sia assegnato il sistema omogeneo di m equazioni in n incognite (5.11). Se la matrice dei coefficienti del sistema A = (ai,j ) ∈ M (m × n, IK) ha rango uguale a p, allora l’insieme delle soluzioni del sistema (5.11) è un sottospazio (n − p)-dimensionale di IKn . n m l’applicazione lineare associata ad A quando in IKn ed in Dimostrazione Sia L = LN A,N 0 : IK −→ IK IK sono fissate le rispettive basi naturali N ed N 0 . La colonna X ∈ IKn è soluzione di (5.11) se, e solo se, risulta L (X) = 0. Pertanto (in forza della (3.14)), la colonna X è soluzione se, e solo se, risulta: m

X ∈ ker L.

(5.12)

Pertanto, l’insieme delle soluzioni di (5.11) è, in forza della prop. 33, un sottospazio di IKn . Poichè per ipotesi, risulta R (A) = p, la dimensione di Im L (cfr.59) è uguale a p; dalla prop. 39, segue allora che la dimensione di Ker L è uguale ad n − p. Diremo autosoluzione di un sistema omogeneo ogni sua eventuale soluzione non banale, cioè non nulla. Proviamo ora che: Proposizione 62 Nelle ipotesi della proposizione precedente, il sistema (5.11) ammette autosoluzioni se, e solo se, risulta: p < n. (5.13) Dimostrazione Dalla prop. 61 segue che l’insieme delle soluzioni di (5.11) è un sottospazio (n − p)dimensionale di IKn . Tale sottospazio contiene qualche vettore non nullo se, e solo se, la sua dimensione n − p risulta maggiore di zero.

5.4

Insieme delle soluzioni di un sistema.

Consideriamo ora nuovamente il sistema (5.7) di m equazioni in n incognite a coefficienti nel campo IK. Possiamo considerare il sistema omogeneo (5.11) ottenuto da (5.7) sostituendovi la colonna dei termini noti con la colonna tutta nulla 0 ∈ IKm ; diremo allora che (5.11) è il sistema omogeneo associato a (5.7). Proviamo al riguardo che: Proposizione 63 Sia assegnato il sistema di m equazioni in n incognite (5.7). È allora individuato il sistema omogeneo (5.11) ad esso associato. Tale sistema omogeneo è sempre compatibile (cfr. prop. 61). Sia ora S0 ≤ IKn il sottospazio delle sue soluzioni; nell’ulteriore ipotesi che (5.7) risulti compatibile, l’insieme S delle soluzioni di (5.7) risulta non vuoto e sia inoltre Z ∈ S, allora necessariamente risulta: S = {Z + Y : Y ∈ S0 }.

(5.14)

n

Cioè, le soluzioni di (5.7) sono tutte e sole le n-ple di IK ottenute sommando ad una arbitrariamente fissata soluzione Z di (5.7) una soluzione di (5.11). Dimostrazione Poichè Z è per ipotesi soluzione di (5.7), risulta:

Sia ora X ∈ S. Allora risulta:

AZ = B.

(5.15)

AX = B.

(5.16)

Sottraendo membro a membro la (5.15) dalla (5.16), otteniamo: A(X − Z) = 0

(5.17)

Pertanto, la n-pla Y = X − Z risulta soluzione di (5.11), cioè: Sia ora Y ∈ S0 . Allora è:

X ∈ S =⇒ Y = (X − Z) ∈ S0 .

(5.18)

AY = 0.

(5.19)

Posto ora X = Z + Y , dalle (5.15) ed (5.19) segue: AX = A(Z + Y ) = AZ + AY = B + 0 = B,

(5.20)

onde X risulta soluzione di (5.7) ed è X ∈ S. Pertanto, X è soluzione del sistema (5.7) se, e solo se, esiste una soluzione Y del sistema omogeneo associato (5.11) tale che risulti X = Z + Y . Possiamo ora provare che:

40

CAPITOLO 5. SISTEMI LINEARI

Proposizione 64 Siano assegnati il sistema compatibile di m equazioni in n incognite (5.7) ed una ¡ ¢ sua soluzione Z. Se la matrice A dei coefficienti del sistema ha rango uguale a p, e Y 1 , Y 2 , ..., Y n−p è una base per lo spazio S0 delle soluzioni del sistema omogeneo (5.11) associato ad (5.7), allora l’insieme S delle soluzioni di (5.7) è dato da: ¾ ½ n−p P i xi Y : x1 , x2 , ..., xn−p ∈ IK . (5.21) S= Z+ i=1

Dimostrazione Dalla prop. precedente segue® che S = {Z + Y : Y ∈ S0 }. D’altra parte, lo spazio ­ (n − p)-dimensionale S0 coincide con Y 1 , ..., Y n−p , onde risulta: Y ∈ S0 ⇐⇒ Y =

n−p P

xi Y i

x1 , ....., xn−p ∈ IK.

i=1

(5.22)

Dalle (5.22) e (5.14) si ha l’asserto. Osserviamo esplicitamente che l’insieme S0 delle soluzioni del sistema (5.11) è un sottospazio di IKn ; l’insieme S delle soluzioni di (5.7) non è invece, se B 6= 0, un sottospazio di IKn ; tale insieme S può anche risultare vuoto (nel caso in cui il sistema risulti incompatibile), Inoltre, se S 6= ∅, la differenza di due elementi di S non appartiene ad S, bensì ad S0 . Se (5.7) è compatibile, nelle ipotesi della proposizione precedente segue che le sue soluzioni dipendono dagli n − p parametri indipendenti x1 , ....., xn−p ∈ IK, cioè, come si dice (con linguaggio classico, ma improprio, tratto dal caso IK = IR), il sistema ammette ∞n−p soluzioni.

5.5

Sistemi di Cramer.

Sia ora assegnato un sistema lineare di n equazioni in n incognite a coefficienti in IK. Diremo quadrato un tale sistema e se esso è dato da (5.7), allora risulta: AX = B;

A ∈ M(n × n, IK); B ∈ IKn .

(5.23)

Relativamente ai sistemi quadrati proviamo ora che: Proposizione 65 Sia assegnato il sistema quadrato di n equazioni in n incognite (5.23) e sia p il rango per colonne della matrice dei coefficienti A del sistema. Allora il sistema (5.23) ammette esattamente una soluzione se, e solo se, risulta: p = n. (5.24) Dimostrazione Siano A1 , A2 , ..., An le coefficienti e termini noti di (5.23), risulta: ⎛ .. .. ⎜ .1 .2 A=⎜ ⎝ A A ··· .. .. . .

colonne della matrice A, allora, detta C la matrice completa dei ⎞ .. . ⎟ An ⎟ ⎠; .. .



.. ⎜ .1 C=⎜ ⎝ A .. .

.. .. . . A2 · · · An .. .. . .

⎞ .. . ⎟ B ⎟ ⎠. .. .

(5.25)

Se p = n, allora le n colonne A1 , A2 , ..., An sono indipendenti; le n + 1 colonne di C sono n + 1 elementi di IKn e risultano quindi dipendenti; pertanto il massimo numero di colonne indipendenti di C è uguale a p, onde è: R(A) = R(C) = p.

(5.26)

La (5.26), in forza della prop. 60, implica che il sistema è compatibile e sia Z una sua soluzione; dalla prop. 62 segue poi che il sistema omogeneo (5.11) associato ad (5.23) ammette la sola soluzione nulla; infine dalla prop. 63 segue che l’insieme delle soluzioni di (5.23) si riduce alla sola soluzione Z. Pertanto: p = n =⇒ (5.23) ammette esattamente una soluzione.

(5.27)

Se p 6= n, sono possibili due eventualità a seconda che risulti R(A) = R(C), oppure che sia R(A) 6= R(C). Se è R(A) = R(C), il sistema risulta compatibile ed ammette ∞n−p soluzioni; poichè p 6= n, la soluzione di (5.23) non è in tal caso unica. Se invece si verifica la seconda eventualità (R(A) 6= R(C)), il sistema risulta incompatibile e non ammette soluzioni. Da quanto detto segue che se (5.23) ammette esattamente una soluzione, allora necessariamente risulta p = n, cioè: (5.23) ammette esattamente una soluzione =⇒ p = n. Dalle (5.27) ed (5.28) segue l’asserto. Proviamo ora il teorema di Cramer:

(5.28)

5.6. LO SPAZIO DELLE SOLUZIONI DI UN SISTEMA OMOGENEO.

41

Proposizione 66 Sia assegnato il sistema quadrato di n equazioni in n incognite (5.23). Il sistema ammette esattamente una soluzione se, e solo se, la matrice A dei coefficienti risulta non singolare. Se ciò accade, esiste la matrice inversa A−1 (vedi appendice) e la soluzione del sistema è allora data da: X = A−1 B.

(5.29)

Dimostrazione Dalla prop. precedente segue che il sistema (5.23) ammette esattamente una soluzione se, e solo se, il rango di A risulta uguale ad n; ciò equivale a dire che le n colonne della matrice quadrata A sono indipendenti; ciò accade se, e solo se, la matrice A risulta non singolare. È così provata la prima parte dell’asserto. Se A è invertibile, moltiplicando a sinistra, ambo i membri della relazione AX = B, per la matrice A−1 , con ovvi passaggi si ottiene la (5.29), onde l’asserto. Per il caso particolare di un sistema quadrato omogeneo, dalla prop. precedente segue la: Proposizione 67 Il sistema quadrato omogeneo AX = 0, a coefficienti nel campo IK, ammette la sola soluzione banale se, e solo se, la matrice A dei coefficienti risulta non singolare. Possiamo ora, utilizzare la (A.91) per rienunciare il teorema di Cramer nella seguente formulazione: Proposizione 68 Sia assegnato il sistema quadrato di n equazioni in n incognite (5.23). Il sistema ammette esattamente una soluzione se, e solo se, risulta det A 6= 0. Se ciò accade, la soluzione del sistema è allora data da: X = (x1 , x2 , ..., xn )T ∈ IKn , (5.30) ove x1 = (det A)−1 det A(1) , ..., xi = (det A)−1 det A(i) , ..., xn = (det A)−1 det A(n) ,

(5.31)

avendo denotato con A(i) la matrice ottenuta dalla A, sostituendovi, in luogo della i-ma colonna, la colonna B dei termini noti. Dimostrazione Dalla (5.29) segue che: X = A−1 B.

(5.32)

Sostituendo in tale espressione il valore di A−1 fornito dalla (A.91) ed effettuando il prodotto, si ottiene, per l’i-mo elemento di X: n X xi = (det A)−1 e aj,i bj . (5.33) j=1

La somma che compare a secondo membro della (5.33) è appunto il valore del determinante della matrice A(i) ottenuta dalla A, sostituendovi, in luogo della i-ma colonna, la colonna B dei termini noti, onde l’asserto.

5.6

Lo spazio delle soluzioni di un sistema omogeneo.

Cominciamo con l’osservare che: Proposizione 69 Sia assegnato il sistema quadrato omogeneo di n equazioni in n incognite AX = 0. Il sistema ammette autosoluzioni se, e solo se, risulta det (A) = 0. Dimostrazione Dalla prop. precedente. Consideriamo ora il sistema omogeneo (5.11). Con riferimento alla prop. 61 supponiamo che risulti R(A) = p. Senza perdere di generalità possiamo supporre che sia diverso da zero il determinante della matrice B estratta dalle prime p righe e colonne di A. Le prime p righe di A risultano indipendenti ed inoltre ogni altra riga di A dipende da esse. Pertanto, il sistema (5.11) risulta equivalente al sistema ridotto ottenuto considerando soltanto le prime p equazioni di (5.11). Tale sistema è allora il sistema omogeneo di p equazioni in n incognite: DX = 0, ove D è la matrice formata dalle prime p righe di A.

(5.34)

42

CAPITOLO 5. SISTEMI LINEARI Esplicitamente il sistema (5.34) si scrive: ⎧ a1,1 x1 + a1,2 x2 + ... + a1,p xp + a1,p+1 xp+1 + ... + a1,n xn = 0 ⎪ ⎪ ⎪ ⎨ a2,1 x1 + a2,2 x2 + ... + a2,p xp + a2,p+1 xp+1 + ... + a2,n xn = 0 . .. ⎪ . ⎪ ⎪ ⎩ ap,1 x1 + ap,2 x2 + ... + ap,p xp + ap,p+1 xp+1 + ... + ap,n xn = 0

Il sistema (5.35) si può anche scrivere nella forma: ⎧ a1,1 x1 + a1,2 x2 + ... + a1,p xp = −a1,p+1 xp+1 − ... − a1,n xn ⎪ ⎪ ⎪ ⎨ a2,1 x1 + a2,2 x2 + ... + a2,p xp = −a2,p+1 xp+1 − ... − a2,n xn . .. ⎪ . ⎪ ⎪ ⎩ ap,1 x1 + ap,2 x2 + ... + ap,p xp = −ap,p+1 xp+1 − ... − ap,n xn

(5.35)

(5.36)

Osserviamo che la matrice dei coefficienti che compaiono nei primi membri delle equazioni di (5.36) è la matrice B il cui determinante è diverso da zero. Pertanto, fissando un valore arbitrario per le incognite xp+1 , xp+2 , ...., xn che compaiono nei secondi membri, il sistema (5.36) ammette esattamente (a norma della prop. 68.) una soluzione nelle incognite x1 , x2 , ..., xp . Fissiamo allora: ½ i = p + 2, p + 3, ..., n xi = 0 . (5.37) xi = 1 i=p+1 In corrispondenza di tali valori determiniamo la soluzione y1,1 , y1,2 , ..., y1,p del sistema (5.36). Evidentemente, allora, la n-pla: (y1,1 , y1,2 , ..., y1,p , 1, 0, ..., 0) , (5.38) è soluzione di (5.36) e quindi di (5.35) e quindi del sistema (5.11) ad esso equivalente. Procedendo in modo analogo possiamo fissare, poi: ½ i = p + 1, p + 3, ..., n xi = 0 . xi = 1 i=p+2

(5.39)

Scegliamo, cioè, il valore nullo per ognuna delle xp+1 , xp+2 , ..., xn , fatta eccezione per xp+2 che poniamo uguale ad 1. Una tale scelta delle xp+1 , xp+2 , ..., xn , dà luogo alla soluzione (y2,1 , y2,2 , ..., y2,p , 0, 1, ..., 0) ,

(5.40)

di (5.36) e quindi di (5.11). Procedendo in modo simile, poichè è possibile scegliere in n − p modi diversi la variabile a secondo membro di (5.36) cui attribuire il valore uno (attribuendo alle altre il valore zero), possiamo costruire le n − p soluzioni distinte di (5.11) che seguono: (y1,1 , y1,2 , ..., y1,p , 1, 0, ..., 0) , (y2,1 , y2,2 , ..., y2,p , 0, 1, ..., 0) , .. .

(5.41)

(yn,1 , yn,2 , ..., yn,p , 0, 0, ..., 1) . Le n − p soluzioni (5.41) possono essere pensate come le righe di una matrice S ad n − p righe ed n colonne il cui rango è uguale a n − p (le ultime n − p colonne di S formano la matrice identica In−p ). Pertanto, le soluzioni (5.41) sono n − p soluzioni indipendenti di (5.11). Poichè (cfr. prop. 61) lo spazio S0 delle soluzioni di (5.11) ha dimensione n − p, le soluzioni (5.41) costituiscono una base per S0 .

5.7

L’insieme delle soluzioni di un sistema compatibile.

Possiamo ora considerare il sistema (5.7). Con riferimento alla prop. 60 tale sistema è compatibile se, e solo se, il rango della matrice A dei coefficienti coincide con il rango della matrice completa C dei coefficienti e termini noti. Supponiamo che ciò accade, onde (5.7) è compatibile. Posto poi Rc (A) = p, senza perdere di generalità possiamo supporre che sia diverso da zero il determinante della matrice B estratta dalle prime p

5.7. L’INSIEME DELLE SOLUZIONI DI UN SISTEMA COMPATIBILE.

43

righe e colonne di A. Con considerazioni analoghe a quelle svolte nei paragrafi precedenti è facile provare che (5.7) equivale a: ⎧ a1,1 x1 + a1,2 x2 + ... + a1,p xp = b1 − a1,p+1 xp+1 − ... − a1,n xn ⎪ ⎪ ⎪ ⎨ a2,1 x1 + a2,2 x2 + ... + a2,p xp = b2 − a2,p+1 xp+1 − ... − a2,n xn . (5.42) .. ⎪ . ⎪ ⎪ ⎩ ap,1 x1 + ap,2 x2 + ... + ap,p xp = bp − ap,p+1 xp+1 − ... − ap,n xn

Se, in (5.42) fissiamo arbitrariamente le incognite xp+1 , xp+2 , ..., xn , che compaiono nei secondi membri delle equazioni del sistema, il (5.42) diviene un sistema di p equazioni in p incognite con determinante della matrice B dei coefficienti diverso da zero; in tal caso allora esiste ed è unica la soluzione nelle incognite x1 , x2 , ..., xp . Per comodità conviene allora porre: xi = 0

i = p + 1, p + 2, ..., n,

(5.43)

cioè porre uguali a zero tutte le suddette incognite. Detta allora z1 , z2 ..., zp la soluzione ottenuta per (5.42) in conseguenza di tale scelta, allora la n-pla (z1 , z2 ..., zp , 0, 0, ..., 0) risulta soluzione di (5.42) e quindi del sistema (5.7) ad esso equivalente. A norma della prop. 63 l’insieme S delle soluzioni di (5.7) è data dall’insieme dei vettori di IKn ciascuno dei quali è somma di (z1 , z2 ..., zp , 0, 0, ..., 0) con un vettore dello spazio S0 delle soluzioni del sistema omogeneo associato a (5.7).

44

CAPITOLO 5. SISTEMI LINEARI

Capitolo 6

DIAGONALIZZAZIONE 6.1

Definizioni e prime proprietà.

Sia A = (ai,j ) ∈ M(n × n, IK) una matrice quadrata. Diremo che A è diagonale se, e solo se: i 6= j =⇒ ai,j = 0.

(6.1)

Pertanto, la matrice A risulta diagonale se, e solo se, sono nulli tutti i suoi elementi che non giacciono sulla diagonale principale. Ad esempio risultano diagonali le matrici nulla ed identica. Sia ora L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Diremo che L è diagonalizzabile se, e solo se, esiste una base B di IKn tale che la matrice AB L,B associata ad L, rispetto alla base B, sia una matrice diagonale. Diremo che la matrice quadrata A = (ai,j ) ∈ M(n × n, IK) è diagonalizzabile se, e solo se, l’endomorfismo n n LN A,N di IK , associato ad A, quando nello spazio IK è fissata la base naturale N , risulta diagonalizzabile. Al fine di determinare condizioni per stabilire l’eventuale natura diagonalizzabile di una matrice, cominciamo con il dare la seguente definizione. Siano L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn n 0 B0 e B e B0 due basi per IKn . Denotiamo con A = AB L,B e A = AL,B0 le matrici associate ad L quando in IK 0 0 sono fissate le basi B e B (rispettivamente). Le matrici A ed A si dicono simili se ∃C ∈ M(n × n, IK) : A = C −1 A0 C.

(6.2)

Attraverso la seguente proposizione andiamo ora a caratterizzare la relazione di similitudine. Proposizione 70 La relazione di similitudine introdotta nella definizione precedente è di equivalenza. 0

B B Dimostrazione Denotiamo con S la relazione di similarità tra le matrici X = XL,B , Y = YL,B 0 associate n n n 0 ad un endomorfismo L : IK −→ IK quando siano state fissate le basi B e B di IK . S è di equivalenza se risulta riflessiva, simmetrica e transitiva. La proprietà riflessiva risulta verificata assumendo quale matrice C che compare nella 6.2 la matrice identica In :

XSX : X = In−1 XIn .

(6.3)

Allo stesso modo la proprietà simmetrica discende banalmente dalla 6.2; si ha infatti X = C −1 Y C ⇒ Y = CXC −1 .

(6.4)

00

B Consideriamo ora la matrice Z = ZL,B 00 associata alla applicazione lineare L quando sia stata fissata una base n B00 di IK , e supponiamo che Y SZ; esiste quindi D ∈ M(n × n, IK) tale che Y = D−1 ZD. Sostituendo la precedente nella X = C −1 Y C che esprime la similitudine tra X ed Y si ottiene

X = C −1 (D−1 ZD)C = (C −1 D−1 )Z(DC) = (DC)−1 Z(DC),

(6.5)

ovvero XSZ. Nella precedente deduzione si è fatto uso della associatività del prodotto righe per colonne e del fatto che l’inversa del prodotto è uguale al prodotto delle inverse prese in ordine inverso. Dal supporre XSY e Y SZ discende XSZ (proprietà transitiva). 45

46

CAPITOLO 6. DIAGONALIZZAZIONE

Proposizione 71 Siano L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn e B e B0 due basi per n 0 B0 0 IKn . Dette A = AB L,B e A = AL,B0 le matrici associate ad L quando in IK sono fissate le basi B e B n B (rispettivamente), se C = Aid,B0 è la matrice associata all’identità di IK quando si passa dalla base B alla base B0 , necessariamente risulta: (6.6) A = C −1 A0 C. −1 Dimostrazione La matrice AB . Dalla (4.33) segue allora che: id,B0 è (cfr. (4.45)) data da C 0

0

B B B AB L,B = Aid,B AL,B0 Aid,B0 .

(6.7)

Dalla (6.7) segue l’asserto. Sia ora L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Diremo autovettore di L ogni vettore non nullo v ∈ IKn 6= {0} per il quale esiste uno scalare λ ∈ IK tale che risulti L(v) = λv;

(6.8)

in tal caso diremo che lo scalare λ è l’autovalore di L associato all’autovettore v. Osserviamo esplicitamente che un autovalore può risultare nullo, ma ogni autovettore è necessariamente non nullo. Proviamo ora che: Proposizione 72 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Allora L risulta diagonalizzabile se, e solo se, esiste una base B = (v1 , v2 , ..., vn ) di IKn costituita da autovettori di L. Dimostrazione Se esiste una base B = (v1 , v2 , ..., vn ) costituita da autovettori di L, siano λ1 , λ2 , ..., λn gli autovalori ad essi relativi, rispettivamente. Allora, ovviamente, per ogni j = 1, ..., n, risulta: L(vj ) = λj vj .

(6.9)

La j-ma colonna Aj della matrice AB L,B associata ad L, rispetto alla base B è la colonna delle coordinate di L(vj ) valutate rispetto alla base B; pertanto risulta Aj = (0, ..., 0, λj , 0, ..., 0)T . Ne segue che: ⎛

⎜ ⎜ AB = ⎜ L,B ⎝

λ1 0 .. .

0 λ2 .. .

··· ··· .. .

0 0 .. .

0

0

0

λn



⎟ ⎟ ⎟. ⎠

(6.10)

Abbiamo così visto che se esiste una base B = (v1 , v2 , ..., vn ) di IKn costituita da autovettori di L, allora AB L,B risulta diagonale, onde L è diagonalizzabile. Supponiamo ora che L sia diagonalizzabile e sia B una base di IKn tale che AB L,B risulti diagonale e quindi della forma (6.10). In tal caso, ciascuno dei vettori di B verifica la (6.9) e risulta quindi un autovettore di autovalore relativo λj . Abbiamo così provato l’asserto. Dalla prop. precedente subito segue che: Proposizione 73 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Allora L risulta diagonalizzabile se, e solo se, esistono n autovettori indipendenti di L. Dimostrazione Esistono n autovettori indipendenti se, e solo se, esiste una base di IKn costituita da autovettori di L.

6.2

Autospazi.

Proviamo ora che: Proposizione 74 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Comunque preso lo scalare λ ∈ IK, risulta individuato il sottoinsieme E(λ) di IKn così definito: v ∈E(λ) ⇐⇒ v ∈IKn , L(v) = λv.

(6.11)

Tale sottoinsieme E(λ) è sempre un sottospazio di IKn . Inoltre, E(λ) risulta non nullo se, e solo se λ è un autovalore di L.

6.3. RICERCA DEGLI AUTOVALORI.

47

Dimostrazione Dalla (3.9) segue che L(0) = 0; inoltre è (per ogni λ ∈ IK) λ0 = 0. Pertanto, 0 ∈ E(λ) ed E(λ) risulta non vuoto. Siano ora v, v0 ∈ E(λ); allora è L(v) = λv, L(v0 ) = λv0 . Se k, k0 ∈ IK, risulta: L(kv + k0 v0 ) = kL(v) + k0 L(v0 ) = kλv + k 0 λv0 = λ(kv + k 0 v0 ).

(6.12)

Dalla (6.12) segue che E(λ), contenendo due vettori, contiene ogni loro combinazione lineare; abbiamo così completamente provato che E(λ) è un sottospazio di IKn . Ora, E(λ) contiene un vettore non nullo v di IKn se, e solo se v è un autovettore cui è associato l’autovalore λ. Se λ è un autovalore dell’endomorfismo L : IKn −→ IKn , diremo che il sottospazio E(λ) è l’autospazio di L relativo a λ.

6.3

Ricerca degli autovalori.

Per determinare gli autovalori dell’endomorfismo L : IKn −→ IKn , è utile la seguente proposizione: Proposizione 75 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se B è una base per IKn , sia A = AB L,B . Allora lo scalare λ di IK, risulta un autovalore di L se, e solo se, risulta: det(A − λI) = 0,

(6.13)

ove con il simbolo I è denotata la matrice In identica di ordine n. Dimostrazione Dalla prop. precedente segue che λ è un autovalore di L se, e solo se, esiste un vettore non nullo v ∈ IKn tale che: L(v) = λv. (6.14) Detta X la colonna delle coordinate di v ∈ IKn , valutate rispetto a B, la (6.14) equivale alla: AX = λX.

(6.15)

AX = λIX,

(6.16)

AX − λIX = 0,

(6.17)

(A − λI)X = 0.

(6.18)

La (6.15), manifestamente equivale alla: e quindi alla: la quale, infine, equivale alla: Pertanto, λ è un autovalore di L se, e solo se, esiste una colonna non nulla X che soddisfi alla (6.18). Il sistema omogeneo (6.18) ammette autosoluzioni se, e solo se (cfr. 69), risulta: det(A − λI) = 0. Dalla proposizione precedente segue che l’insieme degli autovalori dell’endomorfismo L : IKn −→ IKn coincide con l’insieme delle soluzioni dell’equazione (6.13). Il primo membro della (6.13) è un polinomio di grado n nell’indeterminata λ, a coefficienti in IK; diremo che tale polinomio è il polinomio caratteristico di L. Il polinomio caratteristico dell’endomorfismo L non dipende dalla particolare scelta della base di IKn , come mostra la seguente proposizione: Proposizione 76 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se B e B0 sono due basi n 0 B0 0 per IKn , siano A = AB L,B ed A = AL,B0 le matrici associate ad L quando in IK sono fissate le basi B e B (rispettivamente). Allora per lo scalare λ di IK, risulta: det(A − λI) = det(A0 − λI).

(6.19)

n Dimostrazione Dalla prop. 71. segue che se C = AB id,B0 è la matrice associata all’identità di IK quando si passa dalla base B alla base B0 , necessariamente risulta A = C −1 A0 C, da cui segue:

A − λI = C −1 A0 C − λI,

(6.20)

A − λI = C −1 A0 C − C −1 λIC,

(6.21)

ed essendo I = C −1 C, dalla (6.20) segue:

48

CAPITOLO 6. DIAGONALIZZAZIONE

da cui si trae: A − λI = C −1 (A0 − λI)C. In forza del teorema di Binet (equazione (A.89) in Appendice A), dalla (6.22) segue: ¡ ¢ det(A − λI) = det C −1 det(A0 − λI) det (C) . ¡ ¢ Dalla (A.92) segue che det C −1 = (det (C))−1 ; dalla (6.23) segue allora: det(A − λI) = det(A0 − λI).

(6.22)

(6.23)

(6.24)

Dalle due ultime proposizioni segue subito che: Proposizione 77 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Gli autovalori di L sono tutti e soli gli zeri di IK del polinomio caratteristico di L. Abbiamo visto che uno scalare λ ∈ IK è un autovalore di L se, e solo se esso risulta uno zero del polinomio e ha molteplicità algebrica p se, e solo se, la sua molteplicità caratteristico di L. Diremo che l’autovalore λ algebrica, quale zero del polinomio caratteristico è esattamente uguale a p; cioè se, e solo se, il polinomio e p , ma non per (λ − λ) e p+1 . caratteristico di L risulta divisibile per (λ − λ)

6.4

Diagonalizzazione di una matrice.

Cominciamo con il provare che: Proposizione 78 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi v1 , v2 , ..., vm autovettori di L relativi (rispettivamente) agli autovalori λ1 , λ2 , ..., λm a due a due distinti. In tali ipotesi v1 , v2 , ..., vm risultano necessariamente indipendenti. Dimostrazione Proveremo l’asserto per induzione. Se m = 1, l’autovettore v1 è sicuramente indipendente poichè esso è non nullo (per definizione). Supponiamo ora vero l’asserto nel caso m = t e proviamolo per il caso m = t + 1; all’uopo, siano v1 , v2 , ..., vt , vt+1 autovettori relativi agli autovalori a due a due distinti λ1 , λ2 , ..., λt , λt+1 . Per ipotesi induttiva è: v1 , v2 , ..., vt sono indipendenti. (6.25) Xt+1 Sia ora ki vi una combinazione lineare, a coefficienti in IK, dei vettori v1 , v2 , ..., vt , vt+1 . Supponiamo i=1 che risulti: t+1 X ki vi = 0. (6.26) i=1

Moltiplicando ambo i membri della (6.26) per l’autovalore λt+1 subito otteniamo: Ã t+1 ! t+1 X X λt+1 ki vi = λt+1 (ki vi ) = 0. i=1

(6.27)

i=1

Applicando L ad ambo i membri della (6.26) otteniamo invece: ! t+1 Ã t+1 X X ki vi = ki L (vi ) = 0, L i=1

(6.28)

i=1

da cui segue: t+1 X

ki (λi vi ) =

i=1

t+1 X

λi (ki vi ) = 0.

(6.29)

i=1

Sottraendo membro a membro la (6.29) dalla (6.27), risulta: t X i=1

(λt+1 − λi ) (ki vi ) = 0.

(6.30)

6.4. DIAGONALIZZAZIONE DI UNA MATRICE.

49

Il primo membro della (6.30) è una combinazione lineare nulla dei vettori v1 , v2 , ..., vt che, in forza della ipotesi induttiva (6.25), sono indipendenti. Pertanto, necessariamente risulta: (λt+1 − λi ) ki = 0

i = 1, 2, ..., t.

(6.31)

Gli autovalori λ1 , λ2 , ..., λt sono tutti distinti da λt+1 e dalla (6.31) subito segue: ki = 0

i = 1, 2, ..., t.

(6.32)

Sostituendo nella (6.26) i valori di k1 , k2 , ..., kt forniti dalla (6.32), otteniamo: kt+1 vt+1 = 0,

(6.33)

kt+1 = 0.

(6.34)

da cui subito segue: Dalla (6.26) seguono allora le (6.32) e (6.34), cioè l’indipendenza dei vettori v1 , v2 , ..., vt , vt+1 . Proviamo ora che: Proposizione 79 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se esistono n autovalori λ1 , λ2 , ..., λn di L, a due a due distinti, allora L risulta necessariamente diagonalizzabile. Dimostrazione Siano v1 , v2 , ..., vn autovettori relativi agli autovalori λ1 , λ2 , ..., λn , rispettivamente. In forza della prop. precedente, v1 , v2 , ..., vn risultano indipendenti, e dalla prop. 73 segue l’asserto. Proviamo anche che: Proposizione 80 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm autovalori di L a due a due distinti. Allora, necessariamente, ogni vettore w della somma E(λ1 ) + E(λ2 ) + ... + E(λm ),

(6.35)

degli autospazi ad essi relativi si scrive in un modo ed in P un modo soltanto nella forma v1 + v2 + ... + vm , n ove, per ogni i = 1, ..., m, vi ∈ E(λi ). Pertanto la somma i=1 E(λi ) è diretta, cioè n X i=1

E(λi ) = E(λ1 ) + E(λ2 ) + ... + E(λm ) = E(λ1 ) ⊕ E(λ2 ) ⊕ · · · ⊕ E(λm ).

(6.36)

Dimostrazione Supponiamo che risulti: w=

m X

vi ,

ove vi ∈ E(λi ),

(6.37)

vi0 ,

ove vi0 ∈ E(λi ).

(6.38)

i=1

e supponiamo inoltre che: w=

m X i=1

Dalle (6.37) e (6.38) segue:

m X i=1

(vi − vi0 ) = 0.

(6.39)

Ciascun addendo della forma wi = (vi − vi0 ) è la differenza di due vettori di E(λi ), onde wi ∈ E(λi ) e dalla (6.39) segue: m X wi = 0. (6.40) i=1

Gli addendi a primo membro della (6.40) sono allora tutti nulli; altrimenti la (6.40) esprimerebbe la dipendenza lineare di autovettori relativi ad autovalori a due a due distinti e la prop. 78 esclude che ciò possa accadere. Abbiamo così provato che, per ogni i = 1, ..., m, risulta: 0 = wi = (vi − vi0 ) ,

(6.41)

onde è: vi = vi0

i = 1, ..., m.

(6.42)

50

CAPITOLO 6. DIAGONALIZZAZIONE

Ogni vettore w della somma E(λ1 ) + E(λ2 ) + ... + E(λm ) si scrive dunque in modo univoco nella forma v1 + v2 + ... + vm con vi ∈ E(λi ), i = 1, ..., m, (6.43) da cui E(λ1 ) + E(λ2 ) + ... + E(λm ) = E(λ1 ) ⊕ E(λ2 ) ⊕ · · · ⊕ E(λm ).

(6.44)

Proposizione 81 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm autovalori di L a due a due distinti e supponiamo che le basi degli autospazi E(λ1 ), E(λ2 ), ..., E(λm ) ad essi relativi siano, rispettivamente Bi = (vi,1 , vi,2 , ..., vi,di ) ,

i = 1, 2, ..., m.

(6.45)

Allora, necessariamente l’unione B=

m [

i=1

Bi

(6.46)

Pm Pm è costituita da i=1 di vettori indipendenti, con di = dim [E(λi )]. Ne segue che la somma q = i=1 di delle dimensioni degli autospazi E(λ1 ), E(λ2 ), ..., E(λm ) risulta non maggiore di n. Dimostrazione Supponiamo che per la seguente combinazione lineare dei vettori di B, a coefficienti in IK, risulti: dj m X X kj,i vj,i . (6.47) j=1 i=1

Poniamo allora: dj X

kj,i , vj,i = wj

j = 1, ..., m.

(6.48)

i=1

La (6.47) implica allora: m X

wi = 0.

(6.49)

i=1

Dalla (6.48) segue che, per i = 1, ..., m, risulta wi ∈ E(λi ); pertanto, ogni addendo a primo membro della (6.49) è necessariamente nullo. Altrimenti la (6.49) esprimerebbe la dipendenza lineare di autovettori relativi ad autovalori a due a due distinti e la prop. 78 esclude che ciò possa accadere. Pertanto è, per ogni i = 1, ..., m: wi = 0.

(6.50)

Dalle (6.50) e (6.48) segue allora: di X

ki,j , vi,j = 0.

(6.51)

j=1

Poichè i vettori di Bi costituiscono una base per E(λi ), essi risultano indipendenti, onde dalla (6.51) segue che, per i = 1, ..., m, necessariamente risulta: ki,j = 0,

j = 1, 2, ..., di .

(6.52)

Ne segue che la (6.49) implica che risultano tutti nulli i coefficienti che in essa compaiono a primo membro, onde l’indipendenza dei vettori di B, cioè l’asserto. Possiamo ora provare che: Proposizione 82 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm tutti gli autovalori di L. Allora L risulta diagonalizzabile se, e solo se, la somma delle dimensioni degli autospazi E(λ1 ), E(λ2 ), ..., E(λm ), relativi a λ1 , λ2 , ..., λm (rispettivamente), risulta uguale ad n. precedente, se la somma delle dimensioni PmDimostrazione Con riferimento alle notazioni della proposizione Sm d degli autospazi è uguale ad n, allora l’unione B = B è costituita n autovettori indipendenti e i=1 i i=1 i dalla prop. 73 segue che L risulta diagonalizzabile.

6.5. MOLTEPLICITÀ GEOMETRICA.

51

Supponiamo ora che L risulti diagonalizzabile, onde esiste una base B per IKn costituita da n autovettori di L. Siano ora B1 , B2 , ..., Bm i sottoinsiemi di B così definiti, per i = 1, ..., m: v ∈ Bi ⇐⇒ v ∈ B, v ∈ E(λi ).

(6.53)

Evidentemente, B1 , B2 , ..., Bm risultano a due a due disgiunti ed inoltre la dimensione di E(λi ) è almeno pari al numero dei vettori di Bi (poichè tali vettori appartengono al sottospazio E(λi ) e risultano indipendenti in quanto appartenenti a B). Detta di la dimensione di E(λi ), allora risulta: m X

di = q ≥ n.

(6.54)

m X

di = q ≤ n.

(6.55)

i=1

Dalla prop. precedente segue che:

i=1

Pertanto, dalle (6.54) e (6.55) segue l’asserto.

6.5

Molteplicità geometrica.

Sia λ ∈ IK un autovalore dell’endomorfismo L : IKn −→ IKn . Diremo che la molteplicità geometrica di λ è d se è pari a d la dimensione dell’autospazio E(λ). Pertanto, all’autovalore λ, risultano associati i due numeri: molteplicità algebrica p e molteplicità geometrica d. Proviamo ora che: Proposizione 83 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se µ ∈ IK è un autovalore di L, allora la molteplicità geometrica d di µ risulta necessariamente non superiore alla molteplicità algebrica p di µ. Dimostrazione Se la molteplicità geometrica di µ è d, allora sia B = (v1 , v2 , ..., vd ) una base per E(µ). I vettori v1 , v2 , ..., vd sono d vettori indipendenti di IKn ed è allora possibile trovare n − d vettori 0 vd+1 , vd+2 , ..., vn di IKn tali che B0 = (v1 , v2 , ..., vd , vd+1 , ..., vn ) sia una base per IKn . La matrice AB L,B associata ad L quando in IKn è fissata la base B0 è costituita da n colonne A1 , A2 , ..., Ad , Ad+1 , ..., An . La colonna Ai è (per ogni i = 1, ..., n) la colonna delle coordinate di L(vi ) valutate rispetto a B0 . Poichè v1 , v2 , ..., vd ∈ E(µ),

(6.56)

risulta, per j = 1, ..., d: L(vj ) = µvj . Pertanto, la colonna A di A è (per ogni j = 1, ..., d) tutta nulla salvo 0 lo scalare µ. In definitiva, la matrice AB L,B è della forma: ⎛ µ 0 · · · 0 a1,d+1 a1,d+2 · · · ⎜ 0 µ · · · 0 a2,d+1 a2,d+2 · · · ⎜ ⎜ .. .. . . . .. .. .. ⎜ . . . .. . . . ⎜ ⎜ 0 0 · · · µ ad,d+1 ad,d+2 · · · ⎜ ⎜ . . . .. .. .. . . ... ⎝ .. .. . . . 0 0 · · · 0 an,d+1 an,d+2 · · · j

Pertanto, il polinomio caratteristico di ⎛ µ−λ 0 ⎜ 0 µ − λ ⎜ ⎜ .. .. ⎜ . . det ⎜ ⎜ 0 0 ⎜ ⎜ .. .. ⎝ . . 0 0

(6.57) che nella posizione j − ma ove compare ⎞

a1,n a2,n .. . ad,n .. . an,n

L (cfr. prop. 76) è:

⎟ ⎟ ⎟ ⎟ ⎟. ⎟ ⎟ ⎟ ⎠

··· ··· .. .

0 0 .. .

a1,d+1 a2,d+1 .. .

a1,d+2 a2,d+2 .. .

··· ··· .. .

a1,n a2,n .. .

··· .. . ···

µ−λ .. .

ad,d+1 .. .

ad,d+2 .. .

ad,n .. .

0

an,d+1

an,d+2

··· .. . ···

d

an,n − λ

(6.58)



⎟ ⎟ ⎟ ⎟ ⎟ = 0. ⎟ ⎟ ⎟ ⎠

(6.59)

Pertanto il polinomio caratteristico di L risulta divisibile per (µ − λ) , onde la molteplicità algebrica di µ è almeno d. Concludiamo osservando che, dalla prop. 82, segue che: Proposizione 84 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Allora L risulta diagonalizzabile se, e solo se, la somma delle molteplicità geometriche dei suoi autovalori è uguale ad n.

52

CAPITOLO 6. DIAGONALIZZAZIONE

Capitolo 7

PRODOTTI SCALARI. TEORIA GENERALE. 7.1

Definizione.

Sia VIK uno spazio vettoriale costruito sul campo IK. Sia poi σ : VIK × VIK −→ IK

(7.1)

un’applicazione del quadrato cartesiano di VIK in IK, cioè un’applicazione che ad ogni coppia ordinata (v, w) di vettori di V associa uno scalare σ(v, w) ∈ IK. Diremo che σ è un prodotto scalare definito in V se risultano verificati i seguenti assiomi: ∀v, w ∈ V, σ(v, w) = σ(w, v). 0 ∀v, v , w ∈ V, σ(v + v0 , w) = σ(v, w) + σ(v0 , w). ∀v, w ∈ V, ∀h ∈ IK, σ(hv, w) = hσ(v, w).

(7.2) (7.3) (7.4)

Se σ : VIK × VIK −→ IK è un prodotto scalare definito in V diremo che lo scalare σ(w, v) è il prodotto scalare dei vettori v e w. Cominciamo con il provare che: Proposizione 85 Sia VIK uno spazio vettoriale costruito sul campo IK. Se σ : VIK × VIK −→ IK è un prodotto scalare definito in V, allora necessariamente risulta: ∀v, v0 , w ∈ V, σ(w, v + v0 ) = σ(w, v) + σ(w, v0 ). ∀h ∈ IK, ∀v, w ∈ V, σ(v,hw) = hσ(v, w).

(7.5) (7.6)

Dimostrazione Dalla (7.2) segue: σ(w, v + v0 ) = σ(v + v0 , w).

(7.7)

σ(v + v0 , w) = σ(v, w) + σ(v0 , w).

(7.8)

σ(v, w) + σ(v0 , w) = σ(w, v) + σ(w, v0 ).

(7.9)

Inoltre, dalla (7.3) risulta: Infine, dalla (7.2) si trae: Dalle (7.7), (7.8) e (7.9) segue la (7.5). Per provare la (7.6) basta osservare che dalle (7.2) e (7.4) segue: σ(v, hw) = σ(hw, v) = hσ(w, v).

(7.10)

hσ(w, v) = hσ(v, w).

(7.11)

Dalla (7.2) segue infine: Le (7.10) e (7.11) implicano la (7.6), onde l’asserto. 53

54

CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

7.2

Esempi.

Un esempio di prodotto scalare, che diremo nullo, definito nello spazio vettoriale V è dato (qual che sia lo spazio V) dall’applicazione σ : VIK × VIK −→ IK così definita: ∀v, v0 , w ∈ V,

σ(v, w) = 0.

(7.12)

Sia ora IKn lo spazio delle n-ple ordinate di elementi del campo IK. Se v = (x1 , x2 , ..., xn ),

w = (y1 , y2 , ..., yn ),

sono due elementi di IKn , poniamo: σ(v, w) =

n X xi yi .

(7.13)

i=1

L’applicazione σ : IKn × IKn −→ IK così definita, è un prodotto scalare definito in IKn , come è immediato verificare. Diremo che il prodotto scalare così definito in IKn è l’ordinario prodotto scalare definito in IKn .

7.3

Ortogonalità.

Premettiamo la: Proposizione 86 Sia VIK uno spazio vettoriale costruito sul campo IK. Se σ : VIK × VIK −→ IK è un prodotto scalare definito in V, allora necessariamente risulta: ∀v ∈ V,

σ(v, 0) = σ(0, v) = 0.

(7.14)

Dimostrazione Dalla prop. 1 segue che: σ(v, 0) = σ(v, 0v).

(7.15)

σ(v, 0v) = 0 σ(v, v) = 0.

(7.16)

Dalla (7.6) si ha poi: Dalle (7.15) e (7.16) segue σ(v, 0) = 0 e dalla (7.2) l’asserto. Diremo che i vettori v e w dello spazio vettoriale V sono ortogonali rispetto al prodotto scalare σ definito in V e scriveremo v ⊥σ w se il loro prodotto scalare σ(v, w) è nullo, cioè: v ⊥σ w ⇐⇒ σ(v, w) = 0.

(7.17)

Dalla (7.2) segue subito che: Proposizione 87 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in V. Allora la relazione ⊥σ di ortogonalità rispetto a σ risulta una relazione simmetrica definita in V, cioè: ∀v, w ∈ V,

v ⊥σ w ⇐⇒ w ⊥σ v.

(7.18)

Dalla prop. 86 segue inoltre che: Proposizione 88 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in V. Allora necessariamente risulta: ∀v ∈ V, v ⊥σ 0. (7.19) Cioè, il vettore nullo di V risulta ortogonale, rispetto a σ, ad ogni vettore dello spazio. Sia ora I 6= ∅ un qualsiasi insieme non vuoto di vettori di V. Denoteremo con I⊥σ la totalità dei vettori di V, ciascuno dei quali sia ortogonale, rispetto al prodotto scalare σ definito in V, ad ogni vettore di I; cioè: w ∈ I⊥σ ⇐⇒ ∀v ∈ I, w ⊥σ v. Proviamo al riguardo che:

(7.20)

7.4. MATRICE SIMMETRICA ASSOCIATA AD UN PRODOTTO SCALARE.

55

Proposizione 89 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in V. Se I 6= ∅ è un qualsiasi insieme non vuoto di vettori di V, allora l’insieme I⊥σ definito in (7.20) risulta un sottospazio di V che diremo ortogonale ad I (rispetto a σ). Inoltre risulta I⊥σ = hIi⊥σ ,

(7.21)

cioè il sottospazio ortogonale all’insieme non vuoto I coincide con il sottospazio ortogonale al sottospazio hIi di V generato da I. Dimostrazione Dalla prop. 88 segue che 0 ∈ I⊥σ , onde è: I⊥σ 6= ∅.

(7.22)

Siano ora w1 e w2 ∈ I⊥σ ; allora necessariamente risulta: ∀v ∈ I,

σ(v, w1 ) = σ(v, w2 ) = 0.

(7.23)

Siano quindi h1 , h2 ∈ IK. Dalle (7.5) e (7.6) segue: σ(v, h1 w1 + h2 w2 ) = h1 σ(v, w1 ) + h2 σ(v, w2 ).

(7.24)

Sostituendo nella (7.24) i valori forniti dalle (7.23) si trae: ∀v ∈ I,

σ(v,h1 w1 + h2 w2 ) = 0.

(7.25)

Pertanto, se w1 e w2 ∈ I⊥σ , allora ogni loro combinazione lineare h1 w1 + h2 w2 risulta ortogonale ad ogni vettore di I e quindi appartiene a I⊥σ . Da quanto detto e dalla (7.22) segue che I⊥σ è un sottospazio di V. Per provare l’ultima parte dell’asserto basta osservare che se w ∈ I⊥σ allora esso risulta ortogonale ad ogni vettore di I e quindi (cfr. (7.3) e (7.4)) ad ogni loro combinazione lineare; pertanto, se w ∈ I⊥σ allora w ∈ hIi⊥σ . Se invece w ∈ hIi⊥σ , allora w risulta ortogonale ad ogni vettore di hIi e quindi di I, onde w ∈ I⊥σ .

7.4

Matrice simmetrica associata ad un prodotto scalare.

Sia ora VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK e σ un prodotto scalare definito in V. Sia poi B = (v1 , v2 , ..., vn ) una base per V. È allora definita la matrice quadrata AσB = (ai,j ) di M(n × n, IK) nel modo che segue: ai,j = σ(vi , vj )(i = 1, ..., n; j = 1, ..., n).

(7.26)

AσB è quindi la matrice il cui elemento sulla i-ma riga e j-ma colonna è uguale al prodotto scalare σ(vi , vj ) dei vettori vi e vj della base B. Diremo che AσB è la matrice associata al prodotto scalare σ rispetto alla base B di V. Proviamo al riguardo che: Proposizione 90 Sia ora VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK e σ un prodotto scalare definito in V. Se B = (vi , ..., vn ) è una base per V, sia A = AσB la matrice associata a σ rispetto alla base B. Allora la matrice A risulta simmetrica, cioè: A = AT .

(7.27)

Inoltre, se X ed Y sono le colonne di coordinate, valutate rispetto a B, dei vettori v e w (rispettivamente) di V, allora necessariamente risulta: (7.28) σ(v, w) = X T AY. Dimostrazione La (7.2) implica che ai,j = σ(vi , vj ) = σ(vj , vi ) = aj,i . Pertanto, A è simmetrica e sussiste la (7.27). Per provare la (7.28), osserviamo che, posto: X = (x1 , x2 , ..., xn )T ; allora è v =

Pn

i=1

xi vi ; w =

Pn

j=1

Y = (y1 , y2 , ..., yn )T ,

(7.29)

yj vj ; onde è: ⎞ ⎛ n n X X yj vj ⎠ . σ(v, w) = σ ⎝ xi vi , i=1

j=1

(7.30)

56

CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

Dalle (7.3) e (7.4) segue poi: ⎛ ⎞ ⎛ ⎞ n n n n X X X X σ ⎝ xi vi , yj vj ⎠ = xi σ ⎝vi , yj vj ⎠ .

(7.31)

⎞ ⎛ n n n n X X X X xi σ ⎝vi , yj vj ⎠ = xi yj σ (vi , vj ) ,

(7.32)

i=1

j=1

i=1

j=1

Dalle (7.5) e (7.6) segue anche:

i=1

ed è:

j=1

i=1

j=1

n n X n n X X X xi yj σ (vi , vj ) = xi yj σ (vi , vj ) . i=1

j=1

(7.33)

i=1 j=1

Dalle (7.30), (7.31), (7.32), (7.33) e (7.26) segue allora: σ(v, w) =

n n n n X n X n X X X X xi yj σ (vi , vj ) = xi yj ai,j = xi ai,j yj , i=1 j=1

i=1 j=1

(7.34)

i=1 j=1

che si scrive nella forma più compatta (7.28), onde l’asserto. Se σ è il prodotto scalare nullo (cfr. 7.3) definito nello spazio vettoriale VnIK di dimensione finita n (n ≥ 1) costruito sul campo IK, allora, quale che sia la base B = (v1 , v2 , ..., vn ) per V, la matrice AσB associata a σ, rispetto a B, è la matrice nulla, cioè: AσB = 0. (7.35) Se σ è l’ordinario prodotto scalare definito in IKn (cfr. 7.3), n ≥ 1, allora la matrice AσN associata a σ, rispetto alla base naturale N di IKn è la matrice identica In . In tal caso la (7.28) diviene la (7.13). Proviamo ora che:

Proposizione 91 Siano IKn (n ≥ 1), lo spazio vettoriale delle n-ple ordinate di elementi del campo IK ed N la base naturale per esso. Sia poi A ∈ M(n × n, IK) una matrice quadrata d’ordine n e simmetrica ad elementi in IK. Se v = (x1 , x2 , ..., xn ) e w = (y1 , y2 , ..., yn ) sono due vettori di IKn , poniamo: σ(v, w) = X T AY.

(7.36)

In tali ipotesi l’applicazione σ : IKn × IKn −→ IK definita in (7.36) risulta un prodotto scalare definito in IKn . Dimostrazione Cominciamo con il provare che σ verifica la (7.2); evidentemente è: σ(w, v) = Y T AX.

(7.37)

Y T AX = Y T AT X = (X T AY )T .

(7.38)

Inoltre, essendo A = AT e dalla A.80 segue:

Infine, essendo X T AY una matrice quadrata d’ordine uno, coincide con la sua trasposta e risulta: (X T AY )T = X T AY.

(7.39)

σ(w, v) = X T AY.

(7.40)

σ(w, v) = σ(v, w).

(7.41)

Dalle (7.37), (7.38) e (7.39) si trae: Dalle (7.36) e (7.40) segue allora: Pertanto, l’applicazione σ verifica la (7.2); Dalla (A.79) segue che σ verifica la (7.3) e dalla (A.84) segue che σ verifica la (7.4), onde l’asserto. Proposizione 92 Siano VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK e B = (v1 , v2 , ..., vn ) una base per esso. Se A ∈ M(n × n, IK) è una matrice quadrata d’ordine n e simmetrica ad elementi in IK, dette X ed Y le colonne delle coordinate dei vettori v e w (rispettivamente) di V, valutate rispetto a B, poniamo: σ(v, w) = X T AY. (7.42) In tali ipotesi l’applicazione σ : V × V −→ IK definita in (7.36) risulta un prodotto scalare definito in V. Dimostrazione Analoga alla dimostrazione della proposizione precedente.

7.5. BASI ORTOGONALI.

7.5

57

Basi ortogonali.

Sia VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK nel quale è definito il prodotto scalare σ. Se B = (v1 , v2 , ..., vn ) è una base per V, è individuata la matrice AσB . Diremo che B è ortogonale rispetto a σ, se risulta: (7.43) AσB è diagonale. Evidentemente, se n = 1, ogni base di V risulta ortogonale rispetto ad ogni prodotto scalare definito in V (perchè in tal caso AσB risulta d’ordine uno e quindi diagonale). Per il caso n ≥ 2, proviamo ora che: Proposizione 93 Sia VnIK uno spazio vettoriale di dimensione finita n (n ≥ 2) costruito sul campo IK nel quale è definito il prodotto scalare σ. Sia poi B = (v1 , v2 , ..., vn ) una base per V. Allora B è ortogonale rispetto a σ se, e solo se, i vettori di B risultano a due a due ortogonali rispetto a σ, cioè se, e solo se risulta: ∀vi , vj ∈ B;

vi 6= vj =⇒ vi ⊥σ vj .

(7.44)

Dimostrazione Dalla (7.26) segue che AB σ è diagonale se, e solo se, risulta: ∀vi , vj ∈ B;

vi 6= vj =⇒ σ(vi , vj ) = 0.

(7.45)

La (7.45) equivale alla (7.44), onde l’asserto.

7.6

Prodotto scalare non degenere. Prodotti definiti positivi.

Sia VIK uno spazio vettoriale costruito sul campo IK. Se σ è un prodotto scalare definito in V, diremo che σ è degenere se esiste un vettore non nullo di V che risulta ortogonale, rispetto a σ, ad ogni vettore di V. Diremo invece che il prodotto scalare σ definito nello spazio vettoriale VIK è non degenere se l’unico vettore di V che risulta ortogonale ad ogni vettore di V è il vettore nullo; cioè se risulta: ∀v ∈ V,

σ(v, w) = 0 =⇒ w = 0.

(7.46)

Un esempio di prodotto scalare non degenere, è fornito dall’ordinario prodotto scalare σ (cfr. (7.13)) definito nello spazio vettoriale IKn (n ≥ 1) delle n-ple ordinate di elementi del campo IK. In tal caso infatti, se il vettore w = (y1 , y2 ..., yn ) risulta ortogonale ad ogni vettore di IKn , esso deve, in particolare, risultare ortogonale ad ogni vettore ei della base naturale N di IKn ; l’ordinario prodotto scalare σ(ei , w) è dato dalla i-ma componente yi di w; pertanto, risulta yi = 0,

∀i = 1, ..., n.

(7.47)

Ne segue w = 0. Nel seguito, ci occuperemo di una particolare classe di prodotti scalari non degeneri, definiti in spazi vettoriali costruiti sul campo reale. Siano dunque IK = IR e VIR uno spazio vettoriale costruito sul campo reale IR. Se σ : VIR × VIR −→ IR è un prodotto scalare definito in V, diremo che σ è definito positivo se esso verifica le: ∀v ∈ V, σ(v, v) ≥ 0, σ(v, v) = 0 ⇐⇒ v = 0.

(7.48) (7.49)

Evidentemente, ogni prodotto scalare definito positivo risulta non degenere (poichè per ogni vettore non nullo v, esiste un vettore w ad esso non ortogonale ed è il vettore w = v). Proposizione 94 Sia VIR uno spazio vettoriale costruito sul campo dei reali, nel quale sia introdotto il prodotto scalare definito positivo σ. Se v1 , v2 , ...vm sono vettori non nulli di V, a due a due ortogonali (rispetto a σ), allora necessariamente risulta: v1 , v2 , ...vm Dimostrazione Sia: v=

sono indipendenti. m X xj vj , j=1

(7.50)

(7.51)

58

CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

una combinazione lineare di v1 , v2 , ...vm a coefficienti (rispettivamente) x1 , x2 , ...xm . Se risulta: m X v= xj vj = 0,

(7.52)

j=1

consideriamo il prodotto scalare ⎞ m X 0 = σ (vi , v) = σ ⎝vi , xj vj ⎠ ⎛

i = 1, 2, ..., m.

Evidentemente è (dalle proprietà di prodotto scalare): ⎛ ⎞ m m X X σ ⎝vi , xj vj ⎠ = xj σ (vi , vj ) j=1

(7.53)

j=1

i = 1, 2, ..., m.

(7.54)

j=1

L’elemento σ (vi , vj ) che compare nel secondo membro della (7.54) è (poichè i vettori v1 , v2 , ...vm sono a due a due ortogonali per ipotesi) uguale a zero, ogni qual volta risulti i 6= j. Pertanto, risulta: m X xj σ (vi , vj ) = xi σ (vi , vi ) .

(7.55)

j=1

Dalle (7.53) (7.54) e (7.55) segue: σ (vi , v) = xi σ (vi , vi ) .

(7.56)

Poichè v = 0 dalla (7.56) segue: 0 = σ (vi , 0) = σ (vi , v) = xi σ (vi , vi )

i = 1, 2, ..., m.

(7.57)

Il prodotto scalare σ è per ipotesi definito positivo, onde è; σ (vi , vi ) > 0.

(7.58)

Dalla (7.57) e (7.58) segue che: xi = 0

i = 1, 2, ..., m.

(7.59)

Le considerazioni svolte sinora ci inducono a dedurre che dalla (7.52) segue la (7.59), onde l’asserto. Sia ora A una matrice ad m righe ed n colonne ad elementi reali. È ben noto che, se il rango di A è p, allora il sottospazio S di IRm generato dalle colonne di A ha dimensione p; cioè: ¡­ ®¢ R (A) = p =⇒ dim A1 , A2 , ..., Am = p. (7.60) (ove A1 , A2 , ..., Am sono le colonne di A). Proviamo ora che:

Proposizione 95 La totalità T dei vettori di IRm , pensati come vettori colonna, ciascuno dei quali è ortogonale ad ogni colonna di A è un sottospazio di IRm . Dimostrazione Ovvia conseguenza della proposizione (89) dal momento che ­ ® T := A1 , A2 , ..., Am ⊥ .

(7.61)

Proviamo ora che: Proposizione 96 Sia A la matrice ad m righe le cui n colonne siano: A1 , A2 , ..., An ∈ IRn .

(7.62)

­ ® Detto S = A1 , A2 , ..., An il sottospazio generato dalle colonne di A risulta (dove T è definito nella prop precedente): Y ∈ S ⇐⇒ Y ⊥ U ∀U ∈ T. (7.63)

7.6. PRODOTTO SCALARE NON DEGENERE. PRODOTTI DEFINITI POSITIVI.

59

Dimostrazione Sia Y ∈ S ⇐⇒ ∃ (λ1 , λ2 , ..., λn ) ∈ IRn , tale che: Y =

n X λj Aj .

(7.64) (7.65)

j=1

Se U ∈ T risulta:

¢ ¡ σ U, Ai = 0

cioè: ed è:

Ne segue che:

U ⊥ Ai

i = 1, 2, ..., n, i = 1, 2, ..., n,

(7.67)

⎞ n n n X X ¡ ¢ X j⎠ j ⎝ = λj A λj σ U, A = λj 0 = 0. σ U, ⎛

j=1

j=1

(7.66)

(7.68)

j=1

Y ∈ S =⇒ σ (Y, U ) = 0

∀U ∈ T.

(7.69)

La (7.69) si inverte semplicemente e ne segue l’asserto. Definiamo ora il concetto di norma. Sia VIR un spazio vettoriale costruito sul campo IR. Sia poi k·k : VIR −→ IR,

(7.70)

una applicazione di VIR in IR. Diremo che k·k è una norma definita in V se risultano verificati i seguenti assiomi: ∀v ∈ V, kvk ≥ 0, e kvk = 0 ⇐⇒ v = 0. ∀h ∈ IK, ∀v ∈ V, khvk = |h| kvk .

(7.71) (7.72)

Proposizione 97 Sia VIR uno spazio vettoriale costruito sul p campo reale IR nel quale sia introdotto il prodotto scalare σ definito positivo. Sia poi v ∈ V, allora lo scalare σ(v, v) individua una norma di v in V. Possiamo cioè scrivere: p kvk = σ(v, v). (7.73)

Tale norma è detta norma Euclidea. Si può inoltre dimostrare che in IRn munito dell’ordinario prodotto scalare (7.13), essa coincide con il modulo |·| del vettore, cioè: ∀v ∈IRn

kvk = |v| .

(7.74)

Si osserva che la (7.74) è verificata esclusivamente per la particolare norma definita in (7.73). Dimostrazione Per dimostrare l’asserto dobbiamo provere che la norma definita in (7.73) verifica gli assiomi, (7.71) e (7.72). La prova della (7.71) è una immediata conseguenza della definizione di prodotto scalare definito positivo su VIR . Mostriamo ora la (7.72).Dalla (7.73) segue che: p khvk = σ(hv,hv). (7.75) In forza della (7.4) e della (7.10) si ha:

p p σ(hv,hv) = h2 σ(v, v).

Le proprietà dei radicali ci consentono di scrivere: p p h2 σ(v, v) = |h| σ(v, v).

(7.76)

(7.77)

Dalle (7.75), (7.76), (7.77) e (7.73) si ottiene infine:

khvk = |h| kvk . Proviamo ora che:

(7.78)

60

CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

Proposizione 98 Sia VIR uno spazio vettoriale costruito sul campo reale IR nel quale sia introdotto il prodotto scalare σ definito positivo. Se v è un vettore non nullo di V, allora il vettore v0 = kvk−1 v,

(7.79)

ottenuto dal prodotto di v per l’inverso della sua norma euclidea (suo modulo), ha norma euclidea e modulo b. unitari. Tale vettore di norma unitaria sarà detto versore del vettore v, e verrà indicato con il simbolo v

Dimostrazione Ovvia conseguenza della (7.72). Sia VIR uno spazio vettoriale costruito sul campo reale IR nel quale sia introdotto il prodotto scalare σ definito positivo. Se v è un vettore non nullo di V e w ∈ V, è individuato lo scalare: σ(w, v) σ(w, v) , = σ(v, v) kvk2

(7.80)

che diremo coefficiente di Fourier di w rispetto a v. Se c è il coefficiente di Fourier di w rispetto a v è allora definito il vettore cv che diremo proiezione ortogonale o componente di w rispetto a v. La definizione introdotta è giustificata dalla seguente proposizione: Proposizione 99 Sia VIR uno spazio vettoriale costruito sul campo reale IR nel quale sia introdotto il prodotto scalare σ definito positivo. Se v è un vettore non nullo di V e w ∈ V, sia c il coefficiente di Fourier di w rispetto a v. Allora il vettore v ed il vettore w0 = w − cv sono ortogonali, rispetto a σ. Dimostrazione Dalla (7.80) segue che: w0 = w − In forza delle (7.3) e (7.4) allora risulta: Ã 0

σ(v, w ) = σ v, w −

σ(w, v) 2

kvk

v

σ(w, v) kvk2 !

(7.81)

v.

= σ(v, w) −

σ(w, v) 2

kvk

σ(v, v).

(7.82)

Dalle (7.82) e (7.2) si trae: 0

σ(v, w0 ) = σ(v, w) − σ(w, v) = 0.

(7.83)

Pertanto, i vettori v e w risultano ortogonali, rispetto a σ, onde l’asserto. Per il caso in cui lo spazio V sia di dimensione finita n ≥ 1, proviamo ora che: Proposizione 100 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel quale sia introdotto il prodotto scalare σ definito positivo. È allora possibile trovare una base B = (w1 , w2 , ..., wn ) , per V ortogonale, rispetto a σ. Dimostrazione Sia (v1 , v2 , ..., vn ) una base per V. Sono allora individuati i vettori: w1 = v1 , w2 = v2 − .. .

σ(v2 , w1 ) 2

kw1 k

w1 , (7.84)

wn = vn −

n−1 X i=1

σ(vn , wi ) 2

kwi k

wi .

Il vettore w1 coincide con v1 ed il vettore wi (i = 2, 3, ..., n) è ottenuto sottraendo a wi le sue componenti secondo w1 , w2 , ..., wi−1 . In forza della prop. 99, il vettore w2 ed il vettore w1 risultano ortogonali rispetto a σ, cioè: σ(w2 , w1 ) = 0.

(7.85)

7.6. PRODOTTO SCALARE NON DEGENERE. PRODOTTI DEFINITI POSITIVI.

61

Proviamo ora che w3 risulta ortogonale, rispetto a σ, sia a w2 che a w1 . A tal fine osserviamo che: σ(w3 , w1 ) = σ(v3 , w1 ) −

σ(v3 , w2 ) 2

kw2 k

σ(w2 , w1 ) −

σ(v3 , w1 ) kw1 k2

σ(w1 , w1 ).

(7.86)

Dalle (7.85) ed essendo kw1 k2 = σ(w1 , w1 ) segue: σ(w3 , w1 ) = σ(v3 , w1 ) − σ(v3 , w1 ) = 0.

(7.87)

Osserviamo inoltre che: σ(w3 , w2 ) = σ(v3 , w2 ) −

σ(v3 , w2 ) 2

kw2 k

σ(w2 , w2 ) −

σ(v3 , w1 ) 2

kw1 k

σ(w1 , w2 ).

(7.88)

2

Dalle (7.88) e (7.85), poichè kw2 k = σ(w2 , w2 ), segue: σ(w3 , w2 ) = σ(v3 , w2 ) − σ(v3 , w2 ) = 0.

(7.89)

σ(w3 , w2 ) = σ(w3 , w1 ) = 0.

(7.90)

Abbiamo così visto che: Con analoghe considerazioni è possibile provare che ogni vettore wi (i = 2, 3, ..., n) risulta ortogonale, rispetto a σ, a ciascuno dei vettori w1 , w2 , ..., wi−1 . Pertanto, risulta: i 6= j =⇒ wi ⊥σ wj .

(7.91)

I vettori di (w1 , w2 , ..., wn ) sono a due a due ortogonali rispetto a σ.

(7.92)

Abbiamo così visto che:

Proviamo ora che (w1 , w2 , ..., wn ) è una base per V. Evidentemente, dalle posizioni (7.84) segue che v1 = w1 e che: i−1 X σ(vi , wj ) i = 2, 3, .., n. (7.93) vi = wi + 2 wj j=1 kwj k

Pertanto, ogni vettore vi appartiene al sottospazio hw1 , w2 , ..., wi i di V generato dai vettori w1 , w2 , ..., wi e quindi anche al sottospazio hw1 , w2 , ..., wn i generato da w1 , w2 , ..., wn . Cioè: vi ∈ hw1 , w2 , ..., wn i

i = 2, 3, .., n.

(7.94)

Dalla (7.94) segue allora: Dalla (7.95) risulta:

Vn = hv1 , v2 , ..., vn i ≤ hw1 , w2 , ..., wn i ≤ Vn .

(7.95)

Vn = hw1 , w2 , ..., wn i .

(7.96)

|vi | = 1

(7.97)

Gli n vettori w1 , w2 , ..., wn generano allora lo spazio n-dimensionale V e quindi costituiscono una base per esso. Da quanto ora detto e dalla (7.92) segue che (w1 , w2 , ..., wn ) è una base di V, ortogonale rispetto al prodotto scalare σ. Il procedimento descritto nella proposizione precedente è detto metodo di ortogonalizzazione di Gram-Schmidt. Tale metodo fornisce una tecnica per costruire una base ortogonale B0 , a partire da una base qualunque B dello spazio vettoriale Vn . Sia ora VnIR uno spazio vettoriale di dimensione finita n, costruito sul campo reale, nel quale sia stato introdotto un prodotto scalare definito positivo σ. Sia poi B = (v1 , v2 , ..., vn ) una base per V. Diremo che B è ortonormale rispetto a σ se essa è ortogonale rispetto a σ e se inoltre risulta: i = 1, ..., n.

Quindi, una base è ortonormale rispetto a σ, se risulta costituita da vettori di modulo unitario ed a due a due ortogonali. Evidentemente, dalla proposizione 98 e con semplici calcoli, segue che: Proposizione 101 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel quale sia introdotto il prodotto scalare σ definito positivo. Se B = (w1 , w2 , ..., wn ) è una base per V, ortogonale rispetto a σ, allora necessariamente i vettori: wi ui = i = 1, ..., n (7.98) kwi k costituiscono una base per V, ortonormale rispetto a σ.

62

CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE. Inoltre:

Proposizione 102 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel quale sia introdotto il prodotto scalare σ definito positivo. Allora esiste almeno una base B per V, ortonormale rispetto a σ. Inoltre, la matrice AσB associata a σ, quando in V è fissata la base B, coincide con la matrice identica In . Dimostrazione Dalle prop. 100 e 101 segue l’esistenza di B. Dalla definizione di AσB segue poi che tale matrice coincide con In . Osserviamo esplicitamente che, se in V è fissata una base ortonormale B, allora dette X ed Y le colonne delle coordinate dei vettori v e w (rispettivamente), valutate rispetto a B, necessariamente risulta (cfr. prop. 92 e 102): (7.99) σ(v, w) = X T In Y = X T Y. Siano VnIR e WnIR due spazi vettoriali di dimensione n costruiti sul campo dei reali. In essi siano introdotti i prodotti scalari σ e σ 0 (rispettivamente) entrambi definiti positivi. Proviamo, al riguardo, che: Proposizione 103 Sia L : V −→ W un’applicazione che conserva il prodotto scalare: ∀ v, w ∈V

σ 0 (L (v) , L (w)) = σ (v, w) ,

(7.100)

Allora, necessariamente, la L è un’applicazione lineare. Dimostrazione Poichè σ è definito positivo, è possibile trovare una base ortonormale (rispetto a σ) per V; sia essa B = (v1 , v2 , ...vn ). Allora risulta: ¡ ¢ σ vi , vj = δ ij i = 1, 2, ..., n j = 1, 2, ..., n. (7.101) Poniamo ora:

wi = L (vi )

i = 1, 2, ..., n.

(7.102)

Dalla (7.100) e (7.101) risulta: σ 0 (wi , wj ) = δ ij

i = 1, 2, ..., n j = 1, 2, ..., n.

(7.103)

Pertanto i vettori w1 , w2 , ...wn di W sono a due e due ortogonali e di modulo unitario. Ne segue (cfr. prop. 94) che essi risultano indipendenti e che, quindi, formano una base B0 ortonormale (rispetto a σ 0 ) per lo spazio n-dimensionale W. Sia ora v ∈V. Poichè B è una base per V risultano univocamente determinati gli scalari x1 , x2 , ...xn ∈ IR tali che: n X xi vi . (7.104) v= i=1

Evidentemente (dalla (7.101) e dalle proprietà di prodotto scalare) risulta: σ (v, vi ) = xi

i = 1, 2, ..., n.

(7.105)

Sia ora w =L (v). Esso si scrive in esattamente un modo come combinazione lineare dei vettori di B0 . Poniamo: n X w= yi wi .

(7.106)

i=1

Evidentemente è (dalla (7.103) e dalle proprietà di prodotto scalare): σ0 (w, wi ) = yi

i = 1, 2, ..., n.

(7.107)

Da quanto detto e poichè è: w =L (v) e wi =L (vi )

i = 1, 2, ..., n,

(7.108)

dalle (7.100), (7.105) e (7.107) segue: yi = σ 0 (w, wi ) = σ 0 (L (v) , L (vi )) = σ (v, vi ) = xi

i = 1, 2, ..., n.

(7.109)

7.7. CAMBIAMENTI DI BASI ORTONORMALI. Pertanto il vettore w = L (v) si scrive:

63

n X w= xi wi .

(7.110)

i=1

Da quanto detto segue che:

Ã

n X L v= xi vi i=1

!

=

n X xi wi .

(7.111)

i=1

L’applicazione L porta allora il vettore v ∈V di coordinate (x1 , x2 , ...xn ) (valutate rispetto a B) nel vettore w ∈W di coordinate (x1 , x2 , ...xn ) (valutate rispetto a B0 ). La L è allora manifestamente lineare.

7.7

Cambiamenti di basi ortonormali.

Proviamo subito che: Proposizione 104 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel quale sia introdotto il prodotto scalare σ definito positivo. Sia poi B = (u1 , u2 , ..., un ) una base per V ortonormale rispetto a σ. Se B0 = (v1 , v2 , ..., vn ) è una base per V, allora B0 è ortonormale rispetto a σ, se e solo se, detta A = AB (7.112) id,B0 , la matrice associata all’applicazione lineare identica di V in sè, quando si passa dalla base B alla base B0 , risulta: AAT = In . (7.113) 0

Dimostrazione Sia B = AB id,B . La j − ma colonna di B è la colonna delle coordinate di vj valutate rispetto a B. L’elemento posto sulla i-ma riga e j-ma colonna della matrice B T B è allora dato (cfr. (7.99)) dal prodotto scalare di vi e vj . Pertanto, la base B0 è ortonormale, rispetto a σ, se, e solo se, risulta: B T B = In .

(7.114)

Poichè è B = A−1 , dalla (7.114) segue che B 0 è ortonormale, rispetto a σ, se, e solo se, risulta: (A−1 )T A−1 = In ,

(7.115)

che equivale a : (A−1 )T = A, e cioè: A−1 = AT , onde la (7.113).

7.8

Complementi ortogonali.

Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel quale sia introdotto il prodotto scalare σ definito positivo. Sia poi W un sottospazio di V. È allora individuato il sottospazio W⊥σ di V definito nella proposizione 89, costituito dalla totalità dei vettori di V, ciascuno dei quali risulta ortogonale ad ogni vettore di W. Il sottospazio W⊥σ prende il nome di complemento ortogonale di W, rispetto a σ. Proviamo al riguardo che: Proposizione 105 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel quale sia introdotto il prodotto scalare σ definito positivo. Siano poi W un sottospazio di V e W⊥σ il complemento ortogonale di W, rispetto a σ. Allora detta p la dimensione di W e detta q la dimensione di W⊥σ , necessariamente risulta: p + q = n. (7.116) Inoltre, lo spazio V risulta somma diretta di W e W⊥σ , cioè: V = W ⊕ W⊥σ .

(7.117)

Dimostrazione Se W ha dimensione p, sia B0 = (u1 , u2 , ..., up ) una base ortonormale per esso (certo esistente in forza della prop. 102). È allora possibile trovare vettori vp+1 , vp+2 , ..., vn in modo che B00 = (u1 , u2 , ..., up , vp+1 , ..., vn )

(7.118)

sia una base per V. Con il metodo di ortogonalizzazione di Gram-Schmidt è poi possibile costruire da B00 una base ortogonale B000 = (u1 , u2 , ..., up , wp+1 , ..., wn ) (7.119)

64

CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

per V. Dividendo ogni vettore di B000 per il suo modulo si ottiene una base ortonormale B = (u1 , u2 , ..., up , up+1 , ..., un ) per V. Osserviamo esplicitamente che i primi p vettori di B sono i vettori della base B0 di W. Possiamo ora provare che: v ∈ W⊥σ ⇐⇒ v ⊥σ ui i = 1, 2, ..., p.

(7.120)

(7.121)

Infatti, se v ∈ W⊥σ , allora v risulta ortogonale ad ogni vettore di W e quindi anche ai vettori u1 , u2 , ..., up della base B0 di W. Se invece v è ortogonale ad ogni vettore di B0 , allora (cfr. (7.3) e (7.4)) esso risulta ortogonale ad ogni loro combinazione P lineare e quindi ad ogni vettore di W. Si è così vista la (7.121). Dalla (7.121) segue che se v ∈ V e v = ni=1 xi ui , allora risulta: v ∈ W⊥σ ⇐⇒ xi = 0

i = 1, 2, ..., p.

(7.122)

Pertanto, si ha W⊥σ = hup+1 , up+2 , ..., un i, onde per la dimensione q di W⊥σ risulta: q = n − p.

(7.123)

Dalla (7.123) segue subito la (7.116). Infine, se v ∈ V esso si scrive nella forma: v=

p n X X xi ui + xi ui ; i=1

(7.124)

i=p+1

poichè i primi p addendi della combinazione lineare a secondo membro della (7.124) appartengono a W ed gli ultimi q addendi di tale combinazione lineare appartengono a W⊥σ , il vettore v risulta somma di un elemento di W e di un elemento di W⊥σ . Pertanto è: V = W + W⊥σ .

(7.125)

Poichè W ha dimensione p, W⊥σ ha dimensione q, la loro somma V = W + W⊥σ ha dimensione n = p + q, dalla relazione di Grassmann segue che il sottospazio intersezione V = W∩W⊥σ ha dimensione zero e si riduce allo spazio nullo {0}. Dalla prop. 29 segue allora la (7.117), onde l’asserto. La proposizione precedente ammette una parziale generalizzazione, di cui omettiamo la dimostrazione: Proposizione 106 Sia VnIK uno spazio vettoriale di dimensione finita n ≥ 1, costruito campo IK e nel quale sia introdotto il prodotto scalare non degenere (cfr. (7.46)) σ. Siano poi W un sottospazio di V e W⊥σ il complemento ortogonale (costituito dalla totalità dei vettori di V, ciascuno dei quali risulta ortogonale, rispetto a σ, ad ogni vettore di W) di W. Allora, detta p la dimensione di W e detta q la dimensione di W⊥σ , necessariamente risulta p + q = n. (7.126) Il teorema di Rouchè-Capelli asserisce che il sistema: AX = B,

(7.127)

ove A è una matrice m × n, è compatibile se, e solo se, la colonna B dei termini noti dipende dalle colonne di A; cioè (dette A1 , A2 , ..., An le colonne di A): ® ­ (7.128) (7.127) è compatibile ⇐⇒ B ∈ A1 , A2 , ..., An = S.

Con riferimento all’enunciato della proposizione 96 è allora evidente che: (7.127) è compatibile ⇐⇒ B ⊥ U

∀U ∈ T.

(7.129)

Poichè il sottospazio T di cui all’enunciato della proposizione 96 è il luogo delle soluzioni del sistema omogeneo AT U = 0 risulta che il teorema di Rouchè-Capelli implica (unitamente a quanto detto in queste righe): Proposizione 107 Il sistema (7.127), ove A e B sono ad elementi reali, è compatibile se, e solo se, la colonna B dei termini noti è ortogonale ad ogni soluzione del sistema omogeneo duale AT U = 0. La proposizione precedente è nota con il nome di teorema dell’alternativa di Fredholm.

Capitolo 8

DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRn 8.1

Premessa.

Premettiamo le: Proposizione 108 Sia X T = (x1 , x2 , ..., xn ), un elemento di Cn . Se X = (x1 , x2 , ..., xn )T è la colonna coniugata di X, allora necessariamente risulta: X T X ∈ IR;

(8.1)

T

(8.2)

T

(8.3)

X X ≥ 0;

X X = 0 ⇐⇒ X = 0. Dimostrazione Evidentemente è: X TX =

n X xj xj .

(8.4)

j=1

Ne segue: X TX =

n n n n X X X X xj xj = xj xj = xj xj = xj xj = X T X, j=1

j=1

j=1

(8.5)

j=1

onde la (8.1). / IR, risulta xj = aj + ibj , ed è xj xj = a2j + b2j ≥ 0; Inoltre, se xj ∈ IR, allora xj xj = x2j ≥ 0; se invece xj ∈ T da cui segue che X X è somma di reali non negativi, onde la (8.2). Infine, X T X = 0 se, e solo se, risulta xj = 0, per ogni j = 1, ..., n, onde la (8.3). Proposizione 109 Se A è una matrice quadrata simmetrica d’ordine n ad elementi reali, allora ogni soluzione dell’equazione in λ: det(A − λI) = 0, (8.6) è necessariamente reale. n n n n Dimostrazione Sia LN A,N : C −→ C applicazione lineare di C in sé, associata ad A quando in C sia stata fissata la base naturale N . Le soluzioni di (8.6) sono tutti e soli gli autovalori di L. Esistono esattamente n soluzioni complesse di (8.6), quando ciascuna di esse sia contata con la propria molteplicità. Proviamo ora che tali soluzioni risultano tutte reali. Sia, a tal fine, λ una soluzione di (8.6). Allora λ è un autovalore di L e (cfr. prop. 74. e 75.) nello spazio E(λ) esiste qualche vettore X T = (x1 , x2 , ..., xn ) 6= 0. Allora è:

AX = λX; 65

X 6= 0.

(8.7)

CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN

66

Coniugando ambo i membri della (8.7), risulta (ricordiamo che essendo A ad elementi reali è A = A): AX = λX.

(8.8)

Dalla (8.8), segue che λ è un autovalore di L e che X è un autovettore di E(λ); (Poichè X 6= 0,è X 6= 0). T Consideriamo ora il prodotto X AX; tale prodotto è una matrice quadrata d’ordine uno che, quindi, coincide con la sua trasposta, cioè: T T X AX = (X AX)T . (8.9) Inoltre è:

T

T

(X AX)T = X T AT (X )T = X T AT X.

(8.10)

T

Poichè A è simmetrica, risulta, A = A e dalla (8.10) segue: T

(X AX)T = X T AX.

(8.11)

Dalle (8.9) e (8.11) segue: T

X AX = X T AX.

(8.12)

T

Se ne deduce (cfr. (8.7) e (8.8)): X (λX) = X T (λX). Pertanto è: T

λ(X X) = λ(X T X).

(8.13)

T

Poichè manifestamente risulta (X X) = (X T X), dalla (8.13) segue che λ(X T X) = λ(X T X).

(8.14)

Dalla (8.7) risulta X 6= 0 e per la (8.3) è X T X 6= 0. Ne segue che la (8.14) implica: λ = λ.

(8.15)

Pertanto, l’autovalore λ di L coincide con il suo coniugato λ ed è quindi reale.

8.2

Endomorfismi simmetrici.

Nel seguito denoteremo con Vn uno spazio vettoriale VnIR di dimensione finita n costruito sul campo reale e nel quale sia stato introdotto un prodotto scalare definito positivo σ. Diremo che l’endomorfismo L : Vn −→ Vn è simmetrico se verifica la: ovvero se L = L∗ . Proviamo ora che:

∀v, w ∈ Vn ,

σ(v, L(w)) = σ(L(v), w),

(8.16)

Proposizione 110 Sia L : Vn −→ Vn un endomorfismo di Vn . Se B è una base ortonormale (rispetto al prodotto scalare σ) di Vn , allora L è simmetrico se, e solo se, per la matrice A = AB L,B risulta: A = AT .

(8.17) n

Dimostrazione Siano X ed Y le colonne delle coordinate dei vettori v e w di V valutate rispetto a B. Poichè B è ortonormale, il prodotto scalare di v e w è: σ(v, w) = X T Y.

(8.18)

Inoltre la colonna delle coordinate di L(w) è la AY e risulta:

σ(v, L(w)) = X T (AY ).

(8.19)

σ(L(v), w) = (AX)T Y = X T AT Y.

(8.20)

Analogamente, risulta: L è simmetrico se, e solo se, verifica la (8.16), la quale, in forza delle (8.19) e (8.20), equivale alla: ∀X T , Y T ∈ IRn , T

X T (AY ) = X T AT Y.

(8.21)

La (8.21) è verificata se, e solo se, A = A , onde l’asserto. Dalla proposizione precedente segue che la matrice associata ad un endomorfismo simmetrico di Vn è simmetrica rispetto ad ogni base ortonormale (rispetto al prodotto scalare definito positivo σ) di Vn . Proviamo anche che:

8.2. ENDOMORFISMI SIMMETRICI.

67 0

Proposizione 111 Siano B e B0 due basi ortonormali (per il prodotto scalare σ) di Vn . Sia poi C = AB id,B la matrice associata all’identità, quando si passa dalla base B0 alla B. Se L : Vn −→ Vn è un endomorfismo B0 simmetrico di Vn , posto A = AB L,B e B = AL,B0 , allora necessariamente risulta: B = C T AC. Dimostrazione È:

0

(8.22) 0

B B B AB L,B0 = Aid,B0 AL,B Aid,B .

Inoltre risulta

(8.23)

0

B −1 AB = C −1 ; id,B0 = (Aid,B )

(8.24)

0

poichè B e B sono due basi ortonormali è (cfr. prop. 104): C −1 = C T .

(8.25)

Pertanto, dalla (8.23) segue l’asserto. Proviamo ora che: Proposizione 112 Ogni endomorfismo simmetrico L : Vn −→ Vn di Vn ammette n autovalori, quando ciascuno di essi sia contato con la propria molteplicità (algebrica). Pertanto, L ammette autovettori. Dimostrazione Sia B una base ortonormale di Vn . In forza della prop. 110, la matrice A = AB L,B risulta simmetrica. Il suo polinomio caratteristico è det(A − λI), e quindi gli autovalori di L sono tutte e sole le soluzioni reali di (8.5). Dalla prop. 109 segue che ogni soluzione di (8.5) è reale. Pertanto la (8.5) ammette n soluzioni reali, quando ciascuna di esse sia contata con la propria molteplicità, onde l’asserto. Proposizione 113 Sia L : Vn −→ Vn un endomorfismo simmetrico di Vn . Se λ1 e λ2 sono due autovalori distinti di L, siano v1 e v2 due autovettori ad essi relativi (rispettivamente). Allora necessariamente risulta: σ(v1 , v2 ) = 0, cioè v1 ⊥σ v2 .

(8.26)

T Dimostrazione Sia B una base ortonormale di Vn . Se A = AB L,B , allora A = A . Siano X ed Y le colonne delle coordinate di v1 e v2 , valutate rispetto a B. Allora, per la colonna delle coordinate AX di L(v1 ) risulta: AX = λ1 X. (8.27)

Analogamente, per la colonna delle coordinate AY di L(v2 ) risulta: AY = λ2 Y.

(8.28)

Pertanto, è: σ(v1 , L(v2 )) = X T (λ2 Y ) = λ2 (X T Y ), T

T

σ(L(v1 ), v2 ) = (λ1 X) Y = λ1 (X Y ).

(8.29) (8.30)

Poichè L è simmetrico è verificata la (8.16), la quale, tenuto conto di (8.29) e (8.30), implica: λ2 (X T Y ) = λ1 (X T Y ),

(8.31)

(λ2 − λ1 )(X T Y ) = 0.

(8.32)

onde è: Poichè è λ2 6= λ1 , risulta λ2 − λ1 6= 0, e dalla (8.32) si trae: X T Y = 0,

(8.33)

σ(v1 , v2 ) = 0,

(8.34)

da cui segue: che equivale alla (8.26), onde l’asserto. La proposizione precedente equivale a dire che autovettori relativi ad autovalori distinti sono ortogonali (rispetto al prodotto scalare definito positivo σ). Pertanto: Proposizione 114 Se l’endomorfismo simmetrico L di Vn ammette n autovalori a due a due distinti, allora ogni base B di Vn costituita da autovettori di L risulta ortogonale rispetto al prodotto scalare definito positivo σ.

CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN

68

8.3

Diagonalizzazione degli endomorfismi simmetrici.

Per il caso in cui gli autovalori dell’endomorfismo simmetrico L di Vn non risultino a due a due distinti, cominciamo con il provare che: Proposizione 115 Sia L : Vn −→ Vn un endomorfismo simmetrico di Vn . Se v è un autovettore di L (certo esistente, in forza della prop. 112) di autovalore relativo λ, sia W = hvi il sottospazio di Vn da esso generato. Se w è un vettore ortogonale a v, cioè se w ∈ W⊥σ , allora necessariamente anche L(w) risulta ortogonale a v. Equivalentemente: σ(v, w) = 0 ⇐⇒ σ(v, L(w)) = 0. (8.35) Dimostrazione Per la (8.16) risulta: σ(v, L(w)) = σ(L(v), w).

(8.36)

Poichè è v ∈ E(λ), risulta L(v) = λv, onde dalla (8.36) si trae: σ(v, L(w)) = σ(λv, w) = λσ(v, w).

(8.37)

Dalla (8.37), essendo σ(v, w) = 0, segue l’asserto. Proviamo ora che: Proposizione 116 Sia v un autovettore dell’endomorfismo simmetrico L di Vn . Posto W = hvi, risulta individuato il sottospazio W⊥σ di Vn . Sia allora M : W⊥σ −→ W⊥σ , l’applicazione di W⊥σ in sé così definita: ∀w ∈ W⊥σ , M(w) = L(w). (8.38) Tale applicazione è un endomorfismo di W⊥σ che verifica la: ∀w, w0 ∈ W⊥σ , σ(w, M(w0 )) = σ(M(w), w0 ).

(8.39)

Cioè, M è simmetrico. Inoltre, l’applicazione σ 0 : W⊥σ × W⊥σ −→ IR così definita: σ 0 (v, w) = σ(v, w),

(8.40)

è un prodotto scalare definito in W⊥σ che risulta definito positivo. Dimostrazione Poichè (cfr. prop. 115) ogni vettore di W⊥σ viene mutato in un vettore ortogonale a v, la M è un’applicazione di W⊥σ in sé. Poichè L è lineare, la M, che agisce come L sugli elementi di W⊥σ , risulta anch’essa lineare. La L verifica la (8.16) e quindi M verifica la (8.39), onde la prima parte dell’asserto. Poichè σ 0 agisce sui vettori di W⊥σ come la σ, σ 0 è un prodotto scalare definito in W⊥σ che risulta definito positivo, onde l’asserto. Possiamo finalmente provare che: Proposizione 117 Sia L : Vn −→ Vn un endomorfismo simmetrico di Vn . Allora necessariamente esiste una base B0 = (w1 , w2 , ..., wn ) di Vn ortogonale, rispetto al prodotto scalare definito positivo σ, costituita da autovettori di L. Dimostrazione Procederemo per induzione rispetto alla dimensione d di Vn . Se d = 1, l’asserto è conseguenza della prop. 112. Supponiamo ora vero l’asserto se d = n − 1 e proviamolo per d = n. Pertanto se M : Vn−1 −→ Vn−1 ,

(8.41)

è un endomorfismo simmetrico dello spazio vettoriale reale Vn−1 di dimensione finita n − 1, nel quale è introdotto un prodotto scalare definito positivo σ 0 , allora necessariamente esiste una base B0 = (w1 , w2 , ..., wn−1 ) ,

(8.42)

di Vn−1 ortogonale, rispetto al prodotto scalare σ 0 , costituita da autovettori di M. Sia wn un autovettore di L (certo esistente, in forza della prop. 112). Posto W = hwn i è individuato il sottospazio W⊥σ di Vn . Dalla prop. 105 segue che W⊥σ ha dimensione finita n − 1. Dalla prop. 116 segue che la (8.38) definisce un endomorfismo simmetrico M : W⊥σ −→ W⊥σ ,

(8.43)

8.3. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI.

69

di W⊥σ . Per ipotesi induttiva (8.31) esiste una base B0 = (w1 , w2 , ..., wn−1 ) ,

(8.44)

per W⊥σ , costituita da autovettori di M ed ortogonale rispetto al prodotto scalare σ 0 di W⊥σ definito in (8.40). Poichè (cfr. prop. 105) la somma di W e di W⊥σ è diretta, i vettori w1 , w2 , ..., wn−1 , wn ,

(8.45)

sono indipendenti, onde B = (w1 , w2 , ..., wn ) è una base per Vn . Poichè W⊥σ = hw1 , w2 , ..., wn−1 i, allora wn è ortogonale a ciascuno dei vettori di B0 = (w1 , w2 , ..., wn−1 ) .

(8.46)

Quindi, essendo B 0 costituita da vettori a due a due ortogonali, rispetto a σ 0 , che agisce come σ, la base B = (w1 , w2 , ..., wn ) di Vn è ortogonale rispetto al prodotto scalare definito positivo σ. Infine, wn è un autovettore di L. Poichè M agisce come L, ogni autovettore di M è un autovettore di L e (w1 , w2 , ..., wn−1 ) è allora costituita da autovettori di L; pertanto, B è costituita da autovettori di L e l’asserto è completamente provato. Osserviamo esplicitamente che allora: Proposizione 118 Sia L : Vn −→ Vn un endomorfismo simmetrico di Vn . Allora necessariamente esiste una base B0 = (u1 , u2 , ..., un ) di Vn ortonormale, rispetto al prodotto scalare definito positivo σ, costituita da autovettori di L. Dimostrazione Dalla prop. precedente, esiste un base ortogonale B = (w1 , w2 , ..., wn ) di Vn ortogonale, rispetto al prodotto scalare definito positivo σ, costituita da autovettori di L. Dividendo ciascun vettore di B0 per il suo modulo si ottiene la base B = (u1 , u2 , ..., un ) di cui all’asserto. Proposizione 119 Sia L : IRn −→ IRn un endomorfismo simmetrico di IRn . Allora necessariamente esiste una base B = (u1 , u2 , ..., un ) di IRn ortonormale, rispetto all’ordinario prodotto scalare di IRn , costituita da autovettori di L. Dimostrazione Poichè l’ordinario prodotto scalare di IRn è definito positivo, dalla prop. precedente, segue l’asserto.

70

CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN

Capitolo 9

ANCORA SUI PRODOTTI SCALARI REALI 9.1

Premessa.

In IRn sia introdotto un prodotto scalare σ. Se N = (e1 , e2 , ...en ) è la base naturale di tale spazio è allora individuata la matrice A associata a σ (valutata rispetto ad N ). Se v e w sono vettori di IRn di colonne di coordinate X e Y (rispettivamente), valutate rispetto ad N , allora risulta: σ (v, w) = X T AY.

(9.1)

Se A è diagonale, cioè se è del tipo: ⎛

⎜ ⎜ A=⎜ ⎝

λ1 0 .. .

0 λ2 .. .

··· ··· .. .

0 0 .. .

0

0

···

λn

allora, posto X T = (x1 , x2 , ...xn ) e Y T = (y1 , y2 , ...yn ) è: σ (v, w) =



⎟ ⎟ ⎟, ⎠

n X λi xi yi .

(9.2)

(9.3)

i=1

Evidentemente, allora, per il quadrato scalare di v, risulta: σ (v, v) =

n X λi x2i .

(9.4)

i=1

Evidentemente, allora, il secondo membro della (9.4) è sempre positivo se, e solo se, risulta: λi > 0

i = 1, 2, ..., n.

(9.5)

Inoltre è facile vedere che se la matrice A, (valutata rispetto alla base N ) è diagonale, cioè della forma (9.2), allora risulta: i = 1, 2, ..., n. (9.6) σ è definito positivo ⇐⇒ λi > 0

Consideriamo ora una situazione più generale. Sia introdotto all’uopo in IRn un prodotto scalare σ. Se N è la base naturale di IRn , sia A la matrice associata a σ (valutata rispetto alla base N ). Evidentemente è (cfr. 90): A = AT . (9.7)

n n n Sia ora L = LN A,N : IR −→ IR l’endomorfismo di IR associato alla matrice A quando sia fissata la base naturale N . Poichè A è simmetrica, esiste una base B = (v1 , v2 , ...vn ) ortonormale, rispetto al prodotto scalare standard di IRn costituita da autovettori di A. Posto:

M = AN id,B , 71

(9.8)

72

CAPITOLO 9. ANCORA SUI PRODOTTI SCALARI REALI

la forma diagonale di A è data da: B = M −1 AM.

(9.9)

Osserviamo esplicitamente che la matrice (9.8) (poichè sia la base B che la base N sono basi ortonormali rispetto al prodotto scalare standard di IRn ) è una matrice ortogonale, cioè tale che: M −1 = M T .

(9.10)

B = M T AM.

(9.11)

Dalle (9.9) e (9.10) segue: Troviamo ora la matrice associata al prodotto scalare σ, valutata rispetto alla base B. Poichè A è la matrice associata a σ, quando in IRn si è fissata la base N , dette X ed Y le colonne delle coordinate dei vettori v e w (rispettivamente) risulta: σ (v, w) = X T AY.

(9.12)

Per le colonne delle coordinate X 0 ed Y 0 di v e w (rispettivamente), valutate rispetto a B, risulta (cfr. 9.8): (

allora è:

−1 X X 0 = AN id,B X = M −1 Y Y 0 = AN id,B Y = M

½

,

(9.13)

X = M X0 . Y = MY 0

(9.14)

Sostituendo la (9.14) nella (9.12) si ha: ¢ ¡ T σ (v, w) = (M X 0 ) A (M Y 0 ) = X 0T M T AM Y 0 .

(9.15)

Dalla (9.15) segue che la matrice associata a σ, rispetto alla base B è la M T AM , cioè (cfr. 9.11) la matrice B, cioè la forma diagonale di A. Da quanto detto posto: ⎛ ⎞ λ1 0 · · · 0 ⎜ 0 λ2 · · · 0 ⎟ ⎜ ⎟ B=⎜ . (9.16) .. .. ⎟ , .. ⎝ .. . . . ⎠ 0 0 · · · λn T

T

risulta (cfr. (9.15) e denotato con X 0 = (x01 , x02 , ...x0n ) ed Y 0 = (y10 , y20 , ...yn0 ) ): σ (v, w) =

n X λi x0i yi0 .

(9.17)

i=1

Evidentemente allora è:

n X 2 λi (x0i ) . σ (v, v) =

(9.18)

i=1

È immediato allora verificare che: Proposizione 120 Sia A la matrice simmetrica diagonale definita in (9.2), associata al prodotto scalare σ di IRn (valutata rispetto alla base naturale N ). Allora necessariamente risulta: σ è definito positivo ⇐⇒ λi > 0

9.2

i = 1, 2, ..., n.

(9.19)

Criterio di Sylvester.

In questa sezione illustreremo un criterio, dovuto a Sylvester, per determinare l’eventuale natura definita positiva di un prodotto scalare definito in uno spazio vettoriale VnIR costruito sul campo reale IR. Premettiamo la:

9.2. CRITERIO DI SYLVESTER.

73

Proposizione 121 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n, costruito sul campo reale IR. Se B = (v1 , v2 , ...vn ) ,

B0 = (w1 , w2 , ...wn ) ,

(9.20)

sono due basi per V, siano A ed A0 le matrici associate a σ (rispetto a B e B0 ). Allora necessariamente risulta: det(A) > 0 ⇐⇒ det(A0 ) > 0.

(9.21)

Dimostrazione Siano v e w vettori di V. Denotiamo con Xv ed Yw le colonne delle coordinate di v e w, valutate rispetto a B. Siano poi Xv0 ed Yw0 le colonne delle coordinate di v e w, valutate rispetto a B0 . 0 Posto M = AB id,B , allora risulta: ( Xv = M Xv0 . (9.22) Yw = M Yw0 Inoltre evidentemente è:

T

σ (v, w) = XvT AYw = (Xv0 ) A0 Yw0 .

(9.23)

Sostituendo la (9.22) nel secondo membro della (9.23), si trae: T

T

σ (v, w) = (M Xv0 ) A (M Yw0 ) = (Xv0 ) A0 Yw0 , dalla quale subito segue:

¢ ¡ T Xv0T M T AM Yw0 = (Xv0 ) A0 Yw0 . Xv0

(9.24) (9.25)

Yw0 ,

La (9.25) è verificata quali che siano le colonne ed onde è: ¢ ¡ T M AM = A0 .

(9.26)

Dalla (9.26) segue (in forza del teorema di Binet, eq. (A.89) in Appendice A): det(M T AM ) = det(M T ) det(A) det(M ) = det(A0 ).

(9.27)

Dalla (A.87) in Appendice A si deduce (poichè det(M T ) = det(M )): det(A0 ) = det(A) (det(M ))2 ,

(9.28)

da cui subito, essendo det(M ) 6= 0, segue l’asserto. Sia A = (aij ) , i, j = 1, 2, ..., n, una matrice quadrata d’ordine n ad elementi reali. Sia poi Ai , i = 1, 2, ..., n la matrice che si estrae da A considerando le prime i righe e le prime i colonne, cioè tale che: ⎞ ⎛ a11 a12 · · · a1i ⎜ a21 a22 · · · a2i ⎟ ⎟ ⎜ (9.29) Ai = ⎜ . .. .. ⎟ . .. ⎝ .. . . . ⎠ ai1

ai2

···

aii

I determinanti di tali n matrici sono detti primi minori principali. Proviamo ora che:

Proposizione 122 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n, costruito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V, sia A la matrice associata a σ valutata rispetto a B. Se σ è definito positivo, necessariamente risultano positivi tutti gli n primi minori principali di A. è:

Dimostrazione Consideriamo il sottospazio Wi di V generato dai vettori v1 , v2 , ...vi di Bi ; evidentemente Wi = hv1 , v2 , ...vi i .

(9.30) 0

Poichè σ è definito positivo, esso induce su Wi un prodotto scalare σ definito positivo; la matrice di tale prodotto scalare σ 0 (valutata rispetto alla base Bi (v1 , v2 , ...vi ) di Wi ) è evidentemente: ⎞ ⎛ a11 a12 · · · a1i ⎜ a21 a22 · · · a2i ⎟ ⎟ ⎜ (9.31) Ai = ⎜ . .. .. ⎟ , .. ⎝ .. . . . ⎠ ai1

ai2

···

aii

74

CAPITOLO 9. ANCORA SUI PRODOTTI SCALARI REALI

essendo la matrice dei prodotti scalari degli elementi di Bi . Poichè σ è definito positivo tale risulta σ 0 . Inoltre (cfr. prop. 120) gli autovalori λ1 , λ2 , ...λi di Ai sono tutti positivi. Infine il determinante di Ai è uguale al prodotto dei suoi autovalori, cioè det (Ai ) =

i Y

λj > 0.

(9.32)

j=1

Al fine di invertire l’enunciato della proposizione precedente, proviamo ora che: Proposizione 123 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n costruito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V sia A la matrice associata a σ valutata rispetto a B. Se il determinante di A è diverso da zero allora necessariamente il prodotto scalare σ risulta non degenere. Pertanto, in forza della prop. 106 per il sottospazio ortogonale W⊥σ ad un sottospazio W di V, risulta: dim(W) + dim(W⊥σ ) = n.

(9.33)

Dimostrazione Sia v ∈ V un vettore di V ortogonale ad ogni vettore w di V. Dette Xv ed Yw le coordinate di v e w (valutate rispetto a B) allora necessariamente risulta: w 6= 0 =⇒Yw 6= 0.

(9.34)

Inoltre è: ∀w ∈V

v ⊥ w =⇒ σ (v, w) = 0 =⇒ XvT AYw = 0

∀Yw ∈ IRn .

(9.35)

Se Yw 6= 0, essendo det(A) 6= 0, risulta AYw = Z 6= 0 (poichè il sistema omogeneo AYw = 0 non ammette autosoluzioni); dalla (9.35) segue allora: ∀w ∈V

w ⊥ v =⇒ XvT Z = 0.

(9.36)

Ciò accade anche quando Z è la colonna delle coordinate di vi (i = 1, 2, ..., n); ne segue che le coordinate di v sono tutte nulle e quindi che: v⊥w ∀w ∈V =⇒ v = 0. (9.37) Proviamo finalmente che: Proposizione 124 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n costruito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V sia A la matrice associata a σ valutata rispetto a B. Allora, σ è definito positivo se, e solo se, risultano tutti positivi gli n primi minori principali di A. Dimostrazione Dalla prop. 122 segue che se σ è definito positivo allora sono tutti positivi gli n minori principali di A. Proviamo il viceversa e, a tal fine, procediamo per induzione sulla dimensione t dello spazio. Se t = 1 la matrice A si riduce ad un elemento, positivo, che è il quadrato scalare di v1 . In tal caso l’asserto è ovvio. Sia ora vero l’asserto nel caso t = n − 1. Vogliamo provare che, per t = n esso è ancora vero. Sia all’uopo W = hv1 , v2 , ...vn−1 i il sottospazio (n − 1)-dimensionale di V generato dai primi n − 1 vettori di B. La matrice che rappresenta σ su W (valutata rispetto alla base (v1 , v2 , ...vn−1 )) è: ⎞ ⎛ a11 a12 ··· a1(n−1) ⎜ a21 a22 ··· a2(n−1) ⎟ ⎟ ⎜ An−1 = ⎜ (9.38) ⎟. .. .. .. .. ⎠ ⎝ . . . . a(n−1)1

a(n−1)2

···

a(n−1)(n−1)

Poichè sono positivi per ipotesi i primi n minori principali di A, risultano positivi i primi (n − 1) minori principali di An−1 . Per ipotesi induttiva, il prodotto σ è definito positivo su W. Ne segue che esistono (n − 1) vettori u1 , u2 , ...un−1 formanti una base ortonormale, rispetto a σ, del sottospazio W. Allora è: W = hu1 , u2 , ..., un−1 i .

(9.39)

Poichè det(A) > 0 (A = An ), il prodotto scalare σ non è degenere e (cfr. prop. 123) per il sottospazio W⊥σ ortogonale a W, risulta: dim (W⊥σ ) = 1. (9.40)

9.2. CRITERIO DI SYLVESTER.

75

Sia quindi w un vettore (non nullo) di V tale che: W⊥σ = hwi

w 6= 0.

(9.41)

Proviamo esplicitamente che: u1 , u2 , ..., un−1 , w

sono linearmente indipendenti.

(9.42)

A tal fine, procediamo per assurdo e supponiamo che così non sia; in tal caso, essendo u1 , u2 , ...un−1 indipendenti, deve necessariamente risultare che ∃ (y1 , y1 , ...yn−1 ) ∈ IRn−1 tali che: n−1 X

w=

yi ui

(9.43)

i=1

Allora risulta:





n−1 X

σ (w, ui ) = σ ⎝

Poichè σ è un prodotto scalare è:



j=1

yj uj , ui ⎠ ⎞

n−1 X

σ⎝

j=1

yj uj , ui ⎠ =

i = 1, 2, ..., n − 1.

n−1 X

yj σ (uj , ui ) .

(9.44)

(9.45)

j=1

Ma (u1 , u2 , ..., un−1 ) è una base ortonormale di W ed risulta: σ (uj , ui ) = δ ij .

(9.46)

Dalle (9.44) (9.45) e (9.46) segue: σ (w, ui ) = yi

i = 1, 2, ..., n − 1.

(9.47)

Dalle (9.41) e (9.47) segue: 0 = σ (w, ui ) = yi

i = 1, 2, ..., n − 1.

(9.48)

Pertanto w è il vettore nullo. Ciò contraddice il fatto che w 6= 0. Da quanto visto segue la (9.42). I vettori indipendenti u1 , u2 , ...un−1 , w,

(9.49)

costituiscono una base B0 = (u1 , u2 , ...un−1 , w) per V. La matrice A0 associata a σ, valutata rispetto a B 0 , è diagonale (perchè ui ⊥ uj e w ⊥ ui ) per i, j = 1, 2, ..., n − 1 e più precisamente risulta: ⎞ ⎛ 1 0 ··· 0 0 ⎟ ⎜ 0 1 ··· 0 0 ⎟ ⎜ ⎟ ⎜ .. .. . . . . 0 . . (9.50) A =⎜ . . ⎟. . . . ⎟ ⎜ ⎠ ⎝ 0 0 ··· 1 0 0 0 · · · 0 σ (w, w) Dalla prop. 121 segue che essendo det(A) > 0 (per ipotesi det(A) > 0) risulta: det(A0 ) > 0. Ma è det(A0 ) = σ (w, w). Pertanto σ è definito positivo e ne segue che i vettori ! Ã w , u1 , u2 , ...un−1 , p σ (w, w)

formano una base per V, ortonormale rispetto a σ.

(9.51)

(9.52)

76

CAPITOLO 9. ANCORA SUI PRODOTTI SCALARI REALI

Capitolo 10

TENSORI ED ALGEBRA TENSORIALE 10.1

Premessa.

Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK. Denoteremo la totalità delle applicazioni lineari dello spazio vettoriale VIK nello spazio WIK con il simbolo Hom(VIK , WIK ) e la diremo insieme degli omomorfismi di V in W. Se L : VIK −→ WIK ed M : VIK −→ WIK sono applicazioni lineari di V in W, è allora individuata l’applicazione [L + M] : VIK −→ WIK che diremo somma di L ed M, definita nel modo che segue: ∀v ∈ V

[L + M](v) = L(v) + M(v).

(10.1)

È immediato verificare che l’applicazione [L + M] : VIK −→ WIK risulta lineare. Pertanto, la somma di elementi di Hom(VIK , WIK ) è un elemento di Hom(VIK , WIK ). Siano ora k un elemento del campo IK ed L un elemento di Hom(VIK , WIK ). È allora possibile definire l’applicazione [kL] : VIK −→ WIK nel modo seguente: ∀v ∈ V, ∀k ∈ IK

[kL](v) = kL(v).

(10.2)

È semplice verificare che l’applicazione [kL] : VIK −→ WIK risulta lineare. Pertanto, il prodotto di un elemento del campo IK per un elemento di Hom(VIK , WIK ) è un elemento di Hom(VIK , WIK ). Il lettore potrà facilmente provare, inoltre, che: Proposizione 125 Se VIK e WIK sono due spazi vettoriali costruiti sul medesimo campo IK, la coppia (Hom(VIK , WIK ), +), ove la somma di elementi di Hom(VIK , WIK ) è definita come in (10.1) è un gruppo abeliano. Inoltre, la terna (Hom(VIK , WIK ), IK, ·), ove il prodotto di uno scalare per un elemento di Hom(VIK , WIK ) è come definita in (10.2) è uno spazio vettoriale costruito sul campo IK. Proviamo ora che: Proposizione 126 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK, di dimensioni finite n ed m (rispettivamente). Sia quindi (Hom(VIK , WIK ), IK, ·) lo spazio vettoriale degli omomorfismi di V in W. Se sono fissate una base B per V ed una base B0 per W, ad ogni applicazione L di Hom(VIK , WIK ) risulta associata (cfr. 46) la matrice AB L,B0 . L’applicazione χ : Hom(VIK , WIK ) −→ M(m × n, IK) che associa ad ogni elemento L di Hom(VIK , WIK ) la matrice AB L,B0 è un isomorfismo tra Hom(VIK , WIK ) ed M(m × n, IK). Dimostrazione Proviamo che χ è lineare. Siano, all’uopo L, M ∈ Hom(VIK , WIK ). Se risulta: B χ(L) = AB L,B0 , χ(M) = AM,B0 ,

(10.3)

B B AB L+M,B0 = AL,B0 + AM,B0 .

(10.4)

χ(L + M) = χ(L) + χ(M).

(10.5)

dalla (10.1) subito segue che: Pertanto, risulta:

77

78

CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

Inoltre, se k ∈ IK, dalle (10.2) e (10.3) segue: B χ(kL) = AB kL,B0 = kAL,B0 = kχ(L).

(10.6)

Dalle (10.5) e (10.6) segue la linearità di χ. Proviamo ora che χ è suriettiva: se B ∈ M(m × n, IK), segue che è individuata l’applicazione lineare L = LB B,B0 : VIK −→ WIK , associata alla matrice B, quando sono fissate per V e W le basi B e B0 (rispettivamente). Dalla prop. 49 segue allora che χ(L) = B, onde χ è suriettiva. Proviamo infine che ker χ si riduce al vettore nullo di Hom(VIK , WIK ). Sia a tal fine L ∈ ker χ; allora è χ(L) è uguale alla matrice tutta nulla 0 di M(m × n, IK). Pertanto l’immagine in L di un qualunque vettore v di V ha la colonna delle coordinate, valutate rispetto a B0 , tutta nulla ed è quindi il vettore nullo di W. L’applicazione L è allora l’applicazione costante nulla di V in W. Poichè l’applicazione costante nulla di V in W è il vettore nullo dello spazio Hom(VIK , WIK ), risulta che il nucleo di χ è nullo. Per quanto detto, la χ è un isomorfismo di Hom(VIK , WIK ) in M(m × n, IK), onde l’asserto. Dalla proposizione precedente segue che se VnIK e Wm IK sono due spazi vettoriali costruiti sul medesimo campo IK, di dimensioni finite n ed m (rispettivamente), allora lo spazio vettoriale Hom(VIK , WIK ) degli omomorfismi di V in W risulta isomorfo allo spazio M(m × n, IK). Pertanto la dimensione di Hom(VIK , WIK ) è uguale a quella di M(m × n, IK). Ne segue che la dimensione di Hom(VIK , WIK ) è uguale al prodotto di m per n.

10.2

Spazio duale.

Sia ora VIK uno spazio vettoriale costruito sul campo IK. Sia poi IK1 lo spazio vettoriale delle 1-ple di elementi del campo. Diremo spazio duale di V lo spazio vettoriale Hom(VIK , IK1 ). Denoteremo con V∗IK lo spazio duale di VIK . Da quanto detto segue che lo spazio duale di uno spazio vettoriale V è lo spazio delle applicazioni lineari di V nel campo IK su cui esso è costruito (interpretato come spazio vettoriale unidimensionale costruito su se stesso). Dalla proposizione 126 segue che, se VnIK è uno spazio vettoriale di dimensione finita n, costruito sul campo IK, allora anche la dimensione del suo duale V∗IK risulta finita ed uguale ad n. Osserviamo esplicitamente che, in questo caso, sia V che il suo duale V∗ , risultano isomorfi a IKn (modello universale per gli spazi vettoriali di dimensione finita n costruiti sul campo IK). Sia quindi VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Sia poi B = (v1 , v2 , ..., vn ) una base per V. Se v è un vettore di V, risulta univocamente determinata la n-pla (x1 , x2 , ..., xn ) delle sue coordinate, valutate rispetto a B. Denoteremo con vi : VnIK −→ IK l’applicazione di V in IK, che associa ad ogni vettore di V la sua i-ma coordinata, valutata rispetto a B. L’applicazione vi è manifestamente lineare e la diremo i-ma proiezione (rispetto alla base B di V) di V in IK. Pertanto, le n proiezioni v1 , ..., vn di V in IK, appartengono a V∗ . Al riguardo proviamo ora che: Proposizione 127 Siano VnIK uno spazio vettoriale di dimensione finita n, costruito sul campo IK e B = (v1 , v2 , ..., vn ) , una base per esso. Allora le n proiezioni v1 , ..., vn costituiscono una base B ∗ per lo spazio duale V∗ dello spazio V. Dimostrazione Poiché V è di dimensione finita n, la dimensione di V∗ è uguale ad n. Per provare l’asserto, sarà quindi sufficiente provare che v1 , ..., vn siano linearmente indipendenti in V∗ . All’uopo, consideriamo una loro combinazione lineare a coefficienti y1 , y2 , ..., yn (rispettivamente) di IK e supponiamo che sia: n X yj vj = 0∗ ,

(10.7)

j=1

ove 0∗ è il vettore nullo di V∗ , cioè l’applicazione costante nulla di V in IK. Allora, necessariamente, risulta: ⎡ ⎤ n X ⎣ yj vj ⎦ (v) = 0∗ (v) = 0. ∀v ∈ V (10.8) j=1

10.3. CAMBIAMENTI DI BASE IN V∗ .

79

In particolare, per i vettori di B, risulta: ⎡ ⎤ n X ⎣ yj vj ⎦ (vi ) = 0∗ (vi ) = 0

i = 1, ..., n.

(10.9)

j=1

Dalla definizione di somma di elementi di V∗ e dalla definizione di prodotto di uno scalare per un elemento di V∗ , la (10.9) implica la: n X yj vj (vi ) = 0 i = 1, ..., n. (10.10) j=1

D’altra parte è:

vj (vi ) = δ ji ;

i, j = 1, ..., n,

(10.11)

δ ji

ove è il delta di Kronöeker che assume il valore 1 se, e solo se, j = i ed, altrimenti, vale zero. Pertanto, sostituendo nella (10.10), per ogni j = 1, ..., n, il valore di vj (vi ) fornito dalla (10.11), risulta: yi = 0

i = 1, ..., n.

(10.12)

Da quanto detto segue che la (10.7) implica la (10.12); pertanto i vettori v1 , ..., vn sono indipendenti, onde l’asserto. ¡ ¢ La base B∗ = v1 , ..., vn dello spazio V∗ , di cui all’enunciato della proposizione precedente, è detta base duale della base B di V. Diremo covettori gli elementi dello spazio duale.

10.3

Cambiamenti di base in V∗ .

¡ ¡ ¢T e1 v e2 · · · Siano B = v1 v2 · · · vn e Be = v dimensione finita n costruito sul campo IK. Se v è un vettore di V siano: ¡ ¢ X = x1 x2 · · · xn ed

en v

¢T

due basi dello stesso spazio vettoriale VnIK di

¡ Y = y1

y2

···

¢ yn ,

le righe delle coordinate di v, valutate rispetto a B ed a Be (rispettivamente), onde è: ⎛ ⎞ ⎛ ⎞ e1 v v1 ⎜v ⎟ ⎜ v2 ⎟ e ⎜ 2⎟ ⎜ ⎟ v = X ⎜ . ⎟ = Y ⎜ . ⎟. ⎝ .. ⎠ ⎝ .. ⎠ vn

Dalla prop 53, segue che, posto:

A = AB h, id,B

risulta:

Y T = AX T

en v

(10.13)

(10.14)

(10.15) (10.16)

Ricordiamo che (cfr. proposizione 47) la j-esima colonna della matrice A è (j = 1, 2, ..., n) la colonna delle e coordinate del vettore vj , valutate rispetto a B. Analogamente, posto: h B = AB (10.17) id,B , risulta:

X T = BY T ,

(10.18)

B = A−1 .

(10.19)

ed è dunque: ei , valutate rispetto Inoltre, la i-esima colonna di B è (i = 1, 2, ..., n) la colonna delle coordinate del vettore v a B. Pertanto, la matrice B T , trasposta della B, ha quale i-esima riga (i = 1, 2, ..., n) la riga delle coordinate ei , valutate rispetto a B. Ne segue che: di v ⎛ ⎞ ⎛ ⎞ e1 v1 v ⎟ ⎜ v2 ⎟ ⎜v e 2 ⎜ ⎟ ⎜ ⎟ (10.20) ⎜ .. ⎟ = B T ⎜ .. ⎟ . ⎝ . ⎠ ⎝ . ⎠ en v

vn

80

CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

¡ ¡ 1 ¢ ¢ e n due basi dello spazio V∗ (duale di V) duali e2 · · · v e v Siano ora B∗ = v1 v2 · · · vn e Be∗ = v e rispettivamente. di B e B, e risulta: e i è la i-esima proiezione di V in IK (rispetto a B), Se v ∈V dalla (10.13) e poichè v e i (v) = y i v

i = 1, 2, ..., n. ¡ i¢ Dalle (10.16) segue che, posto A = aj , i = 1, 2, ..., n, j = 1, 2, ..., n: yi =

n X aij xj

(10.21)

i = 1, 2, ..., n.

(10.22)

j=1

Inoltre risulta: xj = vj (v)

j = 1, 2, ..., n.

(10.23)

Dalle (10.21) (10.22) e (10.23) segue: e i (v) = y i = v

n n X X aij xj = aij vj (v). j=1

(10.24)

j=1

La (10.24) sussiste per ogni scelta del vettore v ∈V. Risulta allora:

cioè:

¡ 1 e v

ei = v

e2 v

···

n X aij vj ,

(10.25)

j=1

¢ ¡ e n = v1 v

v2

···

¢ vn AT .

(10.26)

Osserviamo esplicitamente che nella (10.20) e nella (10.26) intervengono due matrici quadrate che sono l’una l’inversa dell’altra.

10.4

Spazio biduale.

Sia VIK uno spazio vettoriale costruito nel campo IK. È allora possibile costruire lo spazio V∗∗ duale di V∗ , che diremo biduale di V. Esso è costituito da tutte e sole le applicazioni lineari di V∗ in IK. Sia ora v ∈V. È possibile costruire in corrispondenza di v, un elemento v∗∗ di V∗∗ che diremo elemento biduale di v ∈V. A tal fine, porremo: v∗∗ (v∗ ) = v∗ (v)

∀v∗ ∈ V∗ .

(10.27)

Proviamo al riguardo che: Proposizione 128 L’applicazione v∗∗ : V∗ −→ IK definita in (10.27) è un elemento di V∗∗ . Dimostrazione È sufficiente provare la linearità di v∗∗ . Siano all’uopo, v∗ e v0∗ due elementi di V∗ ; risulta allora (dalla (10.27)): (10.28) v∗∗ (v∗ + v0∗ ) = [v∗ + v0∗ ] (v) . Dalla definizione di somma in V∗ , segue: [v∗ + v0∗ ] (v) = v∗ (v) + v0∗ (v) .

(10.29)

v∗ (v) = v∗∗ (v∗ ) , v0∗ (v) = v∗∗ (v0∗ ) .

(10.30)

v∗∗ (v∗ + v0∗ ) = v∗∗ (v∗ ) + v∗∗ (v0∗ ) .

(10.31)

Dalla (10.27) segue poi:

Per le (10.28), (10.29) e (10.30) risulta:

Dall’arbitrarietà della scelta di v∗ e v0∗ in V∗ e dalla (10.31) segue che v∗∗ conserva la somma in v∗ .

10.4. SPAZIO BIDUALE.

81

Proviamo ora che v∗∗ conserva il prodotto di uno scalare per un vettore. All’uopo, siano k ∈ IK e v∗ ∈V∗ , evidentemente dalla (10.27) segue che: v∗∗ (kv∗ ) = [kv∗ ] (v) . (10.32) Dalla definizione di prodotto di uno scalare per un vettore in V∗ , segue: [kv∗ ] (v) = k [v∗ (v)] .

(10.33)

k [v∗ (v)] = k [v∗∗ (v∗ )] .

(10.34)

v∗∗ (kv∗ ) = k [v∗∗ (v∗ )] .

(10.35)

Dalla (10.27) risulta: Dalle (10.32), (10.33) e (10.34) segue che:

Dalle (10.31) e (10.35), per l’arbitrarietà della scelta dello scalare k e dei vettori v∗ e v0∗ che in esse compaiono, segue la linearità di v∗∗ , cioè l’asserto Consideriamo ora l’applicazione β : V −→ V∗∗ che associa ad ogni elemento v ∈V l’elemento v∗∗ ∈ V∗∗ di cui alla proposizione precedente. Al riguardo, proviamo che: Proposizione 129 L’applicazione β : V −→ V∗∗ è un’applicazione lineare di V nel suo biduale. Dimostrazione Evidentemente è (cfr. prop. precedente): β (v) = v∗∗ .

(10.36)

Cominciamo con il provare che: β (v + v0 ) = β (v) + β (v0 ) cioè che: (v + v0 )

∗∗

= v∗∗ + v0∗∗

∀v, v0 ∈ V. ∀v, v0 ∈ V.

(10.37) (10.38)

Per la (10.38) è sufficiente mostrare che: (v + v0 )

∗∗

(v∗ ) = [v∗∗ + v0∗∗ ] (v∗ )

∀v∗ ∈ V∗ .

(10.39)

Il primo membro della (10.39) risulta (per la (10.27) e per la linearità di v∗ ): ∗∗

(v + v0 )



(v∗ ) = (v + v0 ) (v) = v∗ (v) +v0∗ (v) .

(10.40)

Dalla (10.27) segue poi: v∗ (v) = v∗∗ (v∗ ) , v0∗ (v) = v0∗∗ (v∗ ) .

(10.41)

Dalla definizione di somma in V∗∗ si ha infine: v∗∗ (v∗ ) + v0∗∗ (v∗ ) = [v∗∗ + v0∗∗ ] (v∗ ) . Dalle (10.40), (10.41) e (10.42) segue la (10.39) cioè la (10.38) e quindi la (10.37). Proviamo ora che: β (hv) = hβ (v) ∀v ∈ V, ∀h ∈ IK,

(10.42)

(10.43)

cioè che: (hv∗∗ ) (v∗ ) = [hv∗∗ (v∗ )]

∀v∗ ∈ V∗ .

(10.44)

Per il primo membro della (10.44) risulta (per la (10.27) e per la linearità di v∗ ): (hv∗∗ ) (v∗ ) = (hv∗ ) (v) = hv∗ (v) .

(10.45)

v∗ (v) = v∗∗ (v∗ ) .

(10.46)

Dalla (10.27) segue poi: ∗∗

Dalla definizione di prodotto per uno scalare in V

si ha infine::

hv∗∗ (v∗ ) = [hv∗∗ (v∗ )] . Dalle (10.45), (10.46) e (10.47) segue la (10.43), onde l’asserto.

(10.47)

82

10.5

CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

Isomorfismo canonico tra VnIK ed il suo biduale.

Supponiamo ora che VnIK sia di dimensione finita n. Per quanto visto in (126) lo spazio V∗ è anch’esso di dimensione finita n. Pertanto, il biduale V∗∗ (duale di V∗ ) è di dimensione finita n. A tal riguardo possiamo provare che: Proposizione 130 L’applicazione β : VnIK −→ V∗∗ di cui alla proposizione precedente è un isomorfismo tra gli spazi n dimensionali V e V∗∗ . Tale isomorfismo è detto canonico nel senso che è indipendente dalla scelta di particolari basi. Dimostrazione Osserviamo che v ∈ ker β se, e solo se, v∗∗ è il vettore nullo di V∗∗ ; ciò accade se, e solo se, v∗∗ (v∗ ) = 0V∗ (∀v∗ ∈ V∗ ); ciò accade se, e solo se, v∗ (v) = 0V (∀v∗ ∈ V∗ ). Ne segue che v ∈ ker β se, e solo se, ogni elemento di V∗ contiene v nel suo nucleo. Ciò equivale a dire che: v ∈ ker β ⇐⇒ v ∈ ker v∗

∀v∗ ∈ V∗ .

(10.48)

Dalla (10.48) subito segue che: v ∈ ker β ⇐⇒ v = 0V .

(10.49)

Ne segue che ker β ha dimensione nulla e, dalla prop. 39 che : Im β = V∗∗ .

(10.50)

Pertanto, β è un isomorfismo tra V ed il suo biduale.

10.6

Forme multilineari.

Siano V1 , V2 , ..., Vm m spazi vettoriali definiti sul medesimo campo IK. Sia poi V = V1 × V2 × ... × Vm il loro prodotto cartesiano. Se v = (v1 , v2 , ..., vm ) e w = (w1 , w2 , ..., wm ) sono due elementi di V definiamo la loro somma v + w nel modo seguente: (v + w)i = vi + wi i = 1, 2, ...n. (10.51) È poi possibile definire il prodotto di uno scalare k ∈ IK per l’elemento v = (v1 , v2 , ..., vm ) di V nel modo seguente: kv = (kv1 , kv2 , ..., kvm ). (10.52) È immediato verificare che con la definizione di somma di elementi di V data in (10.51) e la definizione di prodotto di uno scalare per un elemento di V data in (10.52), V risulta strutturato a spazio vettoriale sul campo IK. Sia ora M : V −→ IK un’applicazione di V = V1 × V2 × ... × Vm in IK. Diremo che M è lineare sull’i-mo fattore di V se, e solo se, comunque fissati due vettori w1 e w2 dello spazio Vi , comunque fissati due scalari h1 ed h2 di IK e comunque fissato un vettore vj per ciascuno degli spazi Vj , diversi da Vi , risulta: M (v1 , v2 , ...vi−1 , h1 w1 + h2 w2 , vi+1 , vi+2 , ..., vm ) = = h1 M (v1 , v2 , ...vi−1 , w1 , vi+1 , vi+2 , ..., vm ) + +h2 M (v1 , v2 , ...vi−1 , w2 , vi+1 , vi+2 , ..., vm ) .

(10.53)

Se l’applicazione M : V −→ IK risulta lineare su tutti gli m fattori di V, diremo che M è una forma multilineare.

10.7

Tensori ed algebra tensoriale.

In questo numero considereremo spazi vettoriali finito dimensionali. Spesso, nel seguito, faremo uso della convenzione di Einstein secondo la quale si intende sottinteso di sommare rispetto ad ogni indice che compaia una volta in alto e l’altra in basso. Ad esempio, secondo tale convenzione, scrivendo: xi vi , intenderemo significare:

n X xi vi . i=1

(10.54)

(10.55)

10.7. TENSORI ED ALGEBRA TENSORIALE.

83

Relativamente all’insieme di variabilità degli indici in questione (che vengono detti indici muti) esso sarà facilmente evincibile dal contesto, quando non espressamente specificato. Siano V uno spazio vettoriale (di dimensione finita) costruito sul campo IK e V∗ il suo duale. Diremo prodotto duale l’applicazione h·, ··i : V∗ × V → IK, (10.56) che associa ad ogni coppia (v∗ , v) di V∗ × V lo scalare v∗ (v) che denoteremo con hv∗ , vi. Proposizione 131 Il prodotto duale sopra definito verifica le (∀λ, µ ∈ IK) hλv∗ + µw∗ , vi = λ hv∗ , vi + µ hw∗ , vi , hv∗ , λv + µwi = λ hv∗ , vi + µ hv∗ , wi , hv∗ , vi = 0 ∀v ∈V ⇔ v∗ = 0, hv∗ , vi = 0 ∀v∗ ∈V∗ ⇔ v = 0.

(10.57) (10.58) (10.59) (10.60)

Dimostrazione La (10.57) discende immediatamente dalle definizioni di somma e prodotto per uno scalare in V∗ , mentre la (10.58) è diretta conseguenza della definizione di spazio duale. Per quanto riguarda la (10.59), dimostriamo l’implicazione diretta assumendo che sia hv∗ , vi = 0 ∀v ∈V: ne consegue che v∗ è l’applicazione costante nulla di Hom (V, IK). Assumendo viceversa che v∗ sia l’applicazione costante nulla si ha hv∗ , vi = 0 ∀v ∈V. Consideriamo infine la (10.60). Assumendo che sia hv∗ , vi = 0 ∀v∗ ∈V∗ , ciò accade se e solo se v ∈ ker v∗

∀v∗ ∈V∗ ,

(10.61)

il che è vero se e solo se v è il vettore nullo di V. Viceversa, supposto v = 0 e considerato w ∈V (si ricordi che l’elemento neutro è unico): hv∗ , vi = hv∗ , 0i = hv∗ , 0wi = 0 hv∗ , wi = 0 ∀v∗ ∈V∗ , avendo fatto uso della proposizione 1 e della (10.58). Il fatto che sussistano le (10.57), (10.58), (10.59), (10.60) più sinteticamente si esprime dicendo (in analogia alla (7.46)) che il prodotto duale è bilineare e non degenere. Evidentemente, se V∗∗ è lo spazio biduale di V, è possibile considerare il prodotto duale h·, ··i : V∗∗ × V∗ → IK.

(10.62)

Se β è l’isomorfismo canonico di V∗ in V∗∗ , dalla proposizione 130 e dalla (10.27) segue subito che hβ (u) , u∗ i := hu∗ , ui , u ∈ V, u∗ ∈ V∗ .

(10.63)

Con un abuso notazionale, identificando u con β (u) , possiamo riscrivere la (10.63) nel modo seguente hu, u∗ i := hu∗ , ui , ∀u∗ ∈ V∗ .

(10.64)

La (10.64) ci consente di interpretare ogni elemento di V quale elemento dello spazio biduale Hom(V∗ , IK), cioé quale applicazione lineare u : V∗ → IK. (10.65) La (10.64) si esprime più suggestivamente dicendo che il prodotto duale è simmetrico (proprietà che discende dall’abuso notazionale operato). Siano ora V1 , ..., Vq q copie di uno spazio vettoriale V costruito sul campo IK. Se V∗1 , ..., V∗p sono p copie ¡ ¢ del duale di V, diremo tensore di ordine pq in V ogni applicazione multilineare: T : V∗1 × · · · × V∗p × V1 × · · · × Vq → IK.

(10.66)

Diremo anche che il sopra definito tensore è una funzione (p + q)-lineare. L’intero non negativo p è l’ordine di controvarianza,e l’intero non negativo q è l’ordine di covarianza. ¡¢ Assumeremo poi che ogni scalare sia un tensore di ordine 00 . ¡¢ Un vettore v ∈ V è un tensore di ordine 10 , ovvero è un tensore puramente controvariante di ordine 1. Infatti, dalla 10.64, v può riguardarsi come una applicazione (1 + 0)−lineare v : V∗ → IK.

(10.67)

84

CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

¡¢ Diremo covettore ogni tensore di ordine 01 , cioè ogni elemento di V∗ . Un covettore è un tensore puramente covariante di ordine 1. ¡ ¢ Denotiamo l’insieme di tutti i tensori di ordine pq sullo spazio vettoriale V come Tpq (V). L’insieme dei tensori puramente covarianti di ordine q è denotato semplicemente Tq (V), mentre l’insieme dei tensori puramente controvarianti di ordine p è denotato come Tp (V). Siano L, M ∈ Tpq (V). Definiamo l’operazione somma tra elementi di Tpq (V) nel modo seguente: ¡ ¢ ¡ ¢ ¡ ¢ (L + M) u1 , ..., up , u1 , ..., uq := L u1 , ..., up , u1 , ..., uq + M u1 , ..., up , u1 , ..., uq . (10.68) Definiamo poi la moltiplicazione di L per uno scalare λ ∈ IK nel modo seguente: ¢ ¡ ¢ ¡ (λL) u1 , ..., up , u1 , ..., uq := λL u1 , ..., up , u1 , ..., uq ,

(10.69)

∀u1 , ..., up ∈ V∗ , ∀u1 , ..., uq ∈ V. Dalle precedenti definizioni discende che l’insieme Tpq (V) è uno spazio vettoriale costruito sul campo IK. L’elemento nullo di Tpq (V) è il tensore ¡ ¢ 0 : 0 u1 , ..., up , u1 , ..., uq = 0. (10.70)

Introduciamo ora © il concetto ªdi prodotto tensore. Sia {u1 , u2 , ..., up } un insieme di p vettori in uno spazio vettoriale V, e sia u1 , u2 , ..., uq un insieme di q covettori nel duale V∗ . La funzione u1 ⊗ u2 ⊗ · · · ⊗ up ⊗ u1 ⊗ u2 ⊗ · · · ⊗ uq : V∗1 × · · · × V∗p × V1 × · · · × Vq → IK,

definita attraverso la sua azione sugli elementi di V e V∗ come £ ¤¡ ¢ u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq w1 , ..., wp , w1 , ..., wq ­ ® ® ­ := w1 , u1 · · · hwp , up i u1 , w1 · · · huq , wq i ,

(10.71)

(10.72)

è detta prodotto tensore di u1 , u2 , ..., up e u1 , u2 , ..., uq . Dalla (10.57), segue che la applicazione definita dalla (10.72) risulta (p + q)−lineare, ovvero u1 ⊗ · · · ⊗ up ⊗ u1 · · · ⊗ uq ∈ Tpq (V) .

(10.73)

Proviamo ora che: Proposizione 132 Sia B = (e1 , ..., en ) una base per uno spazio vettoriale n−dimensionale V e B∗ la base duale. l’insieme dei prodotti tensore © ª ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq , i1 , ..., ip , j1 , ..., jq = 1, ..., n, (10.74) forma una base per Tpq (V), detta base prodotto. Pertanto risulta dim Tpq (V) = n(p+q) .

(10.75)

Dimostrazione Per dimostrare il primo asserto occorre provare che (10.74) è un insieme linearmente indipendente che genera Tpq (V). Per provare l’indipendenza lineare si consideri l’insieme di n(p+q) scalari ª © i1 ...ip (10.76) i1 , ..., ip , j1 , ..., jq = 1, ..., n, A j1 ...jq ,

e la combinazione lineare degli elementi dell’insieme (10.74) secondo tali coefficienti: Ai1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq = 0.

Essendo il secondo membro il tensore nullo si ha £ ¤¡ ¢ 0 = Ai1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq eh1 , ..., ehp , ek1 , ..., ekq ­ ® ­ ®­ ® ­ ® = Ai1 ...ip j1 ...jq eh1 , ei1 · · · ehp , eip ej1 , ek1 · · · ejq , ekq = Ai1 ...ip j1 ...jq δ ih11 · · · δ ihpp δ kj11 · · · δ kjqq = Ah1 ...hp k1 ...kq = 0,

(10.77)

(10.78)

da cui, essendo tutti nulli i coefficienti della combinazione lineare, l’insieme (10.74) è formato da vettori linearmente indipendenti. Proviamo ora che ogni elemento di Tpq (V) può esprimersi come combinazione lineare degli elementi dell’insieme (10.74). Consideriamo nuovamente una collezione di n(p+q) scalari © i1 ...ip ª B (10.79) i1 , ..., ip , j1 , ..., jq = 1, ..., n, j1 ...jq ,

10.7. TENSORI ED ALGEBRA TENSORIALE.

85

¡ ¢ definiti come i valori di un tensore B ∈ Tpq (V) in ei1 , ..., eip , ej1 , ..., ejq :

¡ ¢ B i1 ...ip j1 ...jq := B ei1 , ..., eip , ej1 , ..., ejq .

Ripercorrendo a ritroso i passaggi che hanno condotto alla (10.78) si ottiene £ i1 ...ip ¤ ¡ h1 ¢ j1 jq B e , ..., ehp , ek1 , ..., ekq j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ e ⊗ · · · ⊗ e ¢ ¡ = B eh1 , ..., ehp , ek1 , ..., ekq ,

(10.80)

(10.81)

∀h1 , ..., hp , k1 , ...kq = 1, ..., n. Essendo B multilineare in quanto appartenente all’insieme Tpq (V), ed essendo B, B∗ basi duali, dalla (10.81) segue che ¡ ¢ B i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq u1 , ..., up , u1 , ..., uq ¢ ¡ (10.82) = B u1 , ..., up , u1 , ..., uq , ∀u1 , ..., up ∈ V∗ , u1 , ..., uq ∈ V,

ovvero

B = B i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq .

(10.83)

Ricordando la proposizione 19 possiamo concludere che l’insieme (10.74) è una base per Tpq (V). La cardinalità di tale insieme uguaglia il numero delle (p + q) − ple ordinate di elementi di V, n(p+q) . Ne segue l’asserto. Il primo membro della (10.80) assume n(p+q) valori ciascuno dei quali è detto componente del tensore B. Per il caso in cui V sia di dimensione finita n, stabiliremo una connessione tra un elemento di Hom (V, V) ed un tensore di T11 (V), ovvero tra una trasformazione lineare da V in sé ed una funzione bilineare da V∗ × V e come in IK. Se T ∈Hom (V, V), definiamo T e (u∗ , u) := hu∗ , Tui T

∀u ∈ V, ∀u∗ ∈ V∗ .

(10.84)

e risulta bilineare, ovvero T e ∈ T1 (V).È quindi possibile introdurre la applicazione Dalle (10.57), (10.58), T 1 tale che nel senso specificato dalla (10.84).

f : Hom (V, V) → T1 (V) , (·) 1 f (T) = T, e (·)

(10.85)

(10.86)

f definita dalla (10.85) Proposizione 133 Se V è uno spazio vettoriale di dimensione finita n, l’applicazione (·) 1 è un isomorfismo tra Hom (V, V) e T1 (V).

f Dimostriamo quindi che (·) f è iniettiva. Ponendo Dimostrazione È immediato verificare la linearità di (·). e = 0 nella (10.84) si ottiene T (10.87) hu∗ , T (u)i = 0 ∀u∗ ∈ V∗ , ∀u ∈ V. Dalla (10.60), la condizione precedente equivale a

T (u) = 0 ∀u ∈V,

(10.88)

f è dunque iniettiva dalla proposizione 34 (risulta infatti ker T e = 0). Dalla proposizione 39 si ovvero T = 0. (·) ha infine f = dim T1 (V) , dim Im (·) (10.89) 1 da cui , ricordando la proposizione 32

f = T1 (V) , Im (·) 1

(10.90)

T : V∗ ×V → IK,

(10.92)

f è un isomorfismo essendo insieme iniettiva e suriettiva. ovvero (·) f viene riguardata come un isomorfismo canonico. Il tensore T può dunque intendersi sia l’applicazione (·) come trasformazione lineare T : V → V, (10.91) sia come forma bilineare

86

CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

ovvero, con abuso di notazione, si può scrivere T (u∗ , u) = hu∗ , T (u)i .

(10.93)

Questa proposizione può essere vista come un corollario della prossima proposizione 144. Sia u ∈ V, u∗ ∈ V∗ . Il loro prodotto tensore è una forma bilineare u ⊗ u∗ : V∗ × V →IK,

(10.94)

[u ⊗ u∗ ] (w∗ , w) = hw∗ , ui hu∗ , wi .

(10.95)

[u ⊗ u∗ ] (w∗ , w) = hw∗ , [u ⊗ u∗ ] (w)i ,

(10.96)

hw∗ , ui hu∗ , wi = hw∗ , [u ⊗ u∗ ] (w)i , ∀w ∈ V, ∀w∗ ∈ V∗ .

(10.97)

definita come Facendo uso dell’isomorfismo canonico ovvero operando l’abuso di notazione di cui alla (10.93), il tensore u ⊗ u∗ corrisponde ad un endomorfismo [u ⊗ u∗ ] ∈ Hom (V, V). Ancora dalla (10.93) si ha infatti ovvero Dalle (10.57), (10.58) (bilinearità del prodotto duale), il primo membro dell’ultima equazione può riscriversi come hw∗ , ui hu∗ , wi = hw∗ , hu∗ , wi ui . (10.98)

Dalla (10.59) si stabilisce infine che

hw∗ , hu∗ , wi ui = hw∗ , [u ⊗ u∗ ] (w)i ; hw∗ , hu∗ , wi u − u ⊗ u∗ (w)i = 0 ∀w∗ ∈ V∗ ⇒ ⇒ hu∗ , wi u = [u ⊗ u∗ ] (w)

∀w ∈V,

(10.99)



il che identifica u ⊗ u come un endomorfismo in V. Rivolgendo nuovamente l’attenzione allo spazio Tpq (V), come conseguenza della proposizione 132 si ha (vedi proposizione 19) che tutti i prodotti tensore nella forma (10.72) formano un insieme di generatori per Tpq (V). Diremo tensore semplice una applicazione che possa rappresentarsi attraverso un prodotto tensore ¡ ¢ nella forma (10.72). È chiaro che questa rappresentazione non è unica. Si consideri ad esempio 2u ⊗ 12 u∗ , u ∈ V, u∗ ∈ V∗ . Dalla (10.72) si ha ¿ À ¸ ∙ 1 ∗ 1 2u ⊗ u∗ (v, v∗ ) = hv∗ , 2ui u ,v 2 2 ∗ ∗ = hv , ui hu , vi = [u ⊗ u∗ ] (v, v∗ ) ∀u ∈ V, ∀u∗ ∈ V∗ . (10.100) Il prodotto tensore come definito dalla (10.72) può riguardarsi in generale come una mappa ⊗ : V1 × ... × Vp × V∗1 × ... × V∗q → Tpq (V) , definita come 1

¡ ¢ ⊗ u1 , ..., up , u1 , ..., uq := u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq ,

q

(10.101) (10.102)



∀u1 , ..., up ∈ V, ∀u , ..., u ∈ V . Tale applicazione è evidentemente multilineare nel senso specificato nella sezione 10.6. Estendiamo ora l’operazione di prodotto tensore tra vettori e covettori al caso di tensori di ordine superiore al primo. Siano T ∈ Tpq (V) ed U ∈ Trs (V). La mappa ⊗ : Tpq (V) × Trs (V) → Tp+r q+s (V) ,

(10.103)

tale che ¢ ¡ ¢ ¡ ¢ ¡ [T ⊗ U] u1 , ..., up+r , u1 , ..., uq+s := T u1 , ..., up , u1 , ..., uq U up+1 , ..., up+r , uq+1 , ..., uq+s ,

(10.104)

∀u1 , ..., up+r ∈ V∗ , ∀u1 , ..., uq+s ∈ V è detta prodotto tensore di T ed U. Esplicitando la precedente definizione, le componenti di tale tensore sono (T ⊗ U)i1 ...ip+r j1 ...jq+s = T i1 ...ip j1 ...jq U ip+1 ...ip+r jq+1 ...jq+s ,

(10.105)

e la sua rappresentazione in una base prodotto generata dalla base B è

T ⊗ U = T i1 ...ip j1 ...jq U ip+1 ...ip+r jq+1 ...jq+s ei1 ⊗ · · · ⊗ eip+r ⊗ ej1 ⊗ · · · ⊗ ejq+s .

(10.106)

10.8. CAMBIAMENTO DELLE COMPONENTI DI UN TENSORE.

10.8

87

Cambiamento delle componenti di un tensore.

¡ Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Siano poi B = v1 ¡ ¢T e Be = w1 w2 · · · wn due basi per V. Dalla (10.20) è: ⎞ ⎛ ⎞ v1 w1 ⎜ v2 ⎟ ⎜ w2 ⎟ ¡ ¢ T⎜ ⎟ ⎜ ⎟ ⎜ .. ⎟ = A−1 ⎜ .. ⎟ , ⎝ . ⎠ ⎝ . ⎠ ⎛

v2

···

vn

¢T

(10.107)

wn vn ³ ´ ¡ −1 ¢T ove A = AB = C = cji (ove l’indice di riga i e l’indice di colonna j variano da 1 alla h. Posto A id,B dimensione n dello spazio V), dalla (10.107) segue (applicando la convenzione di Einstein): ¡ Siano ora B ∗ = v1 v2 Dalla (10.26) segue:

···

wi = cji vj ¡ ¢ vn e Be∗ = w1 ¡ 1 w

···

ove A è l’inversa della trasposta di C, cioè:

i = 1, 2, ..., n. (10.108) ¢ e rispettivamente. w2 · · · wn le basi duali delle B e B,

¢ ¡ w n = v1

···

¢ vn AT ,

¢T ¡ A = C −1 . ¡ ¢ Sia allora B = AT . Evidentemente è B = C −1 . Posto B = bhk dalla (10.109) segue: wh = bhk vk

h = 1, 2, ..., n.

(10.109)

(10.110)

(10.111)

In forza di quanto detto, risulta B = C −1 , onde è: cji bhj = δ hi ,

(10.112)

ove δ hi è il delta di Kronöcher. ¡ ¢ Ricordiamo ora che, per le componenti di un tensore di ordine pq si era posto (quando era stata fissata la base B per V), cfr. (10.80): ¡ ¢ (10.113) T i1 ...ip j1 ...jq = T vi1 , ..., vip , vj1 , ..., vjq . e le componenti del tensore risultano: Analogamente, quando in V si fissa la base B, ¢ ¡ Teh1 ...hp k1 ...kq = T wh1 , ..., whp , wk1 , ..., wkq .

(10.114)

Poichè T è multilineare, il secondo membro della (10.115) è uguale a: ¡ ¢ h j bhi11 · · · bipp cjk11 · · · ckqq T vi1 , ..., vip , vj1 , ..., vjq ,

(10.116)

Al fine di fornire le relazioni che legano le componenti T i1 ...ip j1 ...jq alle Teh1 ...hp k1 ...kq , sostituiamo nel secondo membro di (10.114) in luogo dei vettori di Be e Be∗ le loro espressioni (in funzione dei vettori di B e B∗ , rispettivamente) fornite dalle (10.108) ed (10.111). Otteniamo: ³ ´ h j Teh1 ...hp k1 ...kq = T bhi11 vi1 , ..., bipp vip , cjk11 vj1 , ..., ckqq vjq . (10.115)

e da quanto detto, tenuto conto della (10.113), risulta: ³ ´ h j Teh1 ...hp k1 ...kq = bhi11 · · · bipp cjk11 · · · ckqq T i1 ...ip j1 ...jq .

(10.117)

La (10.117) è detta legge di trasformazione delle componenti di un tensore T; tale legge mette in relazione le componenti nella base prodotto generata da B con le componenti nella base prodotto generata da e Detta t tale relazione, si verifica facilmente che essa è di equivalenza (vedi le (A.34), (A.35) e (A.36) in B. Appendice A). Molti trattati classici sui tensori utilizzano la legge di trasformazione (10.117) per definire tale ente. La seguente proposizione lega questa definizione con quella precedentemente data.

88

CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

Proposizione 134 Siano ip = (i1 , ..., ip ) , iq = (j1 , ..., jq ) ,

(10.118) (10.119)

rispettivamente la classe delle p − ple ordinate e q − ple ordinate di elementi dell’insieme {1, ..., n} e sia ¢ª ©¡ (10.120) c := B, ψ B : ip × iq 3 ({i1 , ..., ip } , {j1 , ..., jq }) 7−→ T i1 ...ip j1 ...jq ∈ IK ,

la classe delle applicazioni ψ B che associa alla coppia ({i1 , ..., ip } , {j1 , ..., jq }) lo scalare T i1 ...ip j1 ...jq quando sia stata scelta una base B di V. Se n ³ ´o e ψh (10.121) ∈ c2 , ψ B tψ Bh ∀ (B, ψ B ) , B, B

(cioè se ψ B e ψ Bh sono in relazione di equivalenza attraverso t) allora esiste un tensore T ∈ Tpq (V) le cui ª © componenti nelle basi prodotto di Tpq (V) generate dalle basi B e Be di V sono rispettivamente T i1 ...ip j1 ...jq o n e Tei1 ...ip j ...j , i1 , ..., ip , j1 , ..., jq = 1, ..., n. 1

q

Dimostrazione La dimostrazione è ovvia; è infatti possibile definire T ∈ Tpq (V) come T = T i1 ...ip j1 ...jq vi1 ⊗ · · · ⊗ vip ⊗ vj1 ⊗ · · · ⊗ vjq ,

(10.122)

nella base prodotto di Tpq (V) generata da B. Dalla legge di trasformazione (10.117) discende che le n

o Tei1 ...ip j1 ...jq ,

i1 , ..., ip , j1 , ..., jq = 1, ..., n,

(10.123)

sono le componenti dello stesso tensore nella base prodotto di Tpq (V) generata da Be purché B e Be siano legate dalla (10.107). Proposizione 135 Ad ogni tensore T ∈ Tpq (V) corrisponde una classe di equivalenza di scalari (componenti) e la legge di trasformazione (10.117) è la relazione di equivalenza che definisce tale classe. Dimostrazione È ovvia conseguenza della proposizione precedente.

10.9

Tensore contratto.

Con riferimento alle notazioni sin qui adottate, consideriamo i vettori (qualsivoglia) u2 , u3 , ..., up ∈ V∗ e u2 , u3 , ..., uq ∈ V senza alcun vincolo di dualità. È allora individuata la somma (ricordiamo che applichiamo la convenzione di Einstein): ¡ ¢ T vi , u2 , ..., up , vi , u2 , ..., uq , (10.124)

Nella somma definita in (10.124) l’indice muto è il primo di controvarianza ed il primo di covarianza. Tale somma è detta tensore contratto saturando il primo indice di controvarianza con il primo di covarianza; esso è denotato con T11 . Faremo ora vedere che il tensore contratto definito in (10.124) non dipende dalla scelta della base di V. Infatti, scegliendo Be quale base per V il tensore contratto si scrive: ¢ ¡ (10.125) T wi , u2 , ..., up , wi , u2 , ..., uq , Sostituendo nella (10.125), in luogo di wi e wi le loro espressioni fornite da (10.111) e (10.108) rispettivamente, otteniamo: ¡ ¢ T wi , u2 , ..., up , wi , u2 , ..., uq ³ ´ = T bih vh , u2 , ..., up , cji vj , u2 , ..., uq ¡ ¢ = bih cji T vh , u2 , ..., up , vj , u2 , ..., uq . (10.126)

Ma è (cfr. (10.112)):

bih cji = δ jh ,

(10.127)

10.9. TENSORE CONTRATTO.

89

onde l’ultima espressione che compare in (10.126) è: ¡ ¢ δ jh T vh , u2 , ..., up , vj , u2 , ..., uq ³ ´ = T δ jh vh , u2 , ..., up , vj , u2 , ..., uq ¢ ¡ = T vj , u2 , ..., up , vj , u2 , ..., uq ,

(10.128)

coincidente con la (10.125). Analogamente a quanto ora esposto si può procedere alla costruzione del tensore contratto ottenuto saturando l’indice di controvarianza r (con r ≤ p) con l’indice di covarianza s (con s ≤ q). Esso è denotato con il simbolo Trs . L’operazione di contrazione è iterabile più volte sino ad esaurimento degli indici di controvarianza (se p < q) o di quelli di covarianza (se q < p). Sia B = (v1 , v2 , ..., vn ) una base dello spazio vettoriale n−dimensionale V costruito sul campo IK. Diremo matrice associata alla forma bilineare T : V × V →IK, (10.129) la matrice T ∈ M(n × n, IK) il cui elemento Tij è così definito: Tij = T (vi , vj ) .

(10.130)

Concludiamo questo numero osservando che, nel caso in cui risulti p = 0, q = 2 ed n = 3, diremo tensore contratto di una forma bilineare T lo scalare che si ottiene sommando gli elementi siti sulla diagonale principale della matrice associata a T. Per maggiori dettagli sulle contrazioni si rimanda al Capitolo 11 della Parte II.

90

CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

Bibliografia [1] Tallini G (1973) Varietà differenziabili e coomologia di de Rham, Cremonese, Roma.

91

92

BIBLIOGRAFIA

Parte II

Applicazioni

93

Capitolo 11

ANCORA SUI TENSORI 11.1

Contrazioni.

¡ ¢ In questa sezione si prenderà in esame l’operazione di contrazione semplice di un tensore di ordine pq ; il ¡p−1¢ risultato di tale operazione è un tensore di ordine q−1 . Il concetto di tensore come forma multilineare definito dalla (10.66) può essere esteso introducendo il concetto di trasformazione multilineare a valori in un generico spazio vettoriale U: X : V1 × · · · × Vp × V∗1 × · · · × V∗q → U.

(11.1)

La seguente proposizione esprime la proprietà di fattorizzazione universale del prodotto tensore, ovvero il fatto che una trasformazione multilineare X come data dalla (11.1) può essere fattorizzata (con opportuno significato del termine) attraverso il prodotto tensore. Proposizione 136 Sia X una trasformazione multilineare come definita dalla (11.1); allora esiste ed è unica la trasformazione lineare: C : Tpq (V) → U, (11.2) tale che 1

¡ ¢ ¡ ¢ X u1 , ..., up , u1 , ..., uq = C u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq , q

(11.3)



∀u1 , ..., up ∈ V, ∀u , ..., u ∈ V .

Dimostrazione Poichè i tesori semplici formano un insieme di generatori per Tpq (V), se la trasformazione lineare C soddisfacente la (11.3) esiste essa è unica. Per provarne l’esistenza si consideri una base B = (e1 , ..., en ) di V. Definiamo ora la base prodotto per Tpq (V) come in (10.74) e sia ¢ ¡ ¢ ¡ (11.4) C ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq := X ei1 , ..., eip , ej1 , ..., ejq ,

∀i1 , ..., ip , j1 , ..., jq = 1, ..., N . Quindi C può essere estesa per linearità a tutti i tensori semplici in Tpq (V). Stante la multilinearità di X l’applicazione C definita in questo modo soddisfa la (11.3). Indicando con “◦” l’operazione di composizione, la condizione (11.3) può essere riscritta in modo suggestivo come X = C ◦ ⊗, (11.5)

dove abbiamo indicato con ⊗ l’applicazione definita in (10.102). La precedente esprime in modo sintetico il significato della fattorizzazione universale, ovvero il fatto che l’azione di un tensore X su un insieme di vettori e covettori u1 , ..., up , u1 , ..., uq equivale alla azione di una applicazione lineare C (la cui esistenza ed unicità sono state provate nella proposizione precedente) sul tensore semplice u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq . Siano u ∈V, u∗ ∈V∗ . Tenendo presente la (10.64),indichiamo con hu, u∗ i il prodotto duale tra u e u∗ . La mappa h·, ··i : V × V∗ → IK, (11.6) è bilineare (dalle (10.57), (10.58)). In virtù della proposizione 136, essa può essere fattorizzata attraverso il prodotto tensore ⊗ : V × V∗ → T11 (V) , (11.7) ovvero, esiste una applicazione lineare C :T11 (V) → IK, 95

(11.8)

96

CAPITOLO 11. ANCORA SUI TENSORI

tale che h , i = C ◦ ⊗,

hu, u∗ i = C (u ⊗ u∗ )

∀u ∈V, ∀u∗ ∈V∗ .

(11.9)

La funzione lineare C precedentemente definita è l’esempio più elementare di contrazione. Essa è una 0 p trasformazione dello spazio T11 (V) nello spazio T1−1 1−1 (V) = T0 (V) = IK. Sia T ∈ Tq (V) un tensore semplice nella forma T = u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq , u1 , ..., up ∈ V, u1 , ..., uq ∈ V∗ . (11.10) Per ogni coppia di interi i, j, con 1 ≤ i ≤ p, 1 ≤ j ≤ q, diremo contrazione semplice una trasformazione lineare p−1 Cij : Tpq (V) → Tq−1 (V) , (11.11) tale che ­ ® Cij (T) = uj , ui u1 ⊗ · · · ⊗ ui−1 ⊗ ui+1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uj−1 ⊗ uj+1 ⊗ · · · ⊗ uq ,

(11.12)

∀T ∈Tpq (V). Introducendo una notazione più compatta riscriviamo il prodotto tensore a secondo membro come b i · · · ⊗ up ⊗ u1 ⊗ · · · u b j · · · ⊗ uq . u1 ⊗ · · · u (11.13) Proposizione 137 L’operazione di contrazione semplice Cij soddisfacente la (11.12) è unica.

Dimostrazione Definiamo una trasformazione multilineare nella forma (11.1) scegliendo U = Tp−1 q−1 (V): ¡ ¢ ­ ® b i · · · ⊗ up ⊗ u1 ⊗ · · · u b j · · · ⊗ uq , Z u1 , ..., up , u1 , ..., uq = uj , ui u1 ⊗ · · · u

(11.14)

∀u1 , ..., up ∈ V, ∀u1 , ..., uq ∈ V∗ . Dalla proposizione 136 esiste ed unica la trasformazione lineare Cij (11.11) tale che sia soddisfatta la condizione (11.12). Attraverso la seguente proposizione otteniamo la rappresentazione per componenti del tensore Cij (T). Proposizione 138 Sia T ∈ Tpq (V) un tensore di ordine

¡p¢ i q ; allora le componenti del tensore Cj (T) ∈

Tp−1 q−1 (V) relative ad una base prodotto generata dalle base B sono date da ¡ i ¢h1 ...hi−1 hi+1 ...hp Cj T k

1 ...kj−1

kj+1 ...kq

= T h1 ...hi−1 r hi+1 ...hp k1 ...kj−1 r kj+1 ...kq .

(11.15)

Dimostrazione Poiché l’operazione di contrazione semplice è lineare, applicandola ad un tensore rappresentato come (11.16) T = T h1 ...hp k1 ...kq eh1 ⊗ · · · ⊗ ehp ⊗ ek1 ⊗ · · · ⊗ ekq , si ottiene

­ ® ehi · · · ⊗ ehp ⊗ ek1 ⊗ · · · b ekj · · · ⊗ ekq , Cij T = T h1 ...hp k1 ...kq ekj , ehi eh1 ⊗ · · · b ­ ® k onde l’asserto essendo ekj , ehi = δ hji . Nel caso particolare in cui C sia dato dalla (11.6), la precedente espressione si riduce a C (T) = T i i ,

∀T ∈T11 (V) ,

(11.17)

(11.18)

essendo T = T h k eh ⊗ ek ; ­ ® C (T) = ek , eh T h k = δ kh T h k = T k k .

(11.19)

T11 (V) ≡ Hom (V, V) ,

(11.20)

Facendo uso dell’isomorfismo canonico, ovvero operando l’identificazione

l’operatore C è detto traccia di T riguardato come un endomorfismo su V, ovvero come un elemento di Hom (V, V) (l’operatore traccia verrà in seguito esaminato nel dettaglio relativamente al caso dei tensori doppi sugli spazi vettoriali tridimensionali dotati di un prodotto scalare). Consideriamo lo spazio Tpq (V) e siano (h1 , ..., hN ) ,

(k1 , ..., kN ) ,

(11.21)

11.1. CONTRAZIONI.

97

due disposizioni semplici1 di ordine N sull’insieme {1, ..., min (p, q)} cosicché è verificata la ∀i, j ∈ (1, ..., N ) ,

i 6= j ⇒ hi 6= hj , ki 6= kj .

(11.22)

Diremo contrazione di ordine N la funzione C : T ∈ Tpq (V) 7−→ CT ∈ Tp−N q−N (V) ,

(11.23)

C := Chk11 ◦ · · · ◦ ChkNN .

(11.24)

composta da N contrazioni semplici Consideriamo ora lo spazio Tp+q q+p (V) con 0 ≤ p ≤ p,

0 ≤ q ≤ q.

(11.25)

Dato m ≤ p + q, diremo contrazione ((p, p) , (q, q)) − esterna di ordine m una contrazione di ordine m che q p applicata al tensore [T ⊗ U] ∈ Tp+q q+p (V) , T ∈ Tq (V) , U ∈ Tp (V) ne saturi esclusivamente indici del tensore T con indici del tensore U. Diremo inoltre contrazione semplice ((p, p) , (q, q)) − esterna del tensore [T ⊗ U] (con omissione dell’ordine) una contrazione ((p, p) , (q, q)) − esterna di ordine m = 1. Denoteremo con C la classe delle contrazioni semplici ((p, p) , (q, q)) − esterne. Proposizione 139 Una contrazione C di ordine m è ((p, p) , (q, q)) − esterna di ordine m se e solo se, fissata una sua decomposizione in contrazioni semplici m C = Chk11 ◦ · · · ◦ Chkm ,

(11.26)

si ha che tutte le contrazioni semplici che la compongono appartengono alla classe C appena definita. Dimostrazione Dimostriamo l’implicazione diretta per la caratterizzazione data dalla proposizione assumendo che C sia ((p, p) , (q, q))−esterna di ordine m. Dalla definizione di contrazione ((p, p) , (q, q))−esterna, C satura indici di T con indici di U; ne discende che ogni contrazione semplice che la compone è una contrazione ((p, p) , (q, q)) − esterna. Assumendo viceversa che tutte le contrazioni semplici della decomposizione (11.26) siano ((p, p) , (q, q)) − esterne di ordine 1, ancora dalla definizione di contrazione esterna si ha che ognuna di esse satura un indice di T con un indice di U; il loro effetto composto, coincidente con l’azione di C, è quindi quello di saturare indici di T esclusivamente con indici di U, il che caratterizza la stessa C come una contrazione ((p, p) , (q, q)) − esterna. Proposizione 140 Sia C una contrazione ((p, p) , (q, q)) − esterna di ordine m. Se (j1 , ..., jm ) è una permutazione dell’insieme {1, ..., m}, allora la contrazione e = Chj1 ◦ · · · ◦ Chjm C kj kjm i

(11.27)

e = C. è ((p, p) , (q, q)) − esterna di ordine m. Inoltre C

Dimostrazione È ovvia conseguenza della proposizione 139 e della proposizione 138. La proposizione precedente implica che componendo in un ordine qualsiasi un insieme fissato di m contrazioni semplici ((p, p) , (q, q)) − esterne si ottiene sempre la stessa contrazione ((p, p) , (q, q)) − esterna. Denoteremo con Cp , Cq le due classi di contrazioni semplici definite da © ª Cp := Chk | (1 ≤ h ≤ p) e (q + 1 ≤ k ≤ q + p) , (11.28) Cq := {Crs | (p + 1 ≤ r ≤ p + q) e (1 ≤ s ≤ q)} .

(11.29)

Proposizione 141 Siano Cp , Cq le due classi di contrazioni semplici precedentemente introdotte. Allora i seguenti asserti risultano veri: 1. tutte le contrazioni semplici appartenenti alle classi Cp , Cq sono ((p, p) , (q, q)) − esterne; 1 Dato un insieme Ξ di cardinalità n ed un intero positivo k 6 n, si chiamano disposizioni semplici di ordine k le sequenze di k degli n oggetti di Ξ in cui non ci siano elementi ripetuti e nei quali l’ ordine con il quale questi si sussiegono è un carattere n! distintivo. Il numero delle disposizioni semplici è Dn,k = (n−k)!

98

CAPITOLO 11. ANCORA SUI TENSORI 2. le due classi Cp e Cq sono disgiunte, ovvero si ha Cp ∩ Cq = ∅;

(11.30)

3. la cardinalità delle due classi in termini di p, q, p, q è data da Card Cp = pp, Card Cq = qq.

(11.31)

q p Dimostrazione Consideriamo [T ⊗ U] ∈ Tp+q q+p (V) , T ∈ Tq (V) , U ∈ Tp (V) e la sua rappresentazione (10.106). Dalla (11.28) si ha che h individua un indice ih ∈ [i1 , ip ] che è di controvarianza per T, mentre k individua un indice jk ∈ [jq+1 , jq+p ] che risulta evidentemente essere di covarianza per U. Ogni elemento Chk ∈ Cp satura dunque un indice di controvarianza di T con un indice di covarianza di U; dalla definizione di contrazione semplice esterna tutte le Chk sono contrazioni semplici ((p, p) , (q, q)) − esterne. Analogamente, dalla (11.29) si ha che ogni elemento Crs ∈ Cq satura un indice di covarianza di T con un indice di controvarianza di U, da cui tutte le Crs sono contrazioni semplici ((p, p) , (q, q)) −esterne. La prova del primo asserto è dunque completa. La dimostrazione del secondo asserto è banale nel caso in cui almeno una delle due classi Cp e Cq è vuota. Se entrambe sono non vuote basta ricordare che Cp ∩ Cq 6= ∅ implica che esiste Cξη ∈ Cp ∩ Cq tale che

(1 ≤ ξ ≤ p) e (p + 1 ≤ ξ ≤ p + q) , (1 ≤ η ≤ q) e (q + 1 ≤ η ≤ q + p) ,

(11.32)

e constatare che queste relazioni sono contraddittorie. Il terzo asserto discende immediatamente dalle (11.28), (11.29). Detti infatti H := {h | 1 ≤ h ≤ p} , K := {k | q + 1 ≤ k ≤ q + p} , P := H × K = {(h, k) | h ∈ H, k ∈ K} , R := {r | p + 1 ≤ r ≤ p + q} , S := {s | 1 ≤ s ≤ q} , Q := R × S = {(r, s) | r ∈ R, s ∈ S} ,

(11.33)

risulta evidente che Cp contiene tante contrazioni quanti sono gli elementi di P , mentre le contrazioni in Cq sono tante quante gli elementi di Q, ovvero si ha Card Cp = Card P = Card H Card K = pp, Card Cq = Card Q = Card R Card S = qq.

(11.34)

Proposizione 142 Tutte le contrazioni semplici ((p, p) , (q, q)) − esterne appartengono alla unione Cp ∪ Cq , ovvero C = Cp ∪ Cq . Dimostrazione Sia Chk una contrazione semplice ((p, p) , (q, q)) − esterna. Si ha che (1 ≤ h ≤ p) ,

(q + 1 ≤ k ≤ q + p) ,

(11.35)

oppure Chk

(p + 1 ≤ h ≤ p + q) , p

(1 ≤ k ≤ q) ;

(11.36) q

appartiene quindi alla classe C oppure alla classe C (cfr le (11.28), (11.29)), ovvero la contrazione Chk ∈ Cp ∪ Cq da cui C = Cp ∪ Cq . Ritorniamo ora alle contrazioni esterne fissando l’attenzione su quelle di ordine p + q. Denoteremo con C la classe delle contrazioni ((p, p) , (q, q)) − esterne di ordine p + q : p+q C : Tq+p (V) → Tp−p q−q (V) .

(11.37)

Passiamo ora alla caratterizzazione della classe C appena introdotta. Proposizione 143 Sia C ∈ C e sia

n o hp+q c = Chk11 , ..., Ckp+q ,

(11.38)

l’insieme delle contrazioni semplici ((p, p) , (q, q)) − esterne che la compongono. Tale insieme può comunque essere ripartito in due sottoinsiemi cp ⊆ Cp , (11.39) cq ⊆ Cq , di cardinalità rispettiva p e q.

11.1. CONTRAZIONI.

99

Dimostrazione Dalla definizione di contrazione semplice esterna e dalla proposizione 142 possiamo innanzitutto constatare che c ⊆ Cp ∪ Cq . (11.40) q p Considerata la rappresentazione del tensore [T ⊗ U] ∈ Tp+q q+p (V) , T ∈ Tq (V) , U ∈ Tp (V) in una base prodotto generata dalla base B di V

T ⊗ U = T i1 ...ip j1 ...jq U ip+1 ...ip+q jq+1 ...jq+p ei1 ⊗ · · · ⊗ eip+q ⊗ ej1 ⊗ · · · ⊗ ejq+p ,

(11.41)

si evince che p contrazioni semplici ((p, p) , (q, q)) − esterne di c devono essere tali che (1 ≤ h ≤ p) e (q + 1 ≤ k ≤ q + p) ,

(11.42)

mentre le restanti q devono essere tali che (p + 1 ≤ h ≤ p + q) e (1 ≤ k ≤ q) ,

(11.43)

ovvero, dalle (11.28), (11.29), p devono appartenere a Cp e le restanti q devono appartenere a Cq . Data C ∈C, considerata la partizione dell’insieme c di cui al lemma precedente e tenendo presente la proposizione 140, le contrazioni semplici ((p, p) , (q, q)) − esterne componenti C possono comunque essere ordinate in modo tale da raggruppare le p appartenenti all’insieme cp e le q dell’insieme cq . La contrazione C può riscriversi quindi come la composta di due contrazioni Cp , Cq ((p, p) , (q, q)) − esterne di ordini rispettivi p e q con cp e cq insiemi delle contrazioni semplici ((p, p) , (q, q)) − esterne componenti le due:

con

e

C = Cp ◦ Cq ,

(11.44)

n o rp 1 , ..., Cq+p , cp = Crq+1 n o p+q cq = Cp+1 , s1 , ..., Csq

(11.45)

r

p 1 ◦ · · · ◦ Cq+p , Cp = Crq+1

p+q Cq = Cp+1 s1 ◦ · · · ◦ Csq ,

(11.46)

dove (r1 , ..., rp ) è una disposizione semplice di ordine p sull’insieme {1, ..., p} mentre (s1 , ..., sq ) è una disposizione semplice di ordine q sull’insieme {1, ..., q}2 . Le componenti del tensore C (T ⊗ U) ∈ Tp−p q−q (V) saranno indicate come ³ ´³ ´ jsq js1 j j Li1 ...ip j1 ...jq M ip+1 ...ip+q jq+1 ...jq+p δ ip+1 δ irq+1 · · · δ irq+p · · · δ ip+q 1 p (11.47) = Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp , dove la scrittura i1 ...ir1 ...irp ...ip indica sinteticamente i p indici ir1 ...irp di L sommati con gli omonimi di M. È bene tenere presente che i1 ...ir1 ...irp ...ip non differisce da i1 ...ip , così come j1 ...js1 ...jsq ...jq non differisce da j1 ...jq . Delineata la struttura della classe C, introduciamo ora una classe di applicazioni lineari ad essa legate. Scelti quattro interi p, q, p, q sottoposti alle limitazioni (11.25), sia J ((p, p) , (q, q)) la classe di applicazioni h i p−p JC : Tpq (V) → Hom Tqp (V) , Tq−q (V) ,

(11.48)

definite dalla (JC L) M := C (L ⊗ M) ,

∀L ∈ Tpq (V) , ∀M ∈ Tqp (V) ,

(11.49)

al variare di C in C. Enunciamo la Proposizione 144 Tutte le applicazioni JC ∈ J ((p, p) , (q, q)) di cui alla definizione precedente sono isomorfismi. 2 E’

evidente che il numero delle Cp è

p! (p−p)!

mentre il numero delle Cq è

q! . (q−q)!

100

CAPITOLO 11. ANCORA SUI TENSORI

Dimostrazione Verifichiamo innanzitutto che JC è lineare. Dalla (11.49) e ricordando che la contrazione ed il prodotto tensore sono operatori lineari si ha che, ∀L, M ∈ Tpq (V) , ∀N ∈ Tqp (V) : [JC (αL + βM)] N = C [(αL + βM) ⊗ N] = C [α (L ⊗ N) + β (M ⊗ N)] = αC (L ⊗ N) + βC (M ⊗ N) = α (JC L) N + β (JC M) N.

(11.50)

Dimostriamo ora l’iniettività, ovvero la validità dell’implicazione JC L = 0 ⇒ L = 0.

(11.51)

Poniamo a tal fine JC L = 0 nella (11.49) ottenendo 0 (M) = 0 ∀M ∈ Tqp (V) ⇒

⇒ C (L ⊗ M) = 0 ∀M ∈ Tqp (V) .

(11.52)

Consideriamo ora la rappresentazione di [L ⊗ M] in una base prodotto generata dalle base B di V: L ⊗ M = Li1 ...ip j1 ...jq M ip+1 ...ip+q jq+1 ...jq+p ei1 ⊗ · · · ⊗ eip+q ⊗ ej1 ⊗ · · · ⊗ ejq+p .

(11.53)

Le componenti del tensore C (L ⊗ M) sono date da Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp .

(11.54)

Dalla (11.52) si ha Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp = 0 ∀ M js1 ...jsq ir1 ...irp , ⇒ Li1 ...ip j1 ...jq = 0,

i1 , ..., ip , j1 , ..., jq = 1, ..., n, ⇒ L = 0.

(11.55)

l’applicazione JC è dunque iniettiva. Dalla proposizione 39 e dalla proposizione 132 discende che dim Im JC = (dim V)p+q , i h p+q p−p (V) = (dim V) , dim Hom Tqp (V) , Tq−q h i p−p dim Im JC = dim Hom Tqp (V) , Tq−q (V) ,

(11.56)

ovvero, ricordando la proposizione 32

h i Im JC = Hom Tqp (V) , Tp−p q−q (V) .

(11.57)

La dimostrazione è completa: JC si caratterizza infatti come un isomorfismo essendo una applicazione lineare iniettiva e suriettiva. h i p−p Proposizione 145 Se C 6= ∅ gli spazi Tpq (V) e Hom Tqp (V) , Tq−q (V) sono isomorfi. Dimostrazione È una banale conseguenza della proposizione 144.

Proposizione 146 Lo spazio T11 (V) delle applicazioni bilineari da V∗ × V in IK è isomorfo allo spazio Hom (V, V) degli endomorfismi di V. Dimostrazione Assegnati i quattro interi p = 1, q = 1, p = 0, q = 1 costruiamo la classe C = Cp ∪ Cq di tutte le contrazioni semplici esterne Chk : T21 (V) → T10 (V) (11.58) © hª p p q q Dalla proposizione 141 si ha Card C = 0, C = ∅ e Card C = 1, C = Ck con (cfr. (11.29))

h = 2, k=1 (11.59) © 2ª Dalla proposizione 143 discende infine c = C = C1 = C. Essendo C 6= ∅ dalla proposizione 145 si ha che T11 (V) e Hom (V, V) sono isomorfi. Si noti che la contrazione C soddisfacente la (11.49) è una

11.2. PRODOTTO DUALE TRA TENSORI.

101

soltanto; il corrispondente isomorfismo J può dunque riguardarsi come canonico, proprietà del resto attribuita f nella proposizione 133. all’applicazione (·) Siano ¡ ¢ L = Lii j1 ei1 ⊗ ej1 ∈ T11 (V) , M = M i2 ei2 ∈ T10 (V) , ¡ ¢ L ⊗ M = Lii j1 M i2 ei1 ⊗ ei2 ⊗ ej1 ∈ T21 (V) .

(11.60)

Applicando la contrazione C = C21 al prodotto tensore dei due si ottiene ­ ® C21 (L ⊗ M) = ej1 , ei2 Lii j1 M i2 ei1 = Lii j1 M i2 δ ji21 ei1

= Lii j1 M j1 ei1 ∈ T10 (V) . Proposizione 147 Se C 6= ∅, ogni contrazione C ∈C caratterizza una applicazione lineare: h i JC L ∈ Hom Tqp (V) , Tp−p q−q (V) ,

(11.61)

(11.62)

generata dal tensore L ∈ Tpq (V). La classe di tali applicazioni lineari ottenute al variare di C in C può essere quindi identificata con il tensore L. Dimostrazione È conseguenza della proposizione 144. Si noti che il tensore L ∈ Tpq (V) può essere identificato con la classe JC L di applicazioni lineari ognuna delle quali è caratterizzata da una contrazione C di C. Esclusi casi analoghi a quello esaminato nella proposizione 146 in cui Card C = 1, l’isomorfismo J non può riguardarsi come canonico. Dimostriamo ora la seguente Proposizione 148 Lo spazio duale di Tqp (V) è Tpq (V). Dimostrazione Dalla definizione di spazio duale si ha ¢∗ £ ¤ ¡ q Tp (V) = Hom Tqp (V) , IK .

(11.63)

£ ¤ Dalla proposizione 145, posto p = p, q = q si ha che gli spazi Tpq (V) e Hom Tqp (V) , IK sono isomorfi in quanto © 1 rp ª cp = Crq+1 6= ∅, , ..., Cq+p n o (11.64) p+q cq = Cp+1 6= ∅, s1 , ..., Csq

e dunque C 6= ∅; in questo caso (r1 , ..., rp ) è una permutazione di {1, ..., p} ed (s1 , ..., sq ) è una permutazione di {1, ..., q}, il che configura le contrazioni ((p, p) , (q, q)) − esterne C ∈ C come contrazioni complete del tensore [L ⊗ M] ∈ Tp+q q+p (V), ovvero (11.65) C :Tp+q q+p (V) → IK. £ q ¤ p Ricordando la proposizione 147 identifichiamo Tq (V) con la classe delle applicazioni lineari Hom Tp (V) , IK , da cui, tenendo presente la (11.63), ¡ q ¢∗ Tp (V) = Tpq (V) . (11.66) £ ¤ Lo spazio duale Tpq (V) è quindi quello delle applicazioni lineari JC L ∈ Hom Tqp (V) , IK .

11.2

Prodotto duale tra tensori.

£ ¤ Dalla proposizione 144 gli spazi Tpq (V) e Hom Tqp (V) , IK risultano isomorfi, con l’isomorfismo JC subordinato alla scelta di una contrazione completa (vedi definizione inclusa nella proposizione 148), ovvero di una contrazione ((p, p) , (q, q)) − esterna tra le p!q! della classe C. Dati L ∈ Tpq (V), L∗ ∈ Tqp (V) e C ∈ C, diremo prodotto duale dei due l’applicazione h·, ··iC : (L∗ , L) ∈ Tqp (V) × Tpq (V) 7→ hL∗ , LiC ∈ IK,

(11.67)

hL∗ , LiC := C (L ⊗ L∗ ) ,

(11.68)

definita da

102

CAPITOLO 11. ANCORA SUI TENSORI

ovvero identificando l’isomorfismo

tale che

£ ¤ JC : Tpq (V) → Hom Tqp (V) , IK , (JC L) L∗ = C (L ⊗ L∗ ) .

(11.69) (11.70)

Analogamente a JC , l’operazione h·, ··iC è definita al variare di C in C. l’applicazione (11.68) rispetta ovviamente le (10.57), (10.58), (10.59), (10.60). Consideriamo u ∈ T10 (V) , u∗ ∈ T01 (V). Gli insiemi cp , cq sono dati da: © ª cp = c1 = {Cr11 } = C11 , (11.71) cq = c0 = ∅, © ª da cui C = C11 Il prodotto duale di u e u∗ è dato da hu∗ , ui = C11 (u ⊗ u∗ )

= ui u∗j δ ji = ui u∗i

= Tr (u ⊗ u∗ ) .

(11.72)

Si noti che esiste un solo prodotto duale per T1+0 0+1 (V) in conseguenza del fatto che esiste una sola contrazione ((1, 1) , (0, 0)) − esterna. Dati L ∈ Tpq (V), L∗ ∈ Tqp (V) esistono p!q! contrazioni ((p, p) , (q, q)) − esterne (cfr. proposizione 148). Scelte le contrazioni Cp = C1q+1 ◦ · · · ◦ Cpq+p , (11.73) ◦ · · · ◦ Cp+q , Cq = Cp+1 q 1 si ha hL∗ , LiC = Cp [Cq (L ⊗ L∗ )]

³ ´³ ´ jq j j 1 = Li1 ...ip j1 ....jq L∗ip+1 ...ip+q jq+1 ....jq+p δ jip+1 · · · δ ip+q δ i1q+1 · · · δ ipq+p = Li1 ...ip j1 ....jq L∗j1 ....jq i1 ...ip .

(11.74)

Capitolo 12

TENSORI CARTESIANI 12.1

Tensori sugli spazi vettoriali dotati di prodotto scalare.

In questa sezione si prenderanno in esame spazi vettoriali finito dimensionali costruiti sul campo dei reali e dotati di un prodotto scalare σ (si vedano le (7.2), (7.3), (7.4)) non degenere (7.46) a valori in IR. Per semplicità di scrittura introduciamo la notazione σ (u, w) ≡ u · w.

(12.1)

Il risultato importante che verrà stabilito è che, qualora sullo spazio vettoriale V sia definito un particolare prodotto scalare, allora è possibile identificare tutti i tensori dello stesso ordine totale facendo uso di opportuni isomorfismi canonici (se T ∈ Tpq (V), il suo ordine totale è (p + q)). ³ ´ e 1 , ..., b e n è la base reciproca Sia B = (b1 , ..., bn ) una base dello spazio vettoriale V. Diremo che B˜ = b rispetto alla B se è rispettata la seguente condizione

e i · bj = δ i , b j

i, j = 1, ..., n.

(12.2)

Con le due proposizioni seguenti andiamo a stabilire che B˜ è una base di V e che, assegnata la base B, la sua reciproca in V esiste ed è unica. Proposizione 149 Sia B = (b1 , ..., bn ) una base di uno spazio vettoriale V dotato di un prodotto scalare. La sua reciproca B˜ esiste ed è unica.

e 1 ; l’esistenza degli altri n − 1 vettori di Dimostrazione Esistenza. Dimostreremo l’esistenza del vettore b B˜ si dimostra in maniera del tutto analoga. Sia U il sottospazio di V (vedi (1.20), (1.21), (1.22)) generato dai vettori b2 , ..., bn ed U⊥ il suo complemento ortogonale in V (cfr. proposizione 89). Essendo dim U =n − 1, dalla proposizione 105 discende che dim U⊥ = dim V− dim U =1. (12.3) / U, esso non è ortogonale ad u rispetto al prodotto Esiste quindi un vettore non nullo u ∈ U⊥ . Poiché b1 ∈ scalare definito in V: b1 · u 6=0. (12.4) Definendo

u , (12.5) b1 · u tale vettore rispetta evidentemente la (12.2) per i = 1. ˜ C˜ rispetto alla base B. Dalla (12.2) si ha Unicità. Assumiamo che esistano due basi reciproche B,

ovvero

e 1 := b

e i · bj = δ i , b j ei

c · bj =

δ ij ,

i, j = 1, ..., n, i, j = 1, ..., n,

´ ³ ei − e ci · bj = 0, b

i, j = 1, ..., n.

(12.6)

(12.7)

e i −e ci è quindi ortogonale a tutti i vettori di V: dalla proposizione 111 discende che esso è il vettore Il vettore b nullo, ovvero che ei = e b ci , i = 1, ..., n. (12.8) 103

104

CAPITOLO 12. TENSORI CARTESIANI

Proposizione 150 Sia B una base di uno spazio vettoriale V dotato di un prodotto scalare. La sua reciproca B˜ è una base di V. Dimostrazione Consideriamo la combinazione lineare e j = 0, αj b

(12.9)

ed eseguiamo il prodotto scalare con bi ; la (12.2) porge

e j · bi = αj δ j = αi = 0, i = 1, 2, ..., n, (12.10) αj b i o n e n è formato da vettori linearmente indipendenti. Poiché la cardinalità e 1 , ..., b da cui risulta che l’insieme b di tale insieme è n, dalla proposizione 19 discende che B˜ è una base di V. Quale sia la relazione tra la base reciproca e la base duale è chiarita dalla seguente proposizione. Proposizione 151 Sia V uno spazio vettoriale dotato di un prodotto scalare. Esiste un unico isomorfismo g : V → V∗ , indotto dal prodotto scalare e tale che hg (v) , wi = v · w,

(12.11) ´ ³ ´ ³ ¡ ¢ en e 1 , ..., b ˜n , D ˜= b ˜1 , ..., b Se B = (b1 , ..., bn ) è una base di V, D = b1 , ..., bn è la base duale e B˜ = b sono le relative basi reciproche si ha ³ ´ e j = bj , j = 1, ..., n, (12.12) g b ej , g (bj ) = b

v, w ∈ V.

j = 1, ..., n.

(12.13)

Dimostrazione Occorre dimostrare che g è un isomorfismo, ovvero che g stabilisce una corrispondenza biunivoca tra V ed il suo duale V∗ . Che g sia una trasformazione lineare discende immediatamente dagli assiomi (7.3), (7.4), i quali configurano il secondo membro della (12.11) come una applicazione lineare in v. Inoltre g è iniettiva; ponendo infatti nella (12.11) gu =gv si ottiene g (u) =g (v)

∀w ∈ V⇒ u · w = v · w ⇒ (u − v) · w =0 ∀w ∈V ⇒u − v = 0.

(12.14)

Infine, dalla proposizione 39, essendo dim V = dim V∗ e dim ker g = 0 si ha dim Im g = dim V∗ ,

(12.15)

Im g = V∗ .

(12.16)

ovvero, tenendo presente la proposizione 32 Si è dimostrato in questo modo che g è un isomorfismo, essendo nel contempo una applicazione lineare iniettiva e suriettiva. Dalla definizione di base reciproca si ha e i · bj = δ i , b (12.17) j e dalla definizione di base duale si ha

­ i ® b , bj = δ ij .

Combinando le due e tenendo presente la (12.11) si ottiene E D ³ ´ ­ ® e i · bj = bi , bj . e i , bj = b g b

(12.18)

(12.19)

Essendo g un isomorfismo e B˜ una base per V, dalla proposizione 38 la sua immagine sotto g è una base per V∗ in quanto esso conserva l’indipendenza lineare dei vettori; alla luce di questa considerazione, dalla equazione precedente discende immediatamente la (12.12). Dalla simmetria del prodotto scalare si ha inoltre D E D E e i = g (bj ) , b ei = b ei = δi , ej , b e i · bj = bj · b (12.20) b j da cui, con considerazioni analoghe a quelle che hanno condotto alla (12.12), discende la (12.13).

12.1. TENSORI SUGLI SPAZI VETTORIALI DOTATI DI PRODOTTO SCALARE.

105

Come conseguenza della proposizione precedente, assegnando un particolare prodotto scalare in V, è possibile introdurre un isomorfismo canonico che identifichi V con il suo duale V∗ ; in tale ottica, un vettore v può riguardarsi come una funzione lineare da V in IR: hv, ui ≡ v · u.

(12.21)

Grazie all’introdotto isomorfismo canonico la base reciproca si identifica con la base duale ed il prodotto scalare con il prodotto duale. Occorre tuttavia tenere ben presente che l’identificazione introdotta è subordinata alla scelta di un particolare prodotto scalare, e che non è dunque lecito confondere V con il suo duale sino a quando un tale prodotto scalare non sia stato assegnato. Dalla proposizione 144 all’automorfismo identità dello spazio V 1I : u ∈V 7→1I (u) = u ∈V,

(12.22)

corrisponde un tensore di T11 (V). Se V è dotato di un prodotto scalare abbiamo visto che esso può essere identificato con il suo duale V∗ attraverso l’introduzione dell’isomorfismo g. In questo caso all’automorfismo identico di V corrisponde anche un tensore di T2 (V), detto tensore metrico di V. Diremo tensore metrico dello spazio vettoriale V l’applicazione M : V × V →IR, (12.23) definita da

M (u, v) := hg (u) , vi = u · v

∀u, v ∈ V.

(12.24)

Ancora dalla proposizione 144 gli spazi T11 (V) e Hom (V∗ , V∗ ) sono isomorfi. All’automorfismo identico di V∗ corrisponde quindi un tensore di T11 (V); detto H tale tensore si ha H (u∗ , v) = hu∗ , vi , Dalla proposizione 151 si ha

u∗ ∈ V∗ , v ∈ V.

­ ® hu∗ , vi = u∗ , g−1 (v∗ ) .

(12.25) (12.26)





Il tensore H può quindi riguardarsi come una applicazione T2 (V) 3 H :V × V → IR: ­ ® H (u∗ , v∗ ) = u∗ , g−1 (v∗ ) . Essendo tuttavia

­ ∗ −1 ∗ ® u , g (v ) = u · v,

(12.27) (12.28)

ne discende che H = M. All’automorfismo identico di V corrispondono in definitiva un tensore di T11 (V), un tensore di T2 (V) ed ¡un tensore¢ di T2 (V) , ovvero tre tensori identità dello stesso ordine totale 2. Se B = (b1 , ..., bn ) e B∗ = b1 , ..., bn sono basi duali di V e V∗ , operando nuovamente l’abuso di notazione che al capitolo precedente ha condotto ad identificare il prodotto tensore di due vettori con una applicazione lineare di V in se, al tensore metrico competono le rappresentazioni equivalenti M = gij bi ⊗ bj ,

(12.29)

M = g bi ⊗ bj ,

(12.31)

­ ¡ ¢® g ij = bi , g−1 bj = bi · bj , gij = hg (bi ) , bj i = bi · bj ,

(12.32)

M=

con

δ ij bi ij

j

⊗b ,

ed ovviamente g ij = (gij )−1 . Sia T = T i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq ∈ Tpq (V) .

(12.30)

(12.33)

Diremo trasformazione covariante la applicazione

Gpq : Tpq (V) → Tp+q (V) , tale che Tpq

¡ ¢ Gpq (T) : = T i1 ...ip j1 ...jq g (ei1 ) ⊗ · · · ⊗ g eip ⊗ ej1 ⊗ · · · ⊗ ejq ,

(12.34) (12.35)

(V). ∀T ∈ Ricordando che l’isomorfismo g introdotto nella proposizione 151 è una trasformazione da T1 (V) in T1 (V), vale evidentemente l’identificazione g = G10 . (12.36) Sia T ∈ Tpq (V) rappresentato come nella definizione precedente. Diremo che la (12.35) è la rappresentazione puramente covariante di T.

106

CAPITOLO 12. TENSORI CARTESIANI

Proposizione 152 Valgono le seguenti e i = g ij (bj ) , b ¡ ¢ e i = gij bj . b

(12.37)

(12.38) ¡ 1 ¢ Dimostrazione Consideriamo una base B = (b1 , ..., bn ) di V. e la sua duale D = b , ..., bn , base di ³ ´ ˜= b ˜1 , ..., b ˜n è la base di V∗ reciproca di D, ricordando la (12.13) si ottiene V∗ . Se D gij bj = hg (bi ) , bj i bj £ ¤ = bj ⊗ bj (g (bi )) £ ¤³ ´ ei = bj ⊗ bj b ³ ´ ei . =M b

(12.39)

In definitiva si ottiene la (12.38). In modo del tutto analogo, ricordando la (12.12) si ha ­ ¡ ¢ ® g ij (bj ) = g−1 bi , bj bj £ ¤¡ ¡ ¢¢ = bj ⊗ bj g−1 bi £ ¤ ³ i´ e = bj ⊗ bj b ³ ´ ei , =M b

(12.40)

da cui la (12.37). Ricaviamo ora le componenti della trasformazione covariante Gpq . Dalla (12.13) la (12.35) può riscriversi come e i ⊗ bj1 ⊗ · · · ⊗ bjq , ei ⊗ · · · ⊗ b Gpq (T) = T i1 ...ip j1 ...jq b (12.41) 1 p ovvero, utilizzando la (12.38)

Gpq (T) = Tk1 ...kp j1 ...jq bk1 ⊗ · · · ⊗ bkp ⊗ bj1 ⊗ · · · ⊗ bjq ,

(12.42)

Tk1 ...kp j1 ...jq = gk1 i1 · · · gkp ip T i1 ...ip j1 ...jq .

(12.43)

con Gpq :

il suo effetto è quello di La precedente uguaglianza mostra le componenti della trasformazione covariante i1 ...ip p p abbassare i primi p indici delle componenti T j1 ...jq del tensore T. I tensori T ∈ Tq (V) e Gq (T) ∈Tp+q (V) hanno le stesse componenti se rappresentati nelle basi prodotto: ª © bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n, o n (12.44) e i ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n. ei ⊗ · · · ⊗ b b 1 p Utilizzando invece le basi prodotto usuali per Tpq (V) e Tp+q (V) : ª © bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n, ª © i b 1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n,

(12.45)

le componenti sono legate come visto nella (12.43). Dimostriamo ora che la trasformazione covariante Gpq è un isomorfismo. Proposizione 153 La trasformazione covariante Gpq è un isomorfismo.

Dimostrazione La linearità di Gpq discende immediatamente dalla proposizione 151. Proviamo ora l’iniettività. Ponendo Gpq (T) = 0 nella (12.35) si ottiene ¡ ¢ 0 = T i1 ...ip j1 ...jq g (ei1 ) ⊗ · · · ⊗ g eip ⊗ ej1 ⊗ · · · ⊗ ejq ,

ovvero, ricordando la (10.72): ¡ ¢ 0 eh1 , ..., ehp , ek1 , ..., ekq =T

i1 ...ip

­ ¡ ¢ ® ­ j1 ® ­ ® e , ek1 · · · ejq , ekq . j1 ...jq hg (ei1 ) , eh1 i · · · g eip , ehp

(12.46)

(12.47)

12.1. TENSORI SUGLI SPAZI VETTORIALI DOTATI DI PRODOTTO SCALARE.

107

Dalla (12.38) si ha inoltre j

T i1 ...ip j1 ...jq gi1 h1 · · · gip hp δ jk11 · · · δ kqq = 0,

(12.48)

ovvero, ricordando che gij è non singolare (è la matrice associata ad un prodotto scalare non degenere) T i1 ...ip k1 ....kq gi1 h1 · · · gip hp g h1 m1 · · · g hp mp m

p 1 = T i1 ...ip k1 ....kq δ m i1 · · · δ ip

= T m1 ...mp k1 ....kq = 0,

(12.49)

da cui T = 0. Gpq è quindi iniettiva. Essendo ker Gpq = 0 ed ovviamente dim Tpq (V) = dim Tq+p (V), combinando le proposizioni 39, 32 si ottiene Im Gpq = Tq+p (V) ,

(12.50)

da cui la suriettività. Gpq è quindi un isomorfismo. Poiché Gpq è un isomorfismo, esiste ed è unico il suo isomorfismo inverso

tale che

¡ p ¢−1 Gq : Tq+p (V) → Tpq (V) ,

¡ ¢ ¡ ¢ £ p ¤−1 (U) := Ui1 ...ip j1 ...jq g−1 bi1 ⊗ · · · ⊗ g−1 bip ⊗ bj1 ⊗ · · · ⊗ bjq , Gq

(12.51) (12.52)

∀U ∈Tq+p (V). Analogamente a quanto fatto in precedenza ricaviamo ora le componenti dell’isomorfismo ¡ p ¢−1 Gq . Sia U ∈Tq+p (V) rappresentato come U = Ui1 ...ip j1 ...jq bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq .

(12.53)

Dalla (12.12) la (12.52) può essere riscritta come

ovvero, dalla (12.37)

£ p ¤−1 e ip ⊗ bj1 ⊗ · · · ⊗ bjq , e i1 ⊗ · · · ⊗ b (U) = Ui1 ...ip j1 ...jq b Gq

con

£ p ¤−1 (U) = U k1 ...kp j1 ...jq bk1 ⊗ ... ⊗ bkp ⊗ bj1 ⊗ ... ⊗ bjq , Gq U

k1 ...kp j1 ...jq

= g k1 i1 · · · g kp ip Ui1 ...ip j1 ...jq .

(12.54)

(12.55) (12.56)

¡ ¢−1 Dalla precedente uguaglianza si possono vedere le componenti dell’isomorfismo Gpq : esso ha l’effetto di alzare i primi p indici delle componenti Ui1 ...ip j1 ...jq del tensore U ∈ Tp+q (V) sul quale opera. Componendo Gpq con la sua inversa è possibile definire isomorfismi tra spazi tensoriali dello stesso ordine totale. Dati quattro interi non negativi h, k, p, q tali che h + k = p + q, ¡ ¢−1 l’applicazione Ghk ◦ Gpq

¡ h ¢−1 ◦ Gpq : Tpq (V) → Thk (V) , Gk

(12.57)

(12.58)

rende isomorfi gli spazi Tpq (V) e Thk (V). Si ha infatti

Gpq : Tpq (V) → Tp+q (V) ,

(12.59)

e

¡ h ¢−1 ◦ Gpq : Tp+q (V) → Thp+q−h (V) = Thk (V) . (12.60) Gk £ ¢ ¤−1 ¡ p Gq (T) ∈ Tp+q (V) è la rappresentazione puramente Sia T ∈Tpq (V). Diremo che il tensore Gp+q 0 controvariante di T. Consideriamo ad esempio T = T i1 ...ip j1 ...jq bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq ∈ Tpq (V) .

(12.61)

108

CAPITOLO 12. TENSORI CARTESIANI

Dalle (12.35), (12.52), la sua rappresentazione puramente controvariante è £ p+q ¤−1 ¡ p ¢ G0 Gq (T)

¡ ¡ ¢¢ ¡ ¢ ¡ ¢ = T i1 ...ip j1 ...jq g−1 (g (bi1 )) ⊗ · · · ⊗ g−1 g bip ⊗ g−1 bj1 ⊗ · · · ⊗ g−1 bjq ¡ ¢ ¡ ¢ = T i1 ...ip j1 ...jq bi1 ⊗ · · · ⊗ bip ⊗ g−1 bj1 ⊗ · · · ⊗ g−1 bjq = T i1 ...ip h1 ...hq bi1 ⊗ · · · ⊗ bip ⊗ bh1 ⊗ · · · ⊗ bhq .

(12.62)

¡ ¢−1 p ◦Gq è quello di alzare i primi h−p Combinando le (12.43), (12.56) si deduce che l’effetto dell’isomorfismo Ghk indici di covarianza di T ∈Tpq (V) se h > p, ovvero quello di abbassare gli ultimi p − h indici di controvarianza di T se h < p. Sia ad esempio T = T i1 ...ip j1 ...jq bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq ∈ Tpq (V) .

£ ¤−1 ¡ p ¢ Al tensore Ghk Gq (T) compete la rappresentazione

¢ £ h ¤−1 ¡ p Gq (T) = T i1 ...ik j1 ...jk bi1 ⊗ · · · ⊗ bih ⊗ bj1 ⊗ · · · ⊗ bjk ∈ Thk (V) , Gk

con

(12.63)

(12.64)

1. T i1 ...ik j1 ...jk = T i1 ...ip m1 ...mh−p j1 ...jk g ip+1 m1 · · · g ih mh−p ,

(12.65)

T i1 ...ik j1 ...jk = T i1 ...ih m1 ...mp−h jp−h+1 ...jk gm1 j1 · · · gmp−h jp−h ,

(12.66)

se h > p; 2. se h < p. Sia ora T ∈T12 (V). rappresentato come T = T i hk ei ⊗ eh ⊗ ek .

(12.67)

La rappresentazione covariante (in T3 (V)) di T si ottiene applicando alla precedente G12 G12 (T) = T i hk gij ej ⊗ eh ⊗ ek = Tjhk ej ⊗ eh ⊗ ek ,

(12.68)

e la sua rappresentazione controvariante (in T3 (V)) è £

G30

¢ ¤−1 ¡ 1 G2 (T) = Tjhk g jl g hm g kn el ⊗ em ⊗ en = T lmn el ⊗ em ⊗ en .

La rappresentazione mista in T21 (V) è infine data da ¢ £ 2 ¤−1 ¡ 1 G1 G2 (T) = Tjhk ejl ehm el ⊗ em ⊗ ek = T lm k el ⊗ em ⊗ ek .

(12.69)

(12.70)

Sia T ∈T22 (V). Esso ha la rappresentazione

T = T ij hk ei ⊗ ej ⊗ eh ⊗ ek .

(12.71)

La sua rappresentazione puramente covariante si ottiene applicando G22 : T22 (V) → T4 (V): G22 (T) = T ij hk gil gjm el ⊗ em ⊗ eh ⊗ ek = Tlmhk el ⊗ em ⊗ eh ⊗ ek ,

¡ ¢−1 : e la sua rappresentazione puramente controvariante si ottiene dalla precedente applicando G40 ¢ £ 4 ¤−1 ¡ 2 G0 G2 (T) =Tlmhk g li g mj g rh g sk ei ⊗ ej ⊗ er ⊗ es = T ijrs ei ⊗ ej ⊗ er ⊗ es .

(12.72)

Una volta che lo spazio V sia stato dotato di un prodotto scalare, la proposizione 151 legittima l’introduzione dell’isomorfismo g che riguardiamo come canonico. La sua notazione può dunque essere soppressa senza nessuna ambiguità e V può essere identificato con il suo duale; un vettore u si identifica con una funzione lineare da V in IR: hu, vi = u · v, (12.73)

12.2. CONTRAZIONI.

109

ed il prodotto duale viene sostituito con il prodotto scalare in accordo con la (12.73). In conseguenza di ciò il simbolo Gpq può essere soppresso dalle (12.35), (12.52); gli spazi tensoriali dello stesso ordine totale h vengono quindi identificati con lo stesso oggetto Th (V) = Th−1 (V) = · · · = T1h−1 (V) = Th (V) . 1

(12.74)

In virtù di questa identificazione definire un tensore in uno spazio vettoriale dotato di prodotto scalare equivale a specificarne l’ordine totale senza nessuna distinzione tra ordini di controvarianza e di covarianza; gli ordini di covarianza e controvarianza vanno specificati separatamente soltanto quando si sceglie una particolare rappresentazione del tensore. Considerato ad esempio un tensore A di ordine totale h, è possibile esprimere A nelle forme equivalenti A = T i1 ...ih bi1 ⊗ · · · ⊗ bih , A = T i1 ...ih−1 jh bi1 ⊗ · · · ⊗ bih−1 ⊗ bjh , (12.75) .. . A = Tj1 ....jh bj1 ⊗ · · · ⊗ bjh , dove la prima è la rappresentazione puramente controvariante mentre l’ultima è la rappresentazione puramente covariante e quelle intermedie sono tutte le possibili rappresentazioni miste.Tutte le rappresentazioni (12.75) sono legate come mostrato dalle (12.43), (12.56), (12.65) e (12.66).

12.2

Contrazioni.

È possibile ridefinire l’operatore contrazione esaminato al numero (11.1) nel caso in cui lo spazio vettoriale V sia dotato di un prodotto scalare. Sia T un tensore semplice di ordine totale s > 2 nella forma T = u1 ⊗ · · · ⊗ us .

(12.76)

Diremo contrazione semplice una applicazione Cij : Ts (V) → Ts−2 (V) ,

1 ≤ i < j ≤ s,

(12.77)

definita da Cij (T) := (ui · uj ) [u1 ⊗ · · · ⊗ ui−1 ⊗ ui+1 ⊗ · · · ⊗ uj−1 ⊗ uj+1 ⊗ · · · ⊗ us ] .

(12.78)

L’operatore Cij può essere esteso per linearità a tutti i tensori di ordine totale s. Così ad esempio se T ∈Ts (V) è rappresentato come T = Ti1 ...is ei1 ⊗ · · · ⊗ eis , (12.79)

dalla (12.78) e ricordando che g ij = ei · ej il tensore Cjk (T) è dato da ¡ ¢ Cjk (T) = Ti1 ...is Cjk ei1 ⊗ · · · ⊗ eis ¡ ¢¡ ¢ = Ti1 ...is eij · eik ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis =g

ij ik

Ti1 ...is ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis

= T i1 ...ij−1 ik ij+1 ...ik ...is ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis .

(12.80)

Si noti che nel dare la definizione (12.78) si è tenuto conto della definizione di contrazione semplice data al numero 11.1 e delle considerazioni svolte alla fine della precedente sezione. Valgono ovviamente tutte le proprietà stabilite precedentemente riguardo alle contrazioni semplici. Consideriamo ora due tensori A, B di ordine totale s e sia A ⊗ B = Ai1 ...is Bis+1 ...i2s ei1 ⊗ · · · ⊗ ei2s ∈ T2s (V) ,

(12.81)

il loro prodotto tensore. Tenendo presente la definizione di contrazione esterna (si veda il numero 11.1) le contrazioni complete di [A ⊗ B] sono le contrazioni (s, s) − esterne C :T2s (V) → IR,

(12.82)

C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis (2s) ,

(12.83)

aventi la forma dove (i1 , ..., is ) è una permutazione di {1, ..., s}. La cardinalità della classe C risulta banalmente essere s!.

110

12.3

CAPITOLO 12. TENSORI CARTESIANI

Prodotto scalare tra tensori.

Iniziamo con il dimostrare la seguente Proposizione 154 Siano A e B due tensori di Tpq (V). L’applicazione D £ ¢E ¤−1 ¡ p (B) , G A · B := Gpq A, Gp+q q 0

(12.84)

è un prodotto scalare definito su Tpq (V).

Dimostrazione L’applicazione A · B definita dalla (12.84) è un prodotto scalare se verifica gli assiomi ¡ ¢−1 e (7.2), (7.3), (7.4). Il fatto che valgano le (7.3), (7.4) discende banalmente dalla linearità delle Gpq , Gp+q 0 dalle (10.57), (10.58): D £ ¢E ¤−1 ¡ p (A + B) · C = Gpq (A + B) , Gp+q (12.85) Gq (C) 0 D E D E £ ¢ £ ¢ ¤ ¡ ¤ ¡ −1 −1 = Gpq A, Gp+q Gpq (C) + Gpq B, Gp+q Gpq (C) 0 0 = (A · C) + (B · C) ; D £ ¢E ¤−1 ¡ p (λA · B) = Gpq (λA) , G0p+q Gq (C) D £ ¢E ¤−1 ¡ p = λGpq (A) , G0p+q Gq (C) D £ ¢E ¤−1 ¡ p = λ Gpq (A) , Gp+q Gq (C) = λ (A · B) . 0

(12.86)

Dalle (12.35), (12.52) si ha

da cui

Gpq (A) , Gpq (B) ∈ Tp+q (V) , £ p+q ¤−1 ¡ p ¢ £ p+q ¤−1 ¡ p ¢ G0 Gq (A) , G0 Gq (B) ∈ Tp+q (V) ,

D £ ¢E D p £ p+q ¤−1 ¡ p ¢E ¤−1 ¡ p Gpq (A) , Gp+q (B) = G (B) , G (A) , G G q q q 0 0

(12.87)

(12.88)

ovvero A·B = B·A; l’assioma (7.2) è rispettato. l’applicazione A·B definita dalla (12.84) è dunque un prodotto scalare. Tenendo presente che i tensori dello stesso ordine totale possono identificarsi in virtù del prodotto scalare introdotto su V, dalla definizione (11.68) assegnare un prodotto scalare su Tpq (V) si riduce alla scelta di una contrazione completa C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis 2s , (12.89) con s = p + q. Quindi se A,B sono due tensori di ordine totale s, ricordando la (12.80) si definisce un prodotto scalare come (A · B)C := C (A ⊗ B) . (12.90) L’ultima definizione è equivalente a quella data nella proposizione precedente qualora si operi l’identificazione di V con il suo duale sopprimendo la notazione di Gpq . Con la scelta C = C1 (s+1) ◦ C2 (s+2) ◦ · · · ◦ Cs 2s , (12.91) il prodotto scalare di due tensori A e B dello stesso ordine totale s è esprimibile nelle forme equivalenti A·B= = Aj1 ...js Bj1 ...js = Ai1 ...is−1 js g js is Bi1 ...is .. .

(12.92)

= Aj1 ...js B j1 ...js . Proposizione 155 Si consideri lo spazio tensoriale T2s (V). Se il prodotto scalare definito in V è non degenere, allora lo è anche il prodotto scalare (12.90) definito in T2s (V).

12.3. PRODOTTO SCALARE TRA TENSORI.

111

Dimostrazione Siano A, B ∈ T2s (V). Il prodotto scalare (12.90) è non degenere se ∀B,

(A · B)C = 0 ⇒ A = 0.

(12.93)

Eseguiamo il prodotto scalare A · B con la contrazione completa C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis 2s ; dalle (12.78), (12.80) si ha (A · B)C = C (A ⊗ B)

= Ai1 ...is B is+1 ...i2s gis+1 ij1 · · · gi2s ijs = Ai1 ...is Bij1 ...ijs

∀B ⇒ A = 0.

(12.94)

112

CAPITOLO 12. TENSORI CARTESIANI

Capitolo 13

TENSORI DOPPI 13.1

Premessa.

Andremo ora a restringere l’attenzione alla classe dei tensori di ordine totale 2 definiti su uno spazio vettoriale V di dimensione finita costruito sul campo IR e dotato di un prodotto scalare simmetrico, definito positivo a valori in IR. Salvo diversa specifica sarà dim V =3. Dalle proposizioni (97), (98) l’introdotto prodotto scalare induce una norma euclidea in V la cui immagine corrisponde al modulo del vettore v ∈ V (cfr. proposizione 97). Dalla proposizione 102 esiste in V almeno una base ortonormale che denoteremo con B = (e1 , e2 , e3 ), ovvero esiste almeno una base tale che ei · ej = δ ij , i, j = 1, 2, 3. (13.1) In base a quanto visto nel Capitolo 12 verrà operata l’identificazione T2 (V) ≡ T11 (V) ≡ T2 (V) ,

(13.2)

tra i tre spazi tensoriali dello stesso ordine totale 2. Dalla (10.93), un tensore T appartenente ad uno qualsivoglia dei tre spazi viene considerato in modo equivalente un endomorfismo di V, ovvero un elemento dello spazio Hom (V, V). Tale ente sarà rappresentato come T = T ij ei ⊗ ej , T = Tij ei ⊗ ej ,

T= T

i

j

(13.3)

j

ei ⊗ e ,

¡ ¢ i, j = 1, 2, 3 dove R = e1 , e2 , e3 è la base di V reciproca di B (cfr. proposizione 151). Ancora dalla proposizione 102 e dalla (13.1) il tensore metrico visto come endomorfismo di V assume la forma 1I = δ ij ei ⊗ ej = ej ⊗ ej , 1I = δ ij ei ⊗ ej = ej ⊗ ej , (13.4) 1I = δ ij ei ⊗ ej = ej ⊗ ej , nelle basi prodotto generate dalla introdotta base ortonormale B. Dalle considerazioni precedenti, il prodotto tensore (o prodotto diadico) tra due vettori u, v ∈V è l’endomorfismo di V u ⊗ v :V → V, (13.5) tale che [u ⊗ v] (b) = (v · b) u,

∀b ∈V.

(13.6)

Dalla proposizione 18, essendo B una base di V, i vettori u e v ammettono in tale base l’unica rappresentazione u =uj ej , v =v j ej . La componente i, j della diade (u ⊗ v) nella base prodotto generata da B risulta dunque essere ¡ ¡ ¢ £ ¢ ¤¡ ¢ [u ⊗ v] ei , ej = ei · [u ⊗ v] ej = ei · uh eh ⊗ v k ek ej ¡ ¢ ¡ ¢¡ ¢ = uh v k ei · [eh ⊗ ek ] ej = uh v k eh · ei ek · ej = uh v k δ ih δ jk = ui v j , 113

(13.7)

114

CAPITOLO 13. TENSORI DOPPI

ovvero, in notazione matriciale

13.2

⎛ 1 1 u v ⎝u2 v 1 u3 v 1

u1 v 2 u2 v 2 u3 v 2

⎞ u1 v 3 u2 v 3 ⎠ . u3 v 3

(13.8)

Orientazione per V.

Diremo prodotto vettore una applicazione ∧ : V × V → V,

(13.9)

u ∧ v = −v ∧ u, (λu + µv) ∧ w = λ (u ∧ w) + µ (v ∧ w) , u· (u ∧ v) = 0,

(13.10) (13.11) (13.12)

(u ∧ w) · (u ∧ w) = (u · u) (v · v) − (u · v) ,

(13.13)

soddisfacente i seguenti assiomi

2

∀u, v, w ∈V, ∀λ, µ ∈ IR. Dato un prodotto vettore ∧, diremo prodotto triplo l’applicazione · ◦ ∧ : {u, v, w} ∈ V × V × V 7→u · (v ∧ w) ∈ IR.

(13.14)

Dagli assiomi (7.2), (7.3), (7.4), dalle (7.46), (7.48), (7.49) e dagli assiomi (13.10), (13.11), (13.12), (13.13) discendono le seguenti proprietà del prodotto triplo: u · (v ∧ w) = v · (w ∧ u) = w · (u ∧ v) = −u · (w ∧ v) = −v · (u ∧ w) = −w · (v ∧ u) ,

(13.15)

(λu+µv) · (w ∧ x) = λ [u · (w ∧ x)] + µ [v · (w ∧ x)] ,

(13.16)

u · (v ∧ w) = 0 ⇔ u, v, w sono linearmente dipendenti,

(13.17)

∀u, v, w, x ∈V, ∀λ, µ ∈ IR. Il simbolo di permutazione od indicatore di Levi-Civita è l’applicazione ε : (i, j, k) 7→ εij k ∈ {−1, 0, 1} ,

(13.18)

definita dalle εij k = 0 se almeno due indici assumono lo stesso valore, εij k = 1 se (i, j, k) è una permutazione pari di 1, 2, 3,

(13.19)

k

εij = −1 se (i, j, k) è una permutazione dispari di 1, 2, 3.. Proposizione 156 Esistono in V due prodotti vettore soddisfacenti gli assiomi (13.10), (13.11), (13.12), (13.13). Dimostrazione Occorre dimostrare che ei ∧ ej = ± εij k ek .

(13.20)

u = (u · eh ) eh ,

(13.21)

Dalla identità con u = e2 ∧ e3 e facendo uso delle (13.15), (13.17) si ha e2 ∧ e3 = [(e2 ∧ e3 ) · eh ] eh = [(e2 ∧ e3 ) · e1 ] e1 ,

(13.22)

e3 ∧ e1 = [(e2 ∧ e3 ) · e1 ] e2 , e1 ∧ e2 = [(e2 ∧ e3 ) · e1 ] e3 .

(13.23)

ed in modo del tutto analogo

13.2. ORIENTAZIONE PER V.

115

Ricordando che ei · ej = δ ij , dalla (13.15) si ha |e2 ∧ e3 |2 = |e3 ∧ e1 |2 = |e1 ∧ e2 |2 = [(e2 ∧ e3 ) · e1 ]2 .

(13.24)

l’assioma (13.13) implica inoltre |e2 ∧ e3 |2 = |e3 ∧ e1 |2 = |e1 ∧ e2 |2 = 1,

(13.25)

[(e2 ∧ e3 ) · e1 ]2 = 1 ⇒ [(e2 ∧ e3 ) · e1 ] = ±1,

(13.26)

da cui ovvero la (13.20). Esprimendo il prodotto triplo dei vettori della base ortonormale B in termini del simbolo di permutazione si ottiene ek · (ei ∧ ej ) = ± εij h eh · ek = εij h δ hk = εijk , (13.27) mentre il prodotto vettore si può scrivere come ¢ ¡ ¢ ¡ u ∧ w = ui ei ∧ wj ej = ui wj (ei ∧ ej ) = ± εij h ui wj eh .

(13.28)

Dalla (13.17) il prodotto triplo tra i vettori di una qualsivoglia base è necessariamente diverso da zero. Due basi di V sono simili se i loro prodotti tripli hanno lo stesso segno. Si verifica facilmente che la relazione di similarità è di equivalenza; essa stabilisce una partizione dell’insieme B delle basi di V in due classi D ed S caratterizzate dal segno del prodotto triplo dei loro elementi. La scelta di una delle due coppie V+ := (V, D),

V− := (V, S),

(13.29)

assegna una orientazione allo spazio vettoriale V. Una base di V è positiva in V+ se il suo prodotto triplo è positivo, mentre è positiva in V− se il suo prodotto triplo è negativo. L’assegnazione di una orientazione rimuove l’ambiguità del segno presente nelle (13.20), (13.28), valendo il segno 00 +00 nel caso in cui una base sia positiva in V+ , e valendo il segno 00 −00 qualora la base considerata sia positiva in V− . In uno spazio vettoriale V dotato di una orientazione esiste quindi un solo prodotto vettore soddisfacente gli assiomi (13.10), (13.11), (13.12), (13.13). Siano u, v ∈V+ e sia w = u ∧ v ∈ V+ , il loro prodotto vettore. Con semplici considerazioni di natura geometrica si può vedere che se u · v = kuk kvk cos θ,

|θ| < π

(13.30)

kwk = kuk kvk sin θ,

|θ| < π,

(13.31)

allora il vettore w ha modulo direzione perpendicolare alla giacitura individuata da u e v e verso determinato dal pollice di una mano destra quando le restanti dita portino idealmente il vettore u a sovrapporsi al vettore v descrivendo la rotazione di ampiezza θ < π. La mano è inizialmente aperta e giacente su un piano perpendicolare al piano contenente u e v. La regola di esecuzione del prodotto vettore in V+ è nota come regola della mano destra; un modo alternativo di orientare uno spazio vettoriale tridimensionale è quello di dichiarare che in esso il prodotto vettore si esegue in questo modo. Analogamente, siano u, v ∈V− e sia x = u ∧ v ∈V− il loro prodotto vettore di modulo kxk = kuk kvk sin (−θ) = − kuk kvk sin θ,

|θ| < π.

La direzione di x è ancora perpendicolare alla giacitura individuata da u e v, ma il suo verso è questa volta indicato dal pollice di una mano sinistra quando le restanti dita portino idealmente il vettore u a sovrapporsi al vettore v facendogli descrivere una rotazione di ampiezza −θ (θ è considerato positivo se la rotazione ad esso corrispondente è antioraria). Quella appena descritta è la regola di esecuzione del prodotto vettore in V− , nota come regola della mano sinistra. Si noti la consistenza con quanto detto nella precedente osservazione a proposito del segno del prodotto vettore in uno spazio vettoriale orientato. È semplice verificare che il valore assunto dal prodotto triplo di u, v, w è il volume del parallelepipedo u v w avente i lati di lunghezza |u| , |v| , |w| ed orientati rispettivamente come le direzioni dei versori , , . |u| |v| |w|

116

13.3

CAPITOLO 13. TENSORI DOPPI

Trasposto.

Sia T ∈ Hom (V, V). Diremo tensore trasposto di T l’applicazione TT : V → V,

(13.32)

tale che u · T (v) = v · TT (u) ,

∀u, v ∈V.

(13.33)

Dimostriamo ora alcune importanti proprietà dell’applicazione trasposta. Proposizione 157 Siano A, B ∈ Hom (V, V). Allora (λA + µB)T = λAT + µBT , ∀λ, µ ∈ IR. Dimostrazione Dalla (13.33) si ha, ∀u, v ∈V T

u · [λA + µB] (v) = v · [λA + µB] (u) .

(13.34)

Dalla proposizione 85 e dalla (13.33) il primo membro può essere riscritto come

ovvero

u · [λA + µB] (v)=u · λA (v) + u · µB (v) ¡ ¢ ¡ ¢ = λ v·AT (u) + µ v·BT (u) £ ¤ = v · λAT + µBT (u) , £ ¤ T v · λAT + µBT (u)=v · [λA + µB] (u) , ∀u, v ∈V ⇒ T

⇒ λAT + µBT = (λA + µB) .

(13.35)

(13.36)

T

Proposizione 158 Siano A, B ∈ Hom (V, V). Allora (AB) = BT AT . Dimostrazione Dalla (13.33), ∀u, v ∈V T

u · [AB] (v) = v · [AB] (u) .

(13.37)

Dalla linearità di A e B , dall’assioma (7.2) ed applicando due volte la (13.33) il primo membro può riscriversi come £ ¤ u · [AB] (v) = u · A (B (v)) = AT (u) ·B (v) = v· BT AT (u) , (13.38)

da cui

(AB)T = BT AT .

(13.39)

T

Proposizione 159 Sia (u ⊗ v) ∈ Hom (V, V). Allora (u ⊗ v) = v ⊗ u. Dimostrazione Dalla (13.33) si ha , ∀a, b ∈V T

a · [u ⊗ v] (b) = b · [u ⊗ v] (a) .

(13.40)

Dalla (13.6) e dalla linearità del prodotto scalare si stabilisce la catena di uguaglianze a · [u ⊗ v] (b)=a · (v · b) u = (v · b) (a · u) = b· (u · a) v = b· [v ⊗ u] (a) , da cui

T

v ⊗ u = (u ⊗ v) .

(13.41) (13.42)

Proposizione 160 Siano u, v ∈ V e T ∈ Hom (V, V). Allora T (u ⊗ v) = T (u) ⊗ v, T

(u ⊗ v) T = u ⊗ T (v) .

(13.43) (13.44)

13.4. INVARIANTI.

117

Dimostrazione Consideriamo l’azione dell’applicazione T (u ⊗ v) su un vettore a ∈ V; dalla linearità di T e dalla (13.6) [T (u ⊗ v)] (a) =T ([u ⊗ v] (a)) = T ((v · a) u) = (v · a) T (u) = [T (u) ⊗v] (a) .

(13.45)

Analogamente ¢ £ ¤ ¡ [(u ⊗ v) T] (a) = [u ⊗ v] (T (a)) = (v·T (a)) u = TT (v) ·a u = u⊗TT (v) (a) .

(13.46)

Proposizione 161 Sia Hom (V, V) 3 T = T ij bi ⊗ bj ,

(13.47)

in una base prodotto generata dalla base B = (b1 , b2 , b3 ) di V, e sia T la matrice associata a T (gli elementi della matrice T sono ovviamente le componenti T ij di T). Allora gli elementi della matrice T T ottenuta scambiando le righe di T con le sue colonne sono le componenti dell’applicazione TT nella base prodotto bi ⊗ bj . £ ¤ij £ ¤ij Dimostrazione Sia TT = T T bi ⊗ bj . Tenendo presente la (13.33) le componenti T T sono date da ¡ ¢ ¡ ¢ TT bi , bj = bi · TT bj ¡ ¢ ¡ ¢ = bj · T bi = T hk bj · [bh ⊗ bk ] bi ¡ ¢¡ ¢ = T hk bj · bh bk · bi = T hk δ jh δ ik = T ji ,

(13.48)

£ ¤ij da cui T T = T ji .

13.4

Invarianti.

Proposizione 162 Siano (a, b, c) e (f , g, h) due basi di V e sia T ∈ Hom (V, V). Valgono allora le seguenti T (a) · (b ∧ c) + a · (T (b) ∧ c) + a · (b ∧ T (c)) a · (b ∧ c) T (f ) · (g ∧ h) + f · (T (g) ∧ h) + f · (g ∧ T (h)) = , f · (g ∧ h) a · (T (b) ∧ T (c)) + T (a) · (b ∧ T (c)) + T (a) · (T (b) ∧ c) a · (b ∧ c) f · (T (g) ∧ T (h)) + T (f ) · (g ∧ T (h)) + T (f ) · (T (g) ∧ h) = , f · (g ∧ h) T (f ) · (T (g) ∧ T (h)) T (a) · (T (b) ∧ T (c)) = . a · (b ∧ c) f · (g ∧ h)

(13.49)

(13.50) (13.51)

Dimostrazione Dimostriamo la terza uguaglianza; le prime due si dimostrano in modo del tutto analogo richiamando essenzialmente le stesse proprietà. Siano ai , bi , ci le componenti dei vettori a, b, c nella base ortonormale B = (e1 , e2 , e3 ). Il primo membro può essere riscritto come T (a) · (T (b) ∧ T (c)) T (ei ) · (T (ej ) ∧ T (ek )) = ai bj ck . a · (b ∧ c) a · (b ∧ c)

(13.52)

Dalla definizione del simbolo di permutazione e dalla (13.28) si ha ai bj ck

T (ei ) · (T (ej ) ∧ T (ek )) T (e1 ) · (T (e2 ) ∧ T (e3 )) = εijk ai bj ck = ± [T (e1 ) · (T (e2 ) ∧ T (e3 ))] . (13.53) a · (b ∧ c) a · (b ∧ c)

Se B è positiva in V+ vale il segno + con e1 · (e2 ∧ e3 ) = 1; se B è positiva in V− vale il segno − con e1 · (e2 ∧ e3 ) = −1. Dunque, indipendentemente dalla orientazione per V si ha T (a) · (T (b) ∧ T (c)) T (e1 ) · (T (e2 ) ∧ T (e3 )) = . a · (b ∧ c) e1 · (e2 ∧ e3 )

(13.54)

118

CAPITOLO 13. TENSORI DOPPI

l’arbitrarietà nella scelta della base completa la dimostrazione. La proposizione precedente permette la definizione dei tre scalari IT , IIT , IIIT associati al tensore T : T (a) · (b ∧ c) + a · (T (b) ∧ c) + a · (b ∧ T (c)) =: Tr T, a · (b ∧ c) a · (T (b) ∧ T (c)) + T (a) · (b ∧ T (c)) + T (a) · (T (b) ∧ c) IIT = , a · (b ∧ c) T (a) · (T (b) ∧ T (c)) IIIT = =: det T, a · (b ∧ c) IT =

(13.55) (13.56) (13.57)

ed indipendenti dalla scelta della base. Per tale ragione IT , IIT , IIIT sono detti invarianti principali di T. Il primo invariante è la traccia, ed il terzo invariante è il determinante. Ricordando l’interpretazione geometrica del prodotto triplo e detto P il parallelepipedo di spigoli a, b, c, il determinante può equivalentemente definirsi come il rapporto V ol [T (P)] det T := . (13.58) V ol (P) Con le seguenti proposizioni andiamo ora a stabilire alcune importanti proprietà degli invarianti. Proposizione 163 La traccia è una applicazione lineare Tr : Hom (V, V) → IR,

(13.59)

Dimostrazione Siano T, U ∈Hom (V, V) ed α, β ∈ IR. Dalla definizione (13.55) e dalla (13.16) si ottiene Tr (αT ∙ + βU) ¸ ∙ ¸ T (a) · (b ∧ c) + a · (T (b) ∧ c) + a · (b ∧ T (c)) U (a) · (b ∧ c) + a · (U (b) ∧ c) + a · (b ∧ U (c)) =α +β a · (b ∧ c) a · (b ∧ c) = α Tr T + β Tr U. (13.60) Proposizione 164 Siano u, v ∈ V e (u ⊗ v) ∈Hom (V, V). Allora 1. Tr (u ⊗ v) = u · v; 2. II(u⊗v) = 0; 3. det (u ⊗ v) = 0. Dimostrazione Dalla (13.55), scelta la base (a, b, c) di V: [a · (b ∧ c)] Tr (u ⊗ v) = [(v · a) u · (b ∧ c)] + [a · ((v · b) u ∧ c)] + [a · (b ∧ (v · c) u)] = (v · a) [u · (b ∧ c)] + (v · b) [a · (u ∧ c)] + (v · c) [a · (b ∧ u)] .

(13.61)

Poiché (a, b, c) è una base di V, il vettore u ammette la unica rappresentazione u =αa+βb+γc.

(13.62)

Sostituendo tale espressione nella precedente si ottiene (v · a) [u · (b ∧ c)] + (v · b) [a · (u ∧ c)] + (v · c) [a · (b ∧ u)] = α (v · a) [a· (b ∧ c)] + β (v · b) [a · (b ∧ c)] + γ (v · c) [a · (b ∧ c)] ,

(13.63)

da cui, cancellando il fattore comune [a · (b ∧ c)]: Tr (u ⊗ v) = α (v · a) + β (v · b) + γ (v · c) = (αa+βb+γc) · v = u · v.

(13.64)

Gli asserti (2) e (3) sono diretta conseguenza delle (13.56), (13.57) sostituendo in esse T con (u ⊗ v) ed osservando che tutti i prodotti tripli che compaiono nella (13.56) si annullano in virtù del fatto che essi contengono due vettori multipli di u, mentre il prodotto triplo che compare nella (13.57) si annulla perché in esso appaiono tre vettori multipli di u.

13.4. INVARIANTI.

119

Proposizione 165 Siano T, U ∈Hom (V, V) ed α ∈ IR. Valgono le seguenti det (αT) = α3 det T, det (TU) = det T det U.

(13.65) (13.66)

Dimostrazione Scelta una base (a, b, c) di V, le (13.57), (13.16) forniscono T (a) · (T (b) ∧ T (c)) αT (a) · (αT (b) ∧ αT (c)) = α3 = α3 det T. a · (b ∧ c) a · (b ∧ c) ∙ ¸ TU (a) · (TU (b) ∧ TU (c)) U (a) · (U (b) ∧ U (c)) det (TU) = = det T = det T det U. a · (b ∧ c) a · (b ∧ c) det (αT) =

(13.67) (13.68)

Il determinante risulta essere una applicazione non lineare in quanto det (αT) 6= α det T: esso risulta infatti essere una mappa omogenea di ordine tre (si veda la (13.65)). Proposizione 166 Sia T ∈ Hom (V, V) un tensore invertibile dipendente da un parametro t. Assumendo dT , si ha l’esistenza della derivata dt ¶¸ ∙ µ d dT −1 . (13.69) (det T) = (det T) Tr T dt dt Dimostrazione Dalla (13.57), scelta una base (a, b, c) di V indipendente da t d d (det T) = [T (a) · (T (b) ∧ T (c))] dt dt ¸ µ∙ ¸ ¶ µ ∙ ¸ ¶ ∙ dT −1 dT −1 dT −1 T (a) · (T (b) ∧ T (c)) + T (a) · T (b) ∧ T (c) + T (a) · T (b) ∧ T (c) T T T = dt dt dt µ ¶ dT −1 = Tr T (a) · (T (b) ∧ T (c)) T dt µ ¶ dT −1 = Tr (det T) [a · (b ∧ c)] . (13.70) T dt [a · (b ∧ c)]

Cancellando il fattore comune non nullo [a · (b ∧ c)] ne discende l’asserto. Proposizione 167 Sia T ∈ Hom (V, V) rappresentato come T = T i j bi ⊗ bj ,

(13.71)

in una base prodotto generata dalla base B = (b1 , b2 , b3 ) di V. Le rappresentazioni per componenti degli invarianti principali di T sono Tr T = T h h , i 1h i 1 h¡ h ¢2 2 IIT = T h − Thk Tk h = (Tr T) − Tr T2 , 2 2 i j k det T = εijk T 1 T 2 T 3 .

(13.72) (13.73) (13.74)

Dimostrazione Consideriamo la (13.55) con la base (b1 , b2 , b3 ) in luogo della base (a, b, c): [b1 · (b2 ∧ b3 )] Tr T = T (b1 ) · (b2 ∧ b3 ) + b1 · (T (b2 ) ∧ b3 ) + b1 · (b2 ∧ T (b3 )) .

(13.75)

Ricordando la (13.17) e dalla multilinearità del prodotto triplo la precedente uguaglianza può riscriversi come [b1 · (b2 ∧ b3 )] Tr T ¡ ¡ ¢ ¢ = T 1 bh · (b2 ∧ b3 ) + b1 · T h 2 bh ∧ b3 + b1 · b2 ∧ T h 3 bh ¢ ¡ = T h 1 + T h 2 + T h 3 [b1 · (b2 ∧ b3 )] ,

(13.76)

Tr T = T h h .

(13.77)

h

da cui

120

CAPITOLO 13. TENSORI DOPPI

Analogamente, considerando la (13.56) e tenendo presente la (13.28): [b1 · (b2 ∧ b3 )] IIT = b1 · (T (b2 ) ∧ T (b3 )) + T (b1 ) · (b2 ∧ T (b3 )) + T (b1 ) · (T (b2 ) ∧ b3 ) ¡ ¡ ¡ ¢ ¢ ¢ = b1 · T h 2 bh ∧ T k 3 bk + T h 1 bh · b2 ∧ T k 3 bk + T h 1 bh · T k 2 bk ∧ b3 ¢ ¡ = ε1hk T h 2 T k 3 + εh2k T h 1 T k 3 + εhk3 T h 1 T k 2 [b1 · (b2 ∧ b3 )] .

(13.78)

Cancellando il fattore comune non nullo [b1 · (b2 ∧ b3 )] e sviluppando i termini in accordo con la definizione di simbolo di permutazione si ottiene ¡ ¢ ¡ ¢ ¡ ¢ IIT = ε123 T 2 2 T 3 3 + ε132 T 3 2 T 2 3 + ε123 T 1 1 T 3 3 + ε321 T 3 1 T 1 3 + ε123 T 1 1 T 2 2 + ε213 T 2 1 T 1 2 = T22 T33 + T11 T33 + T11 T22 − T32 T23 − T31 T13 − T21 T12 ,

dalla quale, riarrangiando i termini IIT = Consideriamo infine la (13.57):

i 1 h¡ h ¢2 T h − Thk Tk h . 2

(13.79)

[b1 · (b2 ∧ b3 )] det T = [T (b1 ) · (T (b2 ) ∧ T (b3 ))] ¡ £ ¢¤ = T i 1 bi · T j 2 bj ∧ T k 3 bk

= εijk T i 1 T j 2 T k 3 [b1 · (b2 ∧ b3 )] .

(13.80)

Cancellando nuovamente il fattore comune non nullo [b1 · (b2 ∧ b3 )] ne discende det T = εhij T i 1 T j 2 T k 3 .

(13.81)

L’insieme di scalari {εhij }, h, i, j = 1, 2, 3, i cui elementi sono i valori assunti dalla classe di funzioni (cfr. proposizione 134) n³ ´o j cLC := B, ψ LC : i 3 {h, i, j} − 7 → ε ∈ {−1, 0, 1} , (13.82) 3 hi B

che associano alle permutazioni di {1, 2, 3} i valori dell’indicatore di Levi-Civita quando sia stata fissata una base B di V, non verificano le ipotesi della proposizione 134. Quindi il simbolo di permutazione non identifica le componenti di un tensore rispetto alla base prodotto di T3 (V) generata da una qualsivoglia base di V. Siano infatti B e B˜ due basi di V, A l’endomorfismo di V che trasforma i vettori della base B nei vettori della ˜ base B: e i , i = 1, 2, 3, A (bi ) = b (13.83) ed A la matrice associata a tale cambiamento di coordinate (cfr. sezione 10.3). La (13.57) porge [u · (v ∧ w)] det A = [A (u) · (A (v) ∧ A (w))] .

(13.84)

Dette ui , v j , wk le coordinate dei vettori della base (u, v, w) nella base B e tenendo presente la (13.28), la precedente può riscriversi come ui v j wk [bi · (bj ∧ bk )] det A = ui v j wk [A (bi ) · (A (bj ) ∧ A (bk ))] ; εjki det A = [A (bi ) · (A (bj ) ∧ A (bk ))] ; h ³ ´i ei · b ej ∧ b ek . εjki det A = b

(13.85)

Riscrivendo ora i vettori della base B˜ nei termini dei vettori della base B si ottiene £ ¡ ¢¤ εjki det A = Ah i bh · Al j bl ∧ Am k bk

= Ah i Al j Am k [bh · (bl ∧ bm )] = Ah i Al j Am k εlmh . −1

Ricordando che l’applicazione A deve essere non singolare (cfr. (4.3) e che (det A) immediatamente dalla (13.66)) si ottiene l’identità εjki = det A−1 Al j Am k Ah i εlmh .

(13.86) = det A−1 (scaturisce (13.87)

13.5. TENSORE AGGIUNTO.

121

Poiché la precedente è in disaccordo con la legge di trasformazione delle componenti (10.117) ne discende che l’indicatore di Levi-Civita non fornisce le componenti di un tensore. Solo se nel cambiamento di base considerato det A = 1 allora le trasformazioni (13.87) coincidono con quelle di un tensore. Per questa ragione talvolta si dice che l’indicatore di Levi-Civita è uno pseudo-tensore. Valgono inoltre le seguenti relazioni, delle quali si lascia la dimostrazione al lettore: Tr TT = Tr T, ∀T ∈ Hom (V, V) , Tr TU = Tr UT, ∀T, U ∈ Hom (V, V) ,

det TT = det T,

13.4.1

∀T ∈ Hom (V, V) .

(13.88) (13.89) (13.90)

Decomposizione in parte sferica e parte deviatorica.

Si lascia al lettore la dimostrazione della seguente: Proposizione 168 Ogni tensore T ∈ Hom (V, V) . può esprimersi come somma di un tensore sferico: S = α1I,

α ∈ IR,

(13.91)

e di un tensore D tale che Tr D = 0.

(13.92)

Tale decomposizione è unica. Il tensore D, detto deviatore di T, è dato da: D=T−

13.5

1 (Tr T) 1I. 3

(13.93)

Tensore aggiunto.

Con le seguenti proposizioni andiamo ad introdurre il tensore aggiunto di un dato tensore T ∈ Hom (V, V). Proposizione 169 Siano u, v ∈ V. Esistono w, x, y ∈V tali che: u = x ∧ w,

v = y ∧ w.

(13.94)

Dimostrazione Consideriamo due vettori u, v ∈ V e definiamo w := u ∧ v, w∧u w∧v x := , y := . w·w w·w

(13.95)

Si consideri ora la identità (a ∧ b) ∧ c = (a · c) b− (b · c) a,

∀a, b, c ∈V,

(13.96)

(la precedente verrà ricavata nella sezione relativa ai tensori antisimmetrici, cfr. proposizione 192). Osservando che, dall’assioma (13.17) le coppie di vettori u, w e v, w risultano essere ortogonali rispetto al prodotto scalare definito in V si ha: 1 1 (w ∧ u) ∧ w = [(w · w) u− (u · w) w] = u, w·w w·w 1 1 y∧w = (w ∧ v) ∧ w = [(w · w) v− (v · w) w] = v, w·w w·w

x∧w =

(13.97)

onde l’asserto. Proposizione 170 Sia T ∈ Hom (V, V) e siano u, v, a, b vettori di V tali che: a ∧ b =µ (u ∧ v) ,

µ ∈ IR.

(13.98)

Allora T (a) ∧ T (b) = µT (u) ∧ T (v) .

(13.99)

122

CAPITOLO 13. TENSORI DOPPI

Dimostrazione Ricordando l’assioma (13.17) si ha che, per µ 6= 0: 1 a· (a ∧ b) = 0, µ 1 b· (u ∧ v) = b· (a ∧ b) = 0. µ a· (u ∧ v) =

(13.100)

I vettori a e b possono quindi esprimersi in modo univoco come combinazione lineare dei vettori u e v : a =αu+βv,

b =γu+δv,

(13.101)

da cui, tenendo presenti gli assiomi (13.15), (13.16): a ∧ b = (αu+βv) ∧ (γu+δv) = (αδ − βγ) (u ∧ v) ,

(13.102)

con µ = αδ − βγ. Dalla considerazione che T è lineare scaturisce l’asserto. Proposizione 171 Sia T ∈ Hom (V, V). Esiste ed è unica l’applicazione lineare TA ∈ Hom (V, V) detta tensore aggiunto di T, e tale che: TA (v ∧ w) = T (v) ∧ T (w) ,

∀v, w ∈V.

(13.103)

Dimostrazione l’esistenza e la linearità di TA ne implicano l’unicità. Sia u ∈V; in virtù della proposizione 169 esistono v, w ∈V tali che u = v ∧ w. Siano ora a, b ∈V tali che a ∧ b =µ (v ∧ w) ,

µ ∈ IR.

(13.104)

Nel caso in cui µ = 1, dalla proposizione precedente si ha: T (a) ∧ T (b) = T (v) ∧ T (w) .

(13.105)

Di conseguenza, ∀u ∈V è ben posta la funzione: V 3u 7→TA (u) = T (v) ∧ T (w) ∈ V.

(13.106)

Per provarne la linearità si noti che: 1. TA (αu) = T (αv) ∧ T (w) = αT (v) ∧ T (w) = αTA (u) ,

α ∈ IR;

(13.107)

2. siano u, v ∈V. In virtù della proposizione 169 esistono w, x, y ∈V tali che u = x ∧ w,

v = y ∧ w,

(13.108)

da cui: TA (u + v) = TA ((x ∧ w) + (y ∧ w)) = TA ((x + y) ∧w) = T (x + y) ∧ T (w) = (T (x) ∧ T (w)) + (T (y) ∧ T (w)) = TA (u) +TA (v) .

(13.109)

Stabiliamo ora la relazione tra il determinante di un dato tensore T ed il suo tensore aggiunto. Proposizione 172 Sia T ∈ Hom (V, V) . Allora (det T) 1I = TT TA . ha:

(13.110)

Dimostrazione Siano u, v, w ∈V tre vettori linearmente indipendenti. Ricordando le (13.57), (13.90) si £ ¤ £ ¤ det T [1I (u ∧ v)] · w = [(T (u) ∧T (v))] · T (w) = TA (u ∧ v) · T (w) = TT TA (u ∧ v) · w,

(13.111)

da cui

(det T) 1I = TT TA .

(13.112)

Dalla proposizione precedente discende che se T ∈ Hom (V, V) è un automorfismo, il suo inverso ed il suo aggiunto sono legati dalla seguente: £ ¤T T−1 = (det T)−1 TA . (13.113)

13.5. TENSORE AGGIUNTO.

123

Proposizione 173 Sia T ∈ Hom (V, V) e TA il suo aggiunto. Dette Tij = bi · T (bj ) le componenti del tensore T nella base ortonormale B = (b1 , b2 , b3 ) , si ha: 1. le componenti del tensore aggiunto nella base B sono date da TijA = T

1 hk pq εi εj Thp Tkq ; 2

(13.114)

A

2. le operazioni (·) e (·) commutano nel senso che

Dimostrazione

£ A ¤T £ T ¤A T = T .

(13.115)

1. Si consideri la base ortonormale B di V. Dalla (13.28) e dalla linearità di TA si ottiene: ¡ ¢ εhk j TijA = bi ·TA εhk j bj = bi ·TA (bh ∧ bk ) = bi ·(T (bh ) ∧ T (bk )) = bi ·(Tph bp ∧ Tqk bq ) , (13.116)

avendo indicato con Tph la componente lungo bp del vettore T (bh ) . Dalla trilinearità del prodotto triplo è possibile scrivere: εhk j TijA = bi · (Tph bp ∧ Tqk bq ) = Tph Tqk [bi · (bp ∧ bq )] = Tph Tqk [bi · (bp ∧ bq )] = Tph Tqk εi pq . (13.117) Osservando che1 εhk j εl hk = 2δ jl , (13.118)

discende 2TilA = εi pq εl hk Tph Tqk .

(13.119)

1 hk pq εi εj Thp Tkq , 2

(13.120)

2. Dette TijA =

£ ¤T le componenti di¡ TA nella ¢base B, dalla proposizione 161 il tensore TA nella base prodotto generata dalla base R = b1 , b2 , b3 reciproca di B può esprimersi come £ A ¤T 1 pq hk ¡ ¢ T = εi εj Thp Tkq bi ⊗ bj . 2

(13.121)

¡ ¢ Se TT = Tji bi ⊗ bj è il tensore trasposto di T nella stessa base prodotto, ripercorrendo i passi che hanno condotto alla (13.114) con TT in luogo di T si ottiene £ T ¤A 1 hk pq ¡ ¢ T = εi εj Tph Tqk bi ⊗ bj . 2

(13.122)

Poiché fissata la base i coefficienti sono unici ne discende l’asserto.

Espandendo il secondo membro della (13.114) è facile convincersi che fissata una base B di V, la componente TijA del tensore TA è data dal determinante del complemento algebrico dell’elemento Tij della matrice T i cui elementi sono le componenti del tensore T nella stessa base. Si consideri ad esempio A T12 =

¢ ¡ ¢¤ 1 £¡ 23 13 ε1 ε2 T21 T33 + ε1 23 ε2 31 T23 T31 + ε1 32 ε2 13 T31 T23 + ε1 32 ε2 31 T33 T21 2 1 = [(−T21 T33 + T23 T31 ) + (T31 T23 − T33 T21 )] = T23 T31 − T21 T33 2 µ ¶ T T23 = (−1)(1+2) det 21 . (13.123) T31 T33

Proposizione 174 Sia T ∈ Hom (V, V) e TA il suo aggiunto. Valgono le seguenti proprietà: 1 La

seguente si ottiene semplicemente espandendo il termine εhk j εl hk .

124

CAPITOLO 13. TENSORI DOPPI

£ ¤A 1. TA = (det T) T;

2. Tr TA = IIT .

Dimostrazione 1. Siano u, v ∈V. Dalla definizione di tensore aggiunto si ha £ A ¤A T (u ∧ v) = TA (u) ∧ TA (v) .

(13.124)

Dalla proposizione 169, esistono w, x, y ∈V tali che u = x ∧ w, v = y ∧ w. Sostituendo nella precedente ed utilizzando ancora la definizione di tensore aggiunto: £

¤A TA (u ∧ v) = T (x) ∧ T (w) ∧ (T (y) ∧ T (w)) = [T (x) · (T (y) ∧ T (w))] T (w) − [T (w) · (T (y) ∧ T (w))] T (x) ,

(13.125)

avendo fatto uso della identità (13.96). Dalla (13.17) e dalla definizione di determinante si ha inoltre £ A ¤A T (u ∧ v) = (det T) T [(x· (y ∧ w)) w] = (det T) T [(x · v) w] ,

(13.126)

ovvero, facendo nuovamente riferimento alla (13.96):

£ A ¤A T (u ∧ v) = (det T) T (u ∧ v) ,

(13.127)

onde, data l’arbitrarietà di u e v, l’asserto. 2. Siano u, v, w ∈V; dalla (13.56) si ha

[u · (v ∧ w)] IIT = u · (T (v) ∧ T (w)) + T (u) · (v ∧ T (w)) + T (u) · (T (v) ∧ w) .

(13.128)

Dalla definizione di aggiunto e da quella di trasposto, il primo dei tre addendi a secondo membro può essere riscritto come: ¡ ¢ £ ¤T u · (T (v) ∧ T (w)) = u · TA (v ∧ w) = (v ∧ w) · TA (u) .

(13.129)

Si consideri ora il secondo addendo; dalla proposizione 169 esistono x, y ∈V tali che v = x ∧ y. Ricordando la identità (13.96) si ha:

T

T (u) · (v ∧ T (w)) = TT (v ∧ T (w)) · u; T

(13.130)

T

T (v ∧ T (w)) = T (x ∧ y ∧ T (w)) = T ((x·T (w)) y − (y·T (w)) x) ¡ ¢ ¡ ¢ = (x·T (w)) TT (y) − (y·T (w)) TT (x) = TT (x) ·w TT (y) − TT (y) ·w TT (x) £ ¤A = TT (x) ∧ TT (y) ∧ w = TT (v) ∧ w,

(13.131)

da cui, tenendo presente la proposizione 173 si ottiene ³£

´ (v) ∧ w · u.

(13.132)

³ ´ £ ¤A T (u) · (T (v) ∧ w) = v ∧ TT (w) · u.

(13.133)

T (u) · (v ∧ T (w)) = In modo del tutto analogo si stabilisce che

TT

¤A

Combinando le (13.129), (13.132), (13.133) ed ancora dalla proposizione 173 e dalle (13.55), (13.88), discende l’asserto.

13.6. IL TEOREMA DI CAYLEY-HAMILTON.

13.6

125

Il teorema di Cayley-Hamilton.

Apriamo questa sezione richiamando brevemente la definizione di autovalore ed autovettore, concetti ampiamente esposti al Capitolo 6, ed al quale si rimanda per una loro trattazione esaustiva. Un vettore non nullo v ∈ V è un autovettore per un tensore T ∈ Hom (V, V) se ∃λ ∈ IR : T (v) = λv.

(13.134)

Qualora λ esista, esso è detto autovalore relativo all’autovettore v. La precedente definizione può essere enunciata in modo reciproco dicendo che uno scalare λ ∈ IR è un autovalore per un tensore T ∈ Hom (V, V) se esiste un vettore non nullo v ∈ V tale che valga la (13.134). Lo spazio caratteristico od autospazio di T corrispondente a λ è il sottospazio di V costituito da tutti i vettori v tali che: T (v) = λv.

(13.135)

La dimensione dello spazio caratteristico è detta molteplicità geometrica dell’autovalore λ. Lo scalare λ è un autovalore per il tensore T se e solo se (cfr. Capitolo 6) det (T − λ1I) = 0.

(13.136)

La precedente, nota come equazione caratteristica per T, tenendo presente la (13.57) può esprimersi nel modo seguente: (T (a) − λa) · [(T (b) − λb) ∧ (T (c) − λc)] = 0, ∀a, b, c ∈ V. (13.137) Sviluppando il prodotto triplo con l’ausilio delle (13.15), (13.16) ed utilizzando le definizioni (13.55), (13.56), (13.57) degli invarianti si giunge alla forma equivalente λ3 − λ2 Tr T + λIIT − det T = 0.

(13.138)

Poichè i tre invarianti principali sono reali, la precedente espressione afferma che il tensore T possiede tre autovalori reali oppure ne possiede uno soltanto. Sia T ∈ Hom (V, V); il suo quadrato T2 è definito come T2 = TT.

(13.139)

T0 = 1I,

(13.140)

Partendo da è possibile definire tutte le potenze di T per induzione nel modo seguente: Tk = TTk−1 ,

(13.141)

dove k ≥ 2 è un intero. Diremo polinomio in T un endomorfismo pn (T) := an Tn + an−1 Tn−1 + · · · + a1 T + a0 1I,

(13.142)

dove n è un intero positivo ed a0 , a1 ,..., an sono scalari. Dimostriamo ora la seguente: Proposizione 175 Sia T ∈ Hom (V, V) un tensore arbitrario e λ ∈ IR un suo autovalore. Allora: 1. pn (λ) è un autovalore di pn (T) ; 2. se v è un autovettore di T associato all’autovalore λ, esso è anche un autovettore di pn (T) associato all’autovalore pn (λ). Dimostrazione La dimostrazione procederà per induzione. Sia v un autovettore di T associato all’autovalore λ. Dalla definizione di autovalore ed autovettore associato, la seguente Tn (v) = λn v,

(13.143)

vale per n = 1. Supponendo che essa valga per n = 1, 2, ..., m si ha Tm+1 (v) = T (Tm (v)) = T (λm v) = λm T (v) = λm+1 v.

(13.144)

126

CAPITOLO 13. TENSORI DOPPI

La sua validità è quindi estendibile ad ogni intero positivo n. Essendo pn (T) una combinazione lineare di potenze di T, ne segue che pn (λ) è un suo autovalore e v ne è l’autovettore associato: [pn (T)] (v) = a0 v+a1 T (v) + a2 T2 (v) + ... + an Tn (v) = a0 + a1 λv+a2 λ2 v + ... + an λn v ¡ ¢ = a0 + a1 λ+a2 λ2 + ... + an λn v = pn (λ) v,

(13.145)

(a0 , a1 , ..., an ) ∈ IR. Enunciamo ora la seguente proposizione, nota come teorema di Cayley-Hamilton: Proposizione 176 Ogni tensore soddisfa la propria equazione caratteristica; nella fattispecie: T3 − (Tr T) T2 + (IIT ) T − (det T) 1I= 0,

∀T ∈ Hom (V, V) .

(13.146)

Dimostrazione Si consideri un tensore T ∈ Hom (V, V) e l’operazione 3

2

0

p3 (·) := (·) − (Tr T) (·) + (IIT ) (·) − (det T) (·) .

(13.147)

Gli autovalori del tensore T sono radici dell’equazione caratteristica: λ3 − λ2 Tr T + λIIT − det T = 0.

(13.148)

p3 (λ) = λ3 − λ2 Tr T + λIIT − det T.

(13.149)

h iT A (T − λ1I) . det (T − λ1I) 1I = p3 (λ) 1I = (T − λ1I)

(13.150)

p3 (T) = T3 − (Tr T) T2 + (IIT ) T − (det T) 1I,

(13.151)

Risulta tuttavia Dalla (13.110) si ha inoltre

iT h Combinando la precedente con la (13.148) si evince che (T − λ1I)A (T − λ1I) è l’endomorfismo nullo di Hom (V, V). Sia ora v un autovettore di T associato all’autovalore λ; la proposizione precedente afferma che esso è anche un autovettore di

con autovalore associato p3 (λ) , ovvero che p3 (T) (v) = p3 (λ) v.

(13.152)

Combinando l’ultima uguaglianza con la (13.110) si giunge all’identificazione

da cui

h

(T − λ1I)

A

iT

(T − λ1I) = p3 (T) ,

p3 (T) = T3 − (Tr T) T2 + (IIT ) T − (det T) 1I = 0.

(13.153)

(13.154)

L’endomorfismo p3 (T) possiede evidentemente tre autovalori nulli. Esistono tuttavia tensori non nulli aventi essi stessi tre autovalori nulli. Siano u, v ∈V due vettori non nulli ed ortogonali rispetto al prodotto scalare definito in V; l’endomorfismo (u ⊗ v) è evidentemente diverso dal tensore nullo ma, in virtù della proposizione 164, esso possiede tre autovalori nulli.

13.7

Prodotto scalare tra tensori doppi.

Avvalendoci dei risultati stabiliti nel numero 12.3 andiamo a definire un prodotto scalare in Hom (V, V). Siano A, B ∈ Hom (V, V) rappresentati come A = Aij ei ⊗ ej ,

B = B ij ei ⊗ ej .

(13.155)

13.8. TENSORI SIMMETRICI.

127

Ricordando che Hom (V, V) e T11 (V) sono isomorfi, tenendo presente la identificazione T2 (V) ≡ T11 (V) ≡ T2 (V) e scelta la contrazione C, dalla (12.90) si ha (A · B)C := C (A ⊗ B) ,

(13.156)

C = Ci1 3 ◦ Ci2 4 .

(13.157)

i1 = 1, i2 = 2,

(13.158)

con Seguendo la tradizione scegliamo definendo il prodotto scalare A · B = C13 [C24 (A ⊗ B)] = Aij B hk δ hi δ kj = Aij Bij ,

(13.159)

detto in letteratura prodotto scalare naturale associato allo spazio Hom (V, V). Ricordando che AB = Aij B hk (ei ⊗ ej ) (eh ⊗ ek ) = Aij B hk δ jh (ei ⊗ ek )

= Aij Bj k (ei ⊗ ek ) ,

(13.160)

dalla definizione di traccia e tenendo presente la seguente A (B (e1 )) · (e2 ∧ e3 )

= A Bj [ei ⊗ ek ] (e1 ) = Aij Bj k δ k1 ei ij

k

= Aij Bj1 ei ,

(13.161)

Tr (AB) = Aij Bj1 [ei · (e2 ∧ e3 )] + Aij Bj2 e1 · (ei ∧ e3 ) + Aij Bj3 [e1 · (e2 ∧ ei )] ¡ ¢ = A1j Bj1 + A2j Bj2 + A3j Bj3 [e1 · (e2 ∧ e3 )]

(13.162)

si ottiene

= Aij Bji ,

da cui

13.8

³ ´ A · B = Tr ABT .

(13.163)

Tensori simmetrici.

Un tensore S ∈ Hom (V, V) è simmetrico se S = ST (si noti l’analogia con la (8.16)). Denoteremo con © ª Sym (V, V) := S | S ∈ Hom (V, V) e S = ST , (13.164)

l’insieme dei tensori simmetrici.

Proposizione 177 Sym (V, V) è un sottospazio di Hom (V, V). Dimostrazione Siano S, e S ∈ Sym (V, V). Dalla proposizione 157 segue che, ∀α, β ∈ IR ³ ´T ST = αS + β e S ⇒ αS + β e S ∈ Sym (V, V) . αS + β e S = αST + β e

(13.165)

In virtù della proposizione 6 Sym (V, V) è quindi un sottospazio di Hom (V, V). Stabiliamo ora la dimensione di Sym (V, V).

Proposizione 178 Sia V uno spazio vettoriale sul quale è definito un prodotto scalare non degenere, definito n positivo a valori in IR, e sia dim V = n. Allora dim Sym (V, V) = (n + 1). 2

128

CAPITOLO 13. TENSORI DOPPI

Dimostrazione Dalla 13.33, se (e1 , e2 , ..., en ) è una base di V, tra le n2 componenti di S ∈ Sym (V, V) sussistono le relazioni indipendenti Sij = ei ·S (ej ) = ej ·ST (ei ) = ej ·S (ei ) = Sji .

(13.166)

Il numero di tali relazioni uguaglia il numero delle combinazioni semplici Cn,2 2 . Il numero delle componenti indipendenti di un tensore simmetrico risulta quindi essere µ ¶ n 2 2 n − Cn,2 = n − 2 n! = n2 − (13.167) 2! (n − 2)! n (n − 1) n = n2 − = (n + 1) , 2 2 n (n + 1). 2 La precedente proposizione suggerisce che il numero delle componenti indipendenti di un tensore simmetrico valutate in una base di uno spazio vettoriale tridimensionale V è pari a sei; in forma matriciale ⎛ ⎞ S11 S12 S13 S = ⎝S12 S22 S23 ⎠ . (13.168) S13 S23 S33

da cui dim Sym (V, V) =

Proposizione 179 Ogni tensore nella forma (u ⊗ v + v ⊗ u) appartiene a Sym (V, V) ∀u, v ∈ V. Dimostrazione È ovvia conseguenza delle proposizioni 157 e 159. Proposizione 180 Sia (e1 , e2 , ..., en ) una base ortonormale di V. La famiglia di tensori doppi definiti come E(ij) :=

1 (ei ⊗ ej + ej ⊗ ei ) , i ≤ j (nessuna somma sugli indici ripetuti), 2

(13.169)

costituisce una base per Sym (V, V). ª © Dimostrazione L’appartenenza di tutti gli elementi dell’insieme E(ij) , i ≤ j allo spazio Sym (V, V) discende immediatamente dalla proposizione precedente, mentre la proprietà ª n © Card E(ij) , i ≤ j = (n + 1) = dim Sym (V, V) , 2

(13.170)

è conseguenza della proposizione 178. Rimane © ora da stabilire laªloro indipendenza lineare in Sym (V, V). Si consideri a tal proposito l’insieme di scalari S ij , i, j = 1, 2, ..., n tali che S ij = S ji e la combinazione lineare j n n X X X S ij S ij E(ij) . (ei ⊗ ej + ej ⊗ ei ) = 2 2 i,j=1 j=1 i=1

(13.171)

Supponendo che tale combinazione lineare fornisca il tensore nullo di Hom (V, V) si ha ¢ ¡ 0 eh , ek = 0 = n X ¡ ¢ S ij = [ei ⊗ ej + ej ⊗ ei ] eh , ek = 2 i,j=1 n ´ 1¡ X ¢ S ij ³ k h δ j δ i + δ ki δ hj = S hk + S kh = S hk , 2 2 i,j=1

h, k = 1, 2, ..., n.

(13.172)

Essendo nulli tutti i coefficienti della combinazione lineare ne discende che i tensori linearmente indipendenti in Sym (V, V), onde l’asserto.

ª © E(ij) , i ≤ j sono

=

2 Il numero delle relazioni indipendenti fra le (13.166) uguaglia il numero dei sottoinsiemi di 2 elementi di {1, ..., n} e non il numero delle coppie ordinate che si possono formare a partire da {1, ..., n}.

13.8. TENSORI SIMMETRICI.

129

Sia dim V = 3. Dalla proposizione 178 discende dim Sym ¡ (V, V) = ¢ 6. Le componenti dei tensori E(ij) definiti dalla (13.169) e valutate nella base ortonormale R = e1 , e2 , e3 sono ¡ ¢ hk = E(ij) eh , ek = (13.173) E(ij) ´ ³ ¡ ¢ 1 k h = eh · E(ij) ek = δ δ + δ ki δ hj , h, k, i, j = 1, 2, 3, i ≤ j. 2 j i Le corrispondenti matrici associate ⎛ 1 0 E(11) = ⎝0 0 0 0 E(22)

sono ⎞ 0 0⎠ ; 0

⎛ ⎞ 0 0 0 = ⎝0 1 0⎠ ; 0 0 0



0

E(12) = ⎝ 12 0 E(23)

⎛ 0 = ⎝0 0

1 2

0 0

⎞ 0 0⎠ ; 0

0 0

0

1 2

0



1⎠ ; 2

E(13)

E(33)



0 = ⎝0 1 2

0 0 0

1 2



0⎠ ; 0

⎛ ⎞ 0 0 0 = ⎝0 0 0⎠ . 0 0 1

(13.174)

Un tensore S ∈ Sym (V, V) possiede tre autovalori λ1 , λ2 , λ3 quando ciascuno di essi sia contato con la propria molteplicità algebrica (confronta il Capitolo 8, ed in particolare la proposizione 112), associati a tre autovettori p1 , p2 , p3 ortonormali in V (cfr. proposizione 117). Dalla (13.43) e dalla definizione di autovalore data nella sezione 6.1 si ottiene ⎤ ⎡ 3 3 3 X X X (pj ⊗ pj )⎦ = [S (pj ) ⊗ pj ] = [λj (pj ⊗ pj )] . (13.175) S = S [1I] = S ⎣ j=1

j=1

j=1

La precedente è la rappresentazione spettrale del tensore simmetrico S. Diremo che un tensore T ∈ Hom (V, V) è semi-definito positivo se, ∀u ∈ V

Se ∀u ∈ V

u · T (u) ≥0.

(13.176)

u · T (u) >0,

(13.177)

diremo che il tensore T è definito positivo. Proposizione 181 Se S ∈ Sym (V, V) è semi-definito positivo i suoi autovalori λj , j = 1, 2, 3 sono non negativi, ovvero risulta λj ≥ 0. Dimostrazione Dalla (13.176) e dalla (13.175) si ha, ∀u ∈ V : ⎤ ⎡ 3 3 X X u · S (u) = u · ⎣ λj (pj ⊗ pj )⎦ (u) = λj (u · pj ) (pj · u) j=1

=

j=1

3 X j=1

2

λj (u · pj ) ≥ 0 ⇒ λj ≥ 0, j = 1, 2, 3.

(13.178)

Proposizione 182 Sia S ∈ Sym (V, V) un tensore semi-definito positivo. Allora esiste ed è unica la sua radice quadrata S1/23 Il tensore S1/2 è simmetrico definito positivo ed ha la seguente rappresentazione spettrale S1/2 =

3 X 1/2 λj (pj ⊗ pj ) ,

(13.179)

j=1

dove (λ1 , λ2 , λ3 ) sono gli autovalori di S ai quali sono associati gli autovettori normalizzati (p1 , p2 , p3 ). Dimostrazione Definiamo il tensore A=

3 X 1/2 λj (pj ⊗ pj ) , j=1

3 Sia

  S ∈ Sym(V, V). La sua radice quadrata è il tensore S1/2 tale che S1/2 S1/2 = S.

(13.180)

130

CAPITOLO 13. TENSORI DOPPI

chiaramente simmetrico semi-definito positivo. Ricordando che gli autovettori sono ortonormali il quadrato di A è dato da ⎤ " 3 #⎡ 3 X 1/2 X 1/2 A2 = AA = λi (pi ⊗ pi ) ⎣ λj (pj ⊗ pj )⎦ i=1

=

3 X

j=1

1/2 1/2

λi λj

i,j=1

(pj · pi ) (pi ⊗ pj ) =

3 X

h=1

λh (ph ⊗ ph ) = S.

(13.181)

A è quindi la radice quadrata di S, ovvero risulta essere S1/2 = A. Rimane ora da dimostrare l’unicità di S1/2 . 1/2 Supponiamo che esista un altro tensore S , radice quadrata di S, e che ξ sia un suo autovalore con relativo autovettore q. Dalla definizione di autovalore ed autovettore associato si ha S

1/2

(q)=ξq; 1/2

S (q)=S 1/2

´ ³ 1/2 ´ ³ 1/2 1/2 S (q) = S (ξq) = ξ S (q) = ξ 2 q,

(13.182) (13.183)

dalle quali si evince che S ha gli stessi autovettori del suo quadrato S mentre i suoi autovalori sono la radice 1/2 = S1/2 . quadrata di quelli associati ad S. In definitiva si ha dunque S Proposizione 183 Se S ∈ Sym (V, V) è un tensore definito positivo, allora S è non singolare. Dimostrazione Dalla proposizione 181 i tre autovalori distinti di S soddisfano la condizione λj > 0, j = 1, 2, 3. Dalla (13.57) e scegliendo per essa la base ortonormale costituita dagli autovettori (p1 , p2 , p3 ) si ottiene [p1 · (p2 ∧ p3 )] det S = S (p1 ) · (S (p2 ) ∧ S (p3 )) = λ1 p1 · (λ2 p2 ∧ λ3 p3 ) .

(13.184)

Dalla trilinierità dell prodotto triplo si ha infine [p1 · (p2 ∧ p3 )] det S = λ1 λ2 λ3 [p1 · (p2 ∧ p3 )] ⇒ ⇒ det S = λ1 λ2 λ3 > 0.

(13.185)

da cui la tesi. La rappresentazione spettrale dell’inversa del tensore S di cui alla proposizione precedente è S−1 =

3 X λ−1 j (pj ⊗ pj ) .

(13.186)

j=1

Proposizione 184 Sia T ∈ Hom (V, V). Le applicazioni lineari TTT e TT T sono simmetriche semi-definite positive. Se T è invertibile, allora TTT e TT T sono definite positive. Dimostrazione Dalla proposizione 158 segue che ³ ´T ¡ ¢ T TTT = TT TT = TTT , ¡ ¢T ¡ T ¢T T T = TT TT = TT T,

da cui la simmetria. Consideriamo un vettore u ∈ V; dalla (13.176) e dalla (7.48): h i ¢ ¡ u· TTT (u) =u·T TT (u) = TT (u) ·TT (u) ≥0, £ ¤ u· TT T (u) =u · TT (T (u)) = T (u) ·T (u) ≥0,

(13.187)

(13.188)

ovvero le due applicazioni risultano semi-definite positive. Infine, se T è invertibile si ha ker T = {0} ⇒ T (u) = 0 ⇔ u = 0. Dalla (13.177) le applicazioni TTT e TT T risultano in questo caso definite positive.

(13.189)

13.9. TENSORI ANTISIMMETRICI .

131

Consideriamo un vettore x ∈ V ed un tensore S simmetrico definito positivo; si vuole dare una interpretazione geometrica dell’azione di S su x. A tal fine si consideri la rappresentazione polare S=

3 X λj (pj ⊗ pj ) ,

(13.190)

j=1

nella quale (λ1 , λ2 , λ3 ) sono gli autovalori reali positivi di S e (p1 , p2 , p3 ) sono i relativi autovettori normalizzati. l’azione di S su x risulta in un vettore 3 3 3 X X X S (x) = λj (pj ⊗ pj ) x = λj (pj · x) pj = λj xj pj , j=1

j=1

(13.191)

j=1

le cui componenti nella base (p1 , p2 , p3 ) di V sono λ1 x1 , λ2 x2 , λ3 x3 . Il tensore S è dunque una trasformazione di V consistente in estensioni (se λj > 1) od accorciamenti (se 0 < λj < 1) lungo le direzioni degli autovettori pj , note come assi principali di S.

13.9

Tensori antisimmetrici .

Un tensore W ∈ Hom (V, V) è antisimmetrico se W = −WT Denoteremo con © ª Skw (V, V) = W | W ∈ Hom (V, V) e WT = −W ,

(13.192)

l’insieme dei tensori antisimmetrici.

Proposizione 185 Skw (V, V) è un sottospazio di Hom (V, V). e ∈ Skw (V, V). Dalla proposizione 157 segue che, ∀α, β ∈ IR Dimostrazione Siano W, W ³ ´T ³ ´ e e T = − αW + β W e ⇒ αW + β W e ∈ Skw (V, V) . αW + β W = αWT + β W

(13.193)

In virtù della proposizione 6 Skw (V, V) è un sottospazio di Hom (V, V).

Proposizione 186 Sia V uno spazio vettoriale sul quale è definito un prodotto scalare non degenere, definito n positivo a valori in IR, e sia dim V = n. Allora dim Skw (V, V) = (n − 1). 2 Dimostrazione Siano u, v ∈ V due vettori arbitrari; dalla (13.33) segue che u · W (v) = v · WT (u) = − v · W (u) .

(13.194)

Sia (e1 , e2 , e3 ) una base di V. Ricordando che in tale base le componenti di W sono Wij = ei ·W (ej ) , dalla precedente uguaglianza discende che Wij = 0 se i = j, Wij = −Wji se i 6= j.

(13.195) (13.196)

Le (13.195) stabiliscono che solo n2 − n componenti di W possono essere non nulle. Le (13.196) stabiliscono n che queste n2 − n componenti sono a due a due l’una l’opposta dell’altra, e quindi stabiliscono (n − 1) 2 relazioni. Di conseguenza le componenti indipendenti di W sono ³ ´ n n (13.197) n2 − n + (n − 1) = (n − 1) . 2 2 Quindi

dim Skw (V, V) =

n (n − 1) . 2

(13.198)

Il numero delle componenti indipendenti di un tensore antisimmetrico valutate in una base di uno spazio vettoriale tridimensionale V è, in virtù della precedente proposizione, pari a tre; in forma matriciale: ⎛ ⎞ 0 W12 W13 0 W23 ⎠ . W = ⎝−W12 (13.199) −W13 −W23 0

132

CAPITOLO 13. TENSORI DOPPI

Proposizione 187 Ogni tensore nella forma (u ⊗ v − v ⊗ u) è un elemento di Skw (V, V) , ∀u, v ∈ V. Dimostrazione Dalle proposizioni 157, 159 si ha WT = (v ⊗ u)T − (u ⊗ v)T = u ⊗ v − v ⊗ u = − W,

(13.200)

da cui W ∈ Skw (V, V). Andiamo ora a costruire una base di Skw (V, V). Proposizione 188 Sia (e1 , e2 , e3 ) una base ortonormale di V. La famiglia di tensori doppi definiti come A[ij] :=

1 (ei ⊗ ej − ej ⊗ ei ) , i ≤ j (nessuna somma sugli indici ripetuti), 2

(13.201)

costituisce una base per Skw (V, V). Dimostrazione È del tutto analoga a quella della proposizione 180. Sia dim V = 3. Dalla proposizione 186 discende dim Skw (V, V) = 3. Le componenti dei tensori A[ij] definiti dalla (13.201) e valutate nella base ortonormale (e1 , e2 , e3 ) sono ¡ h k¢ Ahk (13.202) [ij] = A[ij] e , e ´ ³ ¡ ¢ 1 k h = eh · A[ij] ek = δ δ − δ ki δ hj , h, k, i, j = 1, 2, 3, i ≤ j. 2 j i

Le corrispondenti matrici associate ⎛ 1 0 2 1 ⎝ E[12] = − 2 0 0 0

sono ⎞ 0 0⎠ ; 0

E[13]



0 =⎝ 0 − 12

0 0 0

1 2



0⎠ ; 0

E[23]

Proposizione 189 Sia dim V = 3 e W ∈ Skw (V, V). Allora det W = 0.

⎛ 0 0 = ⎝0 0 0 − 12

0



1⎠ . 2

0

(13.203)

Dimostrazione Per la (13.65) e la (13.90) si ha 3

det W = det WT = det (−W) = (−1) det W = − det W,

(13.204)

onde l’asserto. Proposizione 190 Sia W ∈ Skw (V, V). Allora esiste un vettore p ∈ V tale che W (p) = 0.

(13.205)

Dimostrazione È banale conseguenza della proposizione precedente. Definiamo la base ortonormale (p1 , p2 , p3 ), dove p1 è l’autovettore (normalizzato) di cui alla proposizione precedente, e p2 , p3 sono definiti dalle seguenti relazioni p1 = p2 ∧ p3 , p2 = p3 ∧ p1 , p3 = p1 ∧ p2 , p1 · (p2 ∧ p3 ) = 1.

(13.206)

Ricordando le (13.195), (13.196), (13.194), ed il risultato stabilito nella proposizione precedente, le componenti di un tensore W ∈ Skw (V, V) in tale base sono W11 W12 W13 W23

= W22 = W33 = 0; = p1 ·W (p2 ) = − p2 ·W (p1 ) =0; = p1 ·W (p3 ) = − p3 ·W (p1 ) =0; = p2 ·W (p3 ) = − p3 ·W (p2 ) =:ω.

(13.207)

Escluso il caso in cui W è il tensore nullo, la quantità ω deve essere diversa da zero. Stante la proposizione 188, nella base prodotto generata dalla base (p1 , p2 , p3 ) di V, il tensore W si rappresenta come W = ω (p3 ⊗p2 − p2 ⊗ p3 ) .

(13.208)

13.9. TENSORI ANTISIMMETRICI .

133

Proposizione 191 Sia W ∈ Skw (V, V). Allora esiste un unico vettore w detto vettore assiale o croce di Gibbs di W tale che W (u) = w ∧ u ∀u ∈V. (13.209) Dimostrazione Consideriamo la base ortonormale di V (p1 , p2 , p3 ) precedentemente introdotta. Dalla (13.208) W si rappresenta in tale base come W = ω (p3 ⊗p2 − p2 ⊗ p3 ). Cerchiamo un vettore w =w1 p1 + w2 p2 + w3 p3 tale che, ∀a ∈V : W (a) − w ∧ a = 0. (13.210) Cominciamo con il valutare la quantità W (a): W (a) =ω (p3 ⊗p2 − p2 ⊗ p3 ) a =ω [(p2 · a) p3 − (p3 · a) p2 ] .

(13.211)

Svolgendo il prodotto vettore relativo al secondo addendo: ¢ ¡ ¢ ¡ w ∧ a= w1 p1 + w2 p2 + w3 p3 ∧ a1 p1 + a2 p2 + a3 p3

= εij k wi aj pk £ £ £ ¤ ¤ ¤ = w2 a3 − w3 a2 p1 + w3 a1 − w1 a3 p2 + w1 a2 − w2 a1 p3 .

(13.212)

Uguagliando le componenti di Wa e w ∧ a si ottengono le relazioni

w2 a3 − w3 a2 = 0 ∀a =⇒w2 = w3 = 0,

(13.213)

w1 a3 = ωa3 ,

(13.214)

e

1 2

2

w a = ωa ,

(13.215)

w =ωp1 .

(13.216)

ovvero w1 = ω, Poiché p1 è un autovettore di W, esso deve essere diverso dal vettore nullo; è stato inoltre precedentemente stabilito che se W non è il tensore nullo lo scalare ω è diverso da zero. Da tali considerazioni si deduce che ad un tensore antisimmetrico W 6= 0 compete un unico vettore assiale w 6= 0. Andiamo ora a stabilire il legame tra le componenti di un tensore antisimmetrico in una generica base ortonormale (e1 , e2 , e3 ) di V e le componenti del suo vettore assiale nella stessa base. Posto W = W ij ei ⊗ ej ,

w = wk ek ,

a=ah eh ∈ V,

si ha W (a)=W ij ak (ei ⊗ ej ) ek = W ij ak (ej · ek ) ei

= W ij ak δ jk ei = W i k ak ei ¡ ¡ ¡ ¢ ¢ ¢ = W 1 2 a2 + W 1 3 a3 e1 + W 2 1 a1 + W 2 3 a3 e2 + W 3 1 a1 + W 3 2 a2 e3 ¡ ¡ ¡ ¢ ¢ ¢ = W 1 2 a2 + W 1 3 a3 e1 + W 2 3 a3 − W 1 2 a1 e2 + − W 1 3 a1 − W 2 3 a2 e3 , w ∧ a= εij k wi aj ek £ £ £ ¤ ¤ ¤ = w2 a3 − w3 a2 e1 + w3 a1 − w1 a3 e2 + w1 a2 − w2 a1 e3 .

Uguagliando le componenti si ottengono le relazioni: ¢ 2 ¡ 1 ¢ 3 ¡ 1 3 2 ¡ W 2 2 + w1 ¢ a1 + ¡ W 1 3 − w3 ¢ a2 = 0, ¡ W 1 3 + w2 ¢ a1 − ¡ W 2 2 + w1 ¢ a2 = 0, W 3 − w a + W 3 + w a = 0.

(13.217)

(13.218)

(13.219)

Dalla arbitrarietà di a si giunge all’identificazione:

w1 = − W 2 3 , w2 = W 1 3 , 3

w =−W

1

2

.

(13.220)

134

CAPITOLO 13. TENSORI DOPPI

Sia W ∈ Skw (V, V) nella forma (13.208); andando a considerare le (13.55), (13.56), (13.57) con la base (p1 , p2 , p3 ) precedentemente introdotta e tenendo presente la proposizione 190, si ottengono le seguenti espressioni per gli invarianti di W: Tr W = W (p1 ) · (p2 ∧ p3 ) + p1 · (W (p2 ) ∧ p3 ) + p1 · (p2 ∧ W (p3 )) = p1 · (W (p2 ) ∧ p3 ) + p1 · (p2 ∧ W (p3 )) , IIW = W (p1 ) · (p2 ∧ W (p3 )) + p1 · (W (p2 ) ∧ W (p3 )) + W (p1 ) · (W (p2 ) ∧ p3 ) = p1 · (W (p2 ) ∧ W (p3 )) ,

(13.221)

det W = W (p1 ) · (W (p2 ) ∧ W (p3 )) = 0. Dalla proposizione 191 con w =ωp1 si ha W (p2 ) = ωp1 ∧ p2 = ωp3 , W (p3 ) = ωp1 ∧ p3 = −ωp2 ,

(13.222)

da cui Tr W = ω [p1 · (p3 ∧ p3 ) − p1 · (p2 ∧ p2 )] = 0,

IIW = p1 · (W (p2 ) ∧ W (p3 )) = ω 2 [p1 · (p2 ∧ p3 )] = kwk2 .

(13.223)

Chiudiamo la sezione relativa ai tensori antisimmetrici con la seguente proposizione: Proposizione 192 Siano u, v ∈ V. Al tensore W = (v ⊗ u − u ⊗ v) ∈ Skw (V, V) è associato il vettore assiale u ∧ v. Dimostrazione Dalla (13.17) si ha W (u ∧ v) = [u· (u ∧ v)] v − [v· (u ∧ v)] u = 0

(13.224)

e quindi, stante la (13.216) il vettore assiale di W è pari a α (u ∧ v), α ∈ IR. Dalla proposizione 191 si ha, ∀a ∈ V W (a)=α (u ∧ v) ∧ a; (a · u) v − (a · v) u=α (u ∧ v) ∧ a.

(13.225)

Ponendo a = u, moltiplicando scalarmente per v e ricordando le (13.15) 2

(u · u) (v · v) − (u · v) = α [(u ∧ v) ∧ u] · v =α (u ∧ v) · (u ∧ v) .

(13.226)

l’assioma (13.13) impone infine che sia α = 1, completando la dimostrazione.

13.10

Tensori ortogonali.

Sia A :V → V una applicazione che conserva il prodotto scalare definito in V, ovvero tale che, ∀u, v ∈ V A (u) ·A (v) = u · v.

(13.227)

In virtù della proposizione 103 A è lineare. Diremo che un tensore Q ∈ Hom (V, V) che goda della precedente proprietà è ortogonale. Dalla definizione di trasposto si ricava la seguente condizione necessaria e sufficiente affinché Q sia ortogonale: £ ¤ Q (u) ·Q (v) = v· QT Q (u) =v · u ⇒ QT Q = 1I. (13.228) Denoteremo con

n o Ort (V, V) := Q | Q ∈ Hom (V, V) & QT Q = QQT = 1I ,

l’insieme dei tensori ortogonali. Dalla proposizione 165 a dalla (13.90) si deduce che: ¡ ¢ det QT Q = det 1I =⇒ det QT det Q = 1 =⇒

(13.229)

(13.230)

2

(det Q) = 1 ⇒ det Q = ±1. Un tensore Q ∈ Ort (V, V) è quindi dotato di inversa data da Q−1 = QT . Un tensore avente determinante pari ad 1 è detto ortogonale proprio, mentre è detto ortogonale improprio nel caso contrario. Si considereranno nel seguito tensori ortogonali propri.

13.10. TENSORI ORTOGONALI.

135

Proposizione 193 Siano Q, R ∈ Ort (V, V); allora l’applicazione QR è un tensore ortogonale. Dimostrazione Dalla definizione di trasposto e dalla (13.228) si ha che, ∀u, v ∈V £ ¤ QR (u) ·QR (v) = R (v) · QT Q R (u) = R (v) · R (u) £ ¤ = u · RT R (v) = u · v,

(13.231)

da cui, stante la (13.227), l’asserto. Dalla dimostrazione della proposizione precedente si evince che l’insieme Ort (V, V) è chiuso rispetto alla operazione di composizione tensoriale. Proposizione 194 Se Q ∈ Ort (V, V) esso possiede un autovalore reale unitario. Dimostrazione Dalla (13.228) si stabilisce l’identità QT (Q − I) = − (Q − I)T . Calcolando il determinante di ambo i membri si ottiene ¤ £ det QT (Q − I) = − det (Q − I)T , det Q det (Q − I) = − det (Q − I) , det (Q − I) = − det (Q − I) ⇒ det (Q − I) = 0.

(13.232)

(13.233)

La precedente è l’equazione caratteristica di cui alla proposizione 75 con A = Q e l’autovalore λ = 1. In virtù della proposizione precedente, esiste un autovettore p1 (che riterremo normalizzato) tale che Q (p1 ) = p1 = QT (p1 ) .

(13.234)

Esiste dunque una direzione dello spazio V lasciata inalterata dall’azione del tensore ortogonale Q. Analogamente a quanto fatto per i tensori antisimmetrici, scegliamo una base ortonormale (p1 , p2 , p3 ) costituita dall’autovettore p1 associato all’autovalore λ = 1 e dai vettori p2 , p3 che verifichino: p1 = p2 ∧ p3 , p2 = p3 ∧ p1 , p3 = p1 ∧ p2 , p1 · (p2 ∧ p3 ) = 1.

(13.235)

Proposizione 195 Sia Q ∈ Ort (V, V) e A = (p1 , p2 , p3 ) la base ortonormale di V precedentemente introdotta. Esiste uno scalare θ ∈]−π, π] tale che, nella base prodotto generata da A, vale la seguente rappresentazione per Q: Q = p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 ) . (13.236) Dimostrazione Nella base prodotto generata da A il tensore Q si rappresenta come Q = Qij pi ⊗ pj ,

(13.237)

con le componenti Qij = pi · Q (pj ) = δ ih δ jk Qhk . Dalla (13.234) e dalla ortonormalità dei vettori pj si ottiene p2 · Q (p1 ) = p3 · Q (p1 ) = p1 · Q (p2 ) = p1 · Q (p3 ) = 0; Q21 = Q31 = Q12 = Q13 = 0, p1 · Q (p1 ) = Q11 = 1.

(13.238) (13.239)

Dalla (13.227) p2 · p3 = Q (p2 ) · Q (p3 ) = 0, da cui (p2 , p3 ) e (Q (p2 ) , Q (p3 )) sono coppie di vettori di modulo unitario tra loro ortogonali rispetto al prodotto scalare definito in V. Ciascuno dei quattro è a sua volta ortogonale al vettore p1 . È quindi lecito scrivere

con

Q (p2 ) = αp2 + βp3 , Q (p3 ) = γp2 + δp3 ,

(13.240)

|Q (p2 )|2 = Q (p2 ) · Q (p2 ) = α2 + β 2 = 1, |Qp3 |2 = Q (p3 ) · Q (p3 ) = γ 2 + δ 2 = 1, Q (p2 ) · Q (p3 ) = αγ + βδ = 0.

(13.241)

136

CAPITOLO 13. TENSORI DOPPI

È possibile ottenere una ulteriore relazione per i quattro parametri α, β, γ, δ dal determinante di Q: det Q = 1 = Q (p1 ) · (Q (p2 ) ∧ Q (p3 )) = p1 · [(αp2 + βp3 ) ∧ (γp2 + δp3 )] = αδ − βγ = 1.

(13.242)

Le quattro relazioni implicano l’esistenza di uno scalare θ ∈] − π, π] tale che α = δ = cos θ, β = −γ = sin θ.

(13.243)

l’insieme delle coordinate Qij è conseguentemente completato dalle p2 · Q (p3 ) = −p3 · Q (p2 ) = − sin θ, p2 · Q (p2 ) = p3 · Q (p3 ) = cos θ,

(13.244)

Q32 = −Q23 = sin θ, Q22 = Q33 = cos θ.

(13.245)

Q = Q11 p1 ⊗ p1 + Q22 (p2 ⊗ p2 + p3 ⊗ p3 ) + Q23 (p2 ⊗ p3 − p3 ⊗ p2 ) = p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 ) .

(13.246)

ovvero

Il tensore Q si rappresenta quindi come

La matrice delle componenti di Q nella base A, nota come matrice di rotazione, è ⎛ ⎞ 1 0 0 Q = ⎝0 cos θ − sin θ⎠ . 0 sin θ cos θ

(13.247)

Andiamo ora a calcolare gli autovalori Q, ovvero le radici del polinomio caratteristico det (Q − λI) = 0.

Tale polinomio in λ ha la forma ⎛ ⎞ 1−λ 0 0 h i cos θ − λ − sin θ ⎠ = (1 − λ) (cos θ − λ)2 + sin2 θ det ⎝ 0 0 sin θ cos θ − λ ¡ ¢ = (λ − 1) λ2 − 2λ cos θ + 1 . Le radici sono λ1 = 1 (si ritrova la proprietà precedentemente stabilita) e p p λ2,3 = cos θ ± cos2 θ − 1 = cos θ ± − sin2 θ.

(13.248)

(13.249)

(13.250)

Se θ 6= 0, π, |sin θ| > 0 e quindi il discriminante dell’equazione quadratica è negativo. Ricordando l’identità di Eulero gli autovalori λ2, λ3 sono i due complessi coniugati √ λ2,3 = cos θ ± i sin θ = e±iθ , i = −1. (13.251) Diamo ora una interpretazione geometrica dell’azione di un tensore Q ∈ Ort (V, V) su un vettore x ∈V. Siano Q ∈ Ort (V, V) ed x ∈V rispettivamente un tensore ortogonale ed un vettore rappresentati nella base A come Q = p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 ) , x=xj pj .

(13.252)

l’azione di Q su x è data da Q (x)= [p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 )] (x) = (p1 · x) p1 + [(p2 · x) cos θ − (p3 · x) sin θ] p2 + [(p3 · x) cos θ + (p2 · x) sin θ] p3 ¡ ¢ ¡ ¢ = x1 p1 + x2 cos θ − x3 sin θ p2 + x3 cos θ + x2 sin θ p3 .

(13.253)

13.10. TENSORI ORTOGONALI.

137

√ Definito z = x2 + ix3 , i = −1, le componenti del vettore x nella base A in termini di z ¡ 1 il numero complesso ¢ x , Re z, Im z ¢, mentre le componenti del vettore Q (x) nella stessa base ed ancora in termini di z sono ¡sono x1 , Re zeiθ , Im zeiθ , essendo ¡ ¢ zeiθ = x2 + ix3 (cos θ + i sin θ) ¢ ¡ ¢ ¡ (13.254) = x2 cos θ − x3 sin θ + i x3 cos θ + x2 sin θ . l’effetto di Q è quindi quello di trasportare il vettore x in un vettore Q (x) ruotato rispetto all’originale di un angolo θ intorno alla direzione p1 . Come anticipato dalle 13.234, esiste una direzione dello spazio che non risente dell’azione di Q; tale direzione è quella dell’autovettore p1 relativo all’autovalore λ = 1. Proposizione 196 Gli elementi dell’insieme Ort (V, V) con dim V = 3 sono ∞3 . Dimostrazione Dall’esempio precedente si evince che Ort (V, V) è in corrispondenza biunivoca (e bicontinua) con l’insieme S 2 × S 1 , dove S 2 è la superficie della sfera di raggio kp1 k = 1 ed S 1 è la circonferenza di ¯ iθ ¯ p 2 raggio ¯e ¯ = cos θ + sin2 θ = 1. Poiché S 2 è descritta da due parametri, mentre S 1 è data al variare di θ, ne discende l’asserto.

13.10.1

Angoli di Eulero.

Una scelta possibile dei tre parametri di cui alla proposizione precedente è data dagli angoli di Eulero. Siano V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ) due basi ortonormali dello spazio vettoriale V e siano Πv = span (v1 , v2 ) , Πw = span (w1 , w2 ) ,

(13.255)

le due giaciture individuate rispettivamente dagli assi v1 , v2 e w1 , w2 . L’intersezione dei piani Πv Πw definisce una retta detta linea dei nodi; indicheremo con ν ∈V il versore che ne da la direzione in V. Il primo angolo di Eulero è lo scalare ψ ∈ ]−π, π] individuato dalla cos ψ = v1 · ν,

(13.256)

ovvero è l’angolo formato da v1 e ν. Si consideri ora il tensore ortogonale Qψ = v3 ⊗ v3 + cos ψ (v1 ⊗ v1 + v2 ⊗ v2 ) − sin ψ (v1 ⊗ v2 − v2 ⊗ v1 ) ,

(13.257)

corrispondente ad una rotazione antioraria di ampiezza ψ intorno all’asse v3 . Si ha Qψ (v1 ) = (v3 · v1 ) v3 + cos ψ [(v1 · v1 ) v1 + (v2 · v1 ) v2 ] − sin ψ [(v2 · v1 ) v1 − (v1 · v1 ) v2 ] = cos ψv1 + sin ψv2 ; (13.258) Qψ (v2 ) = (v3 · v2 ) v3 + cos ψ [(v1 · v2 ) v1 + (v2 · v2 ) v2 ] − sin ψ [(v2 · v2 ) v1 − (v1 · v2 ) v2 ] = − sin ψv1 + cos ψv2 . (13.259) Dalla (13.256) discende che Qψ v1 = ν. Definiamo la nuova base A = (Qψ (v1 ) , Qψ (v2 ) , Qψ (v3 )) = (ν, Qψ (v2 ) , v3 ) , ovvero, nella base V



⎞ ⎛ ⎞ ⎛ ν v1 cos ψ A = ⎝Qψ (v2 )⎠ = Qψ ⎝v2 ⎠ = ⎝− sin ψ 0 v3 v3

sin ψ cos ψ 0

⎞⎛ ⎞ 0 v1 0⎠ ⎝v2 ⎠ , 1 v3

(13.260)

(13.261)

dove Qψ è la matrice ortogonale associata al cambiamento di base da V ad A; è facile verificare che essa è la matrice associata al tensore Qψ nella base V. Il secondo angolo di Eulero è lo scalare φ ∈ ]−π, π] definito dalla cos φ = v3 · w3 , (13.262) ovvero è l’angolo formato dalle due giaciture Πv Πw . Definiamo il tensore ortogonale Qφ = ν ⊗ ν + cos φ (Qψ (v2 ) ⊗ Qψ (v2 ) + v3 ⊗ v3 ) − sin φ (Qψ (v2 ) ⊗ v3 − v3 ⊗ Qψ (v2 )) ,

(13.263)

138

CAPITOLO 13. TENSORI DOPPI

corrispondente ad una rotazione antioraria intorno all’asse ν. Con riferimento ai vettori della base A, esso lascia inalterato ν mentre trasporta Qψ (v2 ) in Qφ (Qψ (v2 )) = cos φQψ (v2 ) + sin φv3 ,

(13.264)

Qφ (v3 ) = cos φv3 − sin φQψ (v2 ) = w3 ,

(13.265)

e v3 in dalla (13.262). L’applicazione successiva dei tensori Qψ e Qφ , ovvero del tensore (Qφ Qψ ) produce l’effetto di trasportare i vettori v1 e v2 sul piano Πw ed il vettore v3 sul vettore w3 . Sia B = (Qφ (Qψ (v1 )) , Qφ (Qψ (v2 )) , Qφ Qψ v3 ) = (ν, Qφ (Qψ (v2 )) , w3 ) , la base che si ottiene da A applicando ad essa Qφ ; si ha ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ν v1 ν B = ⎝Qφ (Qψ (v2 ))⎠ = Qφ ⎝Qψ (v2 )⎠ = Qφ Qψ ⎝v2 ⎠ w3 v3 v3 ⎛ ⎞⎛ ⎞⎛ ⎞ 1 0 0 cos ψ sin ψ 0 v1 = ⎝0 cos φ sin φ ⎠ ⎝− sin ψ cos ψ 0⎠ ⎝v2 ⎠ , 0 − sin φ cos φ 0 0 1 v3

(13.266)

(13.267)

dove Qφ è la matrice ortogonale associata al cambiamento di base da A a B; tale matrice è associata al tensore Qφ quando sia stata scelta la base A. La matrice composta ⎛ ⎞⎛ ⎞ ⎛ ⎞ 1 0 0 cos ψ sin ψ 0 cos ψ sin ψ 0 Qφ Qψ = ⎝0 cos φ sin φ ⎠ ⎝− sin ψ cos ψ 0⎠ = ⎝− cos φ sin ψ cos ψ cos φ sin φ ⎠ , (13.268) 0 − sin φ cos φ 0 0 1 sin ψ sin φ − cos ψ sin φ cos φ

è invece quella associata al tensore (Qφ Qψ ) quando sia stata scelta la base V. Definiamo terzo angolo di Eulero lo scalare ϑ ∈ ]−π, π] dato da cos ϑ = ν · w1 , (13.269) ovvero l’angolo formato dalla linea dei nodi e l’asse w1 della base W. Considerato il tensore ortogonale ¡ ¢ Qϑ = w3 ⊗ w3 + cos ϑ ν ⊗ ν + Qφ (Qψ (v2 )) ⊗ Qφ (Qψ (v2 )) − sin ϑ (ν ⊗ Qφ (Qψ (v2 )) − Qφ (Qψ (v2 )) ⊗ ν) , (13.270)

corrispondente ad una rotazione antioraria di ampiezza ϑ intorno all’asse w3 , esso trasporta ν in w1 e Qφ (Qψ (v2 )) in w2 lasciando inalterato w3 . Quindi ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ν v1 w1 (13.271) W = ⎝w2 ⎠ = Qϑ ⎝Qφ (Qψ (v2 ))⎠ = Qϑ Qφ Qψ ⎝v2 ⎠ . w3 w3 v3 La matrice



⎞ cos ϑ sin ϑ 0 Qϑ = ⎝− sin ϑ cos ϑ 0⎠ , 0 0 1

è quella associata al tensore Qϑ quando sia scelta la base B, e la matrice ⎛ ⎞ cos ϑ cos ψ − cos φ sin ψ sin ϑ cos ϑ sin ψ + cos ψ cos φ sin ϑ sin φ sin ϑ Qϑ Qφ Qψ = ⎝− cos ψ sin ϑ − cos φ cos ϑ sin ψ − sin ψ sin ϑ + cos ψ cos φ cos ϑ cos ϑ sin φ⎠ , sin ψ sin φ − cos ψ sin φ cos φ

(13.272)

(13.273)

è quella associata al tensore (Qϑ Qφ Qψ ) quando sia scelta la base V. La precedente è la rappresentazione di un tensore ortogonale attraverso gli angoli di Eulero. La somma di due rotazioni si esprime quindi nella composizione di due matrici ortogonali dipendenti dalle ampiezze di tali rotazioni. Si consideri ad esempio una base V ed una base W ottenuta dalla prima a seguito di due rotazioni di ampiezza rispettiva β e γ intorno all’asse v1 . Si ha ⎛ ⎞ ⎛ ⎞⎛ ⎞ w1 1 0 0 v1 ⎝w2 ⎠ = ⎝0 cos (β + γ) sin (β + γ) ⎠ ⎝v2 ⎠ . (13.274) 0 − sin (β + γ) cos (β + γ) w3 v3

13.11. TEOREMA DI DECOMPOSIZIONE ADDITIVA.

139

Dalle considerazioni precedenti si ha inoltre ⎛ ⎞ ⎛ ⎞ v1 w1 ⎝w2 ⎠ = Qβ Qγ ⎝v2 ⎠ , w3 v3 con ⎛ ⎞⎛ ⎞ 1 0 0 1 0 0 sin β ⎠ ⎝0 cos γ sin γ ⎠ Qβ Qγ = ⎝0 cos β 0 − sin β cos β 0 − sin γ cos γ ⎛ ⎞ 1 0 0 cos β sin γ + cos γ sin β ⎠ , = ⎝0 cos β cos γ − sin β sin γ 0 − cos β sin γ − cos γ sin β cos β cos γ − sin β sin γ

da cui, operando l’identificazione ⎛ ⎞ ⎛ 1 0 0 1 0 ⎝0 cos (β + γ) sin (β + γ) ⎠ = ⎝0 cos β cos γ − sin β sin γ 0 − sin (β + γ) cos (β + γ) 0 − cos β sin γ − cos γ sin β

⎞ 0 cos β sin γ + cos γ sin β ⎠ , cos β cos γ − sin β sin γ

(13.275)

(13.276)

(13.277)

si ritrovano le ben note formule di addizione per le funzioni trigonometriche.

13.11

Teorema di decomposizione additiva.

Proposizione 197 Sia V uno spazio vettoriale finito dimensionale dotato di un prodotto scalare non degenere, definito positivo a valori in IR. Lo spazio degli endomorfismi di V ammette la decomposizione in somma diretta Hom (V, V) = Sym (V, V) ⊕ Skw (V, V) .

(13.278)

Dimostrazione Come stabilito dalle proposizioni 177 ,185 Sym (V, V) e Skw (V, V) sono sottospazi di Hom (V, V). Poiché ogni elemento L ∈ Hom (V, V) può comunque essere scritto come somma di una parte simmetrica S e di una parte antisimmetrica W date da L=S+ ¡ W, ¢ S = 12 ¡L + LT ¢∈ Sym (V, V) , W = 12 L − LT ∈ Skw (V, V) ,

(13.279)

la proposizione 2.14 afferma che è individuata la somma

Hom (V, V) = Sym (V, V) + Skw (V, V) .

(13.280)

Per completare la dimostrazione, ovvero affinché la precedente somma si specializzi in somma diretta, dalla proposizione 29 occorre che sia Sym (V, V) ∩ Skw (V, V) = {0}. A tal fine sia L ∈ Sym (V, V) ∩ Skw (V, V). L deve soddisfare la condizione (13.281) L = LT ed L = −LT , ovvero L = 0. Siano S ∈ Sym (V, V), W ∈ Skw (V, V) con dim V =3. Eseguendo il prodotto scalare tra i due, dalla linearità dell’operatore traccia (cfr. la proposizione 163) e dalle (13.88), proposizione 158, (13.89): ∙³ ³ ´ ´T ¸ T T S · W = Tr SW = Tr SW h i ¤ £ = Tr WST = − Tr WT S h i = − Tr SWT = 0. (13.282)

Gli spazi Sym (V, V) e Skw (V, V) risultano quindi ortogonali rispetto al prodotto scalare definito in Hom(V, V). In definitiva Sym (V, V) ⊥ Skw (V, V) , (13.283) ed in virtù della proposizione 7.17

Hom (V, V) = Sym (V, V) ⊕ Sym (V, V)⊥ = Sym (V, V) ⊕ Skw (V, V) .

(13.284)

Si noti che, ancora dalla proposizione 7.17, dim Hom (V, V) = dim Sym (V, V) + dim Skw (V, V) = 6 + 3 = 9.

140

13.12

CAPITOLO 13. TENSORI DOPPI

Teorema di decomposizione polare.

Proposizione 198 Associate ad ogni endomorfismo invertibile L ∈ Hom (V, V) esistono e sono uniche le due decomposizioni moltiplicative (rispettivamente decomposizione polare destra e decomposizione polare sinistra) L = RU = VR, (13.285) dove R ∈ Ort (V, V) è ortogonale ed U, V ∈ Sym (V, V) sono endomorfismi simmetrici definiti positivi. Dimostrazione Dalla proposizione 184 le applicazioni LT L ed LLT risultano simmetriche definite positive. La proposizione 182 afferma per ognuna di esse l’esistenza di un’ unica radice quadrata anch’ essa simmetrica definita positiva. Posto ³ ´1/2 ¡ ¢1/2 U := LT L , V := LLT , (13.286) i tensori Q = LU−1 , R = LV−1 risultano entrambi ortogonali in quanto

¡ ¢ ¢T ¡ QT Q = LU−1 LU−1 = U−1 LT L U−1 = U−1 U2 U−1 = 1I; ¡ ¢ ¢T ¡ RRT = V−1 L LV−1 = V−1 LT L V−1

(13.287)

L = QU = VR.

(13.289)

= V−1 V2 V−1 = 1I.

(13.288)

Si ha dunque Andiamo ora a dimostrare l’unicità. Supponiamo che L ammetta una seconda decomposizione polare sinistra e R. e Il calcolo di LLT porge L=V ³ ´T ³ ´ eR e V eR e e R eR eT V e=V e 2. =V LLT = V

e = V; finalmente Ancora dalla proposizione 182 segue che V

e=V e −1 L = V−1 L = R. R

(13.290)

(13.291)

Con argomentazione analoga si dimostra l’unicità della decomposizione polare destra. Per completare la dimostrazione occorre provare che Q = R. Essendo R ortogonale e dal fatto che V possiede una ed una soltanto radice quadrata simmetrica definita positiva si ha ³ ´ ¢ ¡ L = QU = RRT VR = R RT VR ∙³ ´T ³ ´¸ = R V1/2 R (13.292) V1/2 R .

¡ ¢ La precedente identifica QU ed R RT VR come due decomposizioni polari destre tra loro equivalenti con Q = R,

(13.293)

U = RT VR.

(13.294)

Quest’ultima è la relazione tra U e V, parti simmetriche della decomposizione polare destra e sinistra. È interessante notare il parallelismo con la rappresentazione polare del numero complesso z = reiθ ; i tensori simmetrici definiti positivi U e V sono l’analogo del modulo r, mentre la rotazione del piano complesso eiθ trova il suo analogo nel tensore ortogonale R.

13.13

Il teorema di commutazione.

Dati due tensori A e B, diremo che essi commutano se soddisfano la relazione: AB = BA.

(13.295)

Fissato un autovalore del tensore A ∈ Sym (V, V) , denoteremo con E (λ) il sottospazio di V (cfr. sezione 6.2) generato dagli autovettori di A relativi a λ. Sia (v1 , v2 , v3 ) la base di V costituita dagli autovettori di A

13.13. IL TEOREMA DI COMMUTAZIONE.

141

(cfr. proposizione 118) e siano (λ1 , λ2 , λ3 ) i relativi autovalori contati con la propria molteplicità geometrica. Secondo la notazione utilizzata si ha: λi = λj =⇒ E (λi ) = E (λj ) .

(13.296)

Enunciamo ora la seguente proposizione, nota come teorema di commutazione. Proposizione 199 Siano A ∈ Sym (V, V), B ∈ Hom (V, V). 1. Se A e B commutano, allora gli autospazi di A (cfr. sezione 13.6 ed il Capitolo 6) sono invarianti sotto B, ovvero si ha che se λ è un autovalore di A con associato autospazio E (λ) ⊂ V allora, considerato v ∈E (λ) si ha B (v) ∈E (λ) . 2. Se gli autospazi di un tensore simmetrico A sono invarianti sotto B, allora A e B commutano. Dimostrazione 1. Siano A e B tali che per essi valga la (13.295), e sia A (v) = λv. Allora A (B (v)) = B (A (v)) = B (λv) = λB (v) ,

(13.297)

dal quale si evince che dal supporre che v sia un autovettore per A con autovalore associato λ, porta a stabilire che B (v) appartiene a sua volta all’autospazio E (λ) contenente v. 2. Si scelga un vettore u e si consideri la sua decomposizione X u = αi vi ,

(13.298)

i

secondo una base di autovettori (v1 , v2 , v3 ) di A (che esiste in virtù della proposizione 118 nella Parte I). Dalla ipotesi che gli autospazi siano invarianti sotto B, si ha che se vi ∈ E (λi ) , allora i vettori B (vi ) ∈ E (λi ) . Si può quindi scrivere: A (B (vi )) = λi B (vi ) = B (λi vi ) = B (A (vi )) .

(13.299)

Si conclude dunque che A (B (u)) =

X X A (B (vi )) = B (A (vi )) = B (A (u)) ⇒ AB = BA, i

(13.300)

i

data l’arbitrarietà di u. Si consideri ora un tensore S ∈ Sym (V, V) tale che: SQ = QS,

∀Q ∈ Ort+ (V, V) ,

(13.301)

la quale, in virtù della proposizione precedente, si traduce nella proprietà che ogni autospazio di S è invariante sotto tutte le rotazioni4 . Tuttavia gli autospazi di S sono sottospazi di V. Attraverso la seguente proposizione stabiliremo che l’unico sottospazio di V invariante rispetto a tutte le rotazioni è V stesso. Proposizione 200 Sia E (λ) un autospazio associato ad un tensore simmetrico S ∈ Sym (V, V) tale che ∀Q ∈ Ort+ (V, V) , ∀v ∈ E (λ) :

Q (v) ∈ E (λ) .

(13.302)

Allora, necessariamente: E (λ) = V.

(13.303)

Dimostrazione Poiché S è simmetrico, l’autospazio E (λ) è diverso dal sottospazio nullo (cfr. proposizione 118). È quindi lecito considerare un vettore non nullo v ∈ E (λ) ; inoltre, dovendo la (13.302) essere vera per ogni tensore ortogonale proprio, è possibile considerare P, Q, R ∈ Ort+ , 4 In

questo contesto si intende per rotazione un tensore ortogonale proprio (cfr. sezione 13.10).

(13.304)

142

CAPITOLO 13. TENSORI DOPPI

tali che: P (v) · Q (v) = 0,

P (v) · R (v) = 0,

Q (v) · R (v) = 0,

(13.305)

la quale insieme alla (13.302) afferma che {P (v) , Q (v) , R (v)} è un insieme di tre vettori linearmente indipendenti in E (λ). Si ha quindi dim E (λ) = 3, (13.306) onde l’asserto. Dalla definizione di molteplicità geometrica di un autovalore (sezione 6.5), si ha che per avere dim E (λ) = 3 occorre necessariamente che il tensore simmetrico S possegga tre autovalori coincidenti, per cui S deve essere sferico: S = λ1I, λ ∈ IR. (13.307) Ne discende la seguente: Proposizione 201 Un tensore simmetrico che commuta con tutti i tensori ortogonali propri è sferico.

Capitolo 14

CENNI DI ANALISI TENSORIALE Prerequisito alla lettura di questo Capitolo è la conoscenza dei contenuti del Capitolo 1.

14.1

Spazi affini.

Sia V uno spazio vettoriale ed A un insieme. Diremo spazio affine la terna (A, V, ∆) , dove ∆ : A × A → V,

(14.1)

è una applicazione detta di traslazione soddisfacente i seguenti assiomi: ∆ (x, y) = ∆ (x, z) + ∆ (z, y) , x, y, z ∈ A, ∀x ∈ A, ∀v ∈ V, ∃!y ∈ A : ∆ (x, y) = v.

(14.2) (14.3)

Gli elementi dell’insieme A sono detti punti, e V è detto spazio delle traslazioni. Quando V è dotato di un prodotto scalare, A è detto spazio puntuale euclideo. Nel seguito, con abuso di notazione, utilizzeremo per brevità lo stesso simbolo per lo spazio affine e per l’insieme dei punti. Il vettore ∆ (x, y) ∈ V, x, y ∈ A, rappresenta la traslazione di punto iniziale y e punto finale x. l’assioma (14.3) equivale alla richiesta che la funzione ∆x : A → V,

(14.4)

definita come ∆x (y) := ∆ (x, y) ,

x, y ∈ A,

(14.5)

sia biiettiva per ogni x, ovvero che, fissato x ∈ A essa stabilisca una corrispondenza biunivoca tra punti di A e vettori di V. La dimensione di A è per definizione pari alla dimensione del suo spazio delle traslazioni. È possibile dotare di struttura affine1 uno spazio vettoriale V definendo nel seguente modo l’operazione differenza tra punti: ∆ (u, v) := u − v, ∀u, v ∈V. (14.6) La circostanza precedente suggerisce l’introduzione della seguente notazione ∆ (x, y) ≡ x − y,

x, y ∈ A,

(14.7)

per l’operazione differenza tra punti. Pur essendo denotata allo stesso modo, tale operazione è ovviamente ben distinta dalla differenza tra scalari e tra vettori come definite rispettivamente in un campo e in uno spazio vettoriale. Tuttavia non tutti gli spazi affini possono essere costruiti in questo modo a partire da uno spazio vettoriale. La seguente proposizione dimostra che l’operazione differenza fra punti ha alcune proprietà in comune con la differenza fra vettori. Proposizione 202 Sia A uno spazio affine ed x, y, x0 , y 0 ∈ A. Valgono le seguenti proprietà: x − x = 0, x − y = − (y − x) , x − y = x0 − y 0 ⇒ x − x0 = y − y 0 . 1 Si

lascia allo studioso lettore verificare che gli assiomi (14.2) e (14.3) quando U sia identificato con V stesso.

143

(14.8) (14.9) (14.10)

144

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Dimostrazione Per ottenere la (14.8) si consideri la (14.2) con x = y = z : x − x = (x − x) + (x − x) ,

(14.11)

la quale implica x − x = 0. Analogamente, ponendo x = y nella (14.2) si ha x − x = (x − z) + (z − x) ,

(14.12)

da cui, tenendo conto della (14.8), discende la (14.9). Siano ora x, y, x0 , y 0 ∈ A; l’assioma (14.2) permette di stabilire la seguente catena di uguaglianze: x − y 0 = (x − y) + (y − y 0 ) = (x − x0 ) + (x0 − y 0 ) .

(14.13)

Per ipotesi si ha tuttavia x − y = x0 − y 0 , onde la (14.10). La notazione introdotta nella (14.7) permette di rileggere l’assioma (14.3) nel seguente modo: scelti y ∈ A e v ∈V è determinato univocamente un punto di A (denotato come x (y, v)) tale che x (y, v)−y = v. Possiamo introdurre la applicazione + : A×V →A, (14.14) per mezzo della x (y, v) = y + v.

(14.15)

La precedente applicazione è detta somma di un punto e di un vettore. Essa può essere interpretata geometricamente notando che l’azione di un vettore dello spazio delle traslazioni su un punto del relativo spazio affine è quello di “trasportare” in un altro punto che risulta univocamente determinato dal punto di partenza e dal vettore di traslazione. Lo spazio dei posti che possono essere occupati dalle particelle materiali nella cinematica galileiana è uno spazio affine tridimensionale. Questa affermazione sarà approfondita nel Capitolo 16, dedicato appunto a tale cinematica.

14.2

Applicazioni affini.

Sia A uno spazio affine e V il suo spazio delle traslazioni. Una applicazione A : A → A,

(14.16)

A (x + v) − A (x) = A (y + v) − A (y) , A (x + αv) − A (x) = α [A (x + v) − A (x)] .

(14.17) (14.18)

è detta affine se, ∀x, y ∈ A, ∀v ∈ V, ∀α ∈ IR :

La proprietà (14.17) afferma che la differenza (A (x + v) − A (x)) ∈ V è indipendente dal punto x considerato, ed è dunque funzione soltanto del vettore v ∈ V. È quindi lecito introdurre la funzione LA : V → V,

(14.19)

LA (v) := A (x + v) − A (x) .

(14.20)

definita come Come apparirà chiaro dall’enunciato, la seguente proposizione è detta teorema di rappresentazione per le applicazioni affini. Proposizione 203 Sia A uno spazio affine e V il suo spazio delle traslazioni. Una applicazione A : A → A,

(14.21)

LA : V → V,

(14.22)

A (x) − A (y) = LA (v) ,

(14.23)

è affine solo se l’applicazione è lineare. Ovviamente, ∀x, y ∈ A se v =x − y.

14.3. CONTINUITÀ E DIFFERENZIABILITÀ. CAMPI.

145

Dimostrazione Occorre verificare che l’applicazione LA (v) = A (x) − A (y) = A (y + v) − A (y) ,

(14.24)

è lineare. Si consideri a tal proposito un punto h ∈ A. La (14.17) porge A (y + v) − A (y) = A (h + v) − A (h) .

(14.25)

In virtù dell’assioma (14.3), esiste ed è unico w ∈ V tale che w =y − h; sostituendo nella precedente: A (h + (v + w)) − A (h + w) = A (h + v) − A (h) .

(14.26)

Sommando ora a primo membro il vettore nullo A (h) − A (h) e raggruppando opportunamente i termini si ottiene [A (h + (w + v)) − A (h)] − [A (h + w) − A (h)] = A (h + v) − A (h) , (14.27) da cui Sia ora α ∈ IR. La proprietà

LA (v + w) = LA (v) + LA (w) .

(14.28)

LA (αv) = αLA (v) ,

(14.29)

è immediata conseguenza dell’assioma (14.18) essendo LA (αv) = A (h + αv) − A (h) = α [A (h + v) − A (h)] = αLA (v) ,

∀h ∈ A.

(14.30)

Proposizione 204 Siano LA : V → V una applicazione lineare e z un elemento di A. Allora l’applicazione A : A → A,

(14.31)

definita da2 A (x) = z + L (x − y) ,

∀x, y ∈ A.

(14.32)

è affine. Dimostrazione Banale. Viene lasciata, come esercizio, allo studioso lettore. Una applicazione affine si rappresenta quindi univocamente nel modo indicato nelle proposizioni precedenti. Se y ∈ A è un punto di uno spazio affine e v ∈V un vettore del suo spazio delle traslazioni, il trasformato di x = y + v sotto l’applicazione affine A : A → A si ottiene sommando all’immagine del punto y, A (y) , il vettore LA (v) . Il termine A (y) è detto parte affine, mentre LA (v) è la parte lineare di A. Nel seguito la parte lineare LA della applicazione affine A verrà denotata semplicemente con L

14.3

Continuità e differenziabilità. Campi.

Sia E uno spazio puntuale euclideo e V il suo spazio delle traslazioni. Diremo distanza tra due punti x, y ∈ E l’applicazione d : (x, y) ∈ E × E →d (x, y) ∈ IR, (14.33) definita in termini del prodotto scalare introdotto in V : p d (x, y) := (x − y) · (x − y).

(14.34)

Si noti che la distanza tra due punti x ed y di E corrisponde al modulo del vettore (x − y) ∈ V. Diremo sfera aperta di raggio ε centrata in x0 ∈ E il sottoinsieme di E Bε (x0 ) := {x : d (x, y) < ε} ,

ε > 0,

(14.35)

dei punti aventi distanza da x0 minore di un dato reale positivo ε. Analogamente, diremo sfera chiusa di raggio ε il sottoinsieme di E B ε (x0 ) := {x : d (x, y) ≤ ε} , ε > 0. (14.36) 2 Risulta

ovviamente dalla definizione che A (y) = z.

146

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Un intorno di un punto x ∈ E è un insieme contenente almeno una sfera aperta centrata in x. Relativamente ad un sottoinsieme U di E diremo punto interno, punto esterno e punto di frontiera rispettivamente un punto che possegga almeno un intorno completamente contenuto in U, un punto che possegga almeno un intorno non contenente nessun punto di U ed infine un punto avente tutti gli intorni contenenti almeno un punto di U ed almeno un punto non appartenente ad U. La totalità dei punti interni è detta interno, mentre la totalità dei punti di frontiera è detta frontiera. Il sottoinsieme U è aperto se coincide con il suo interno, è limitato se è incluso in almeno una sfera aperta ed è connesso se ogni coppia di punti in esso contenuti può essere congiunta con una curva continua completamente contenuta in U. Un dominio di E è un sottoinsieme di E aperto e connesso ed una regione di E è un sottoinsieme connesso di E il cui interno è non vuoto e che contiene la sua frontiera. Siano E, E0 due spazi puntuali euclidei e sia U ⊂ E un aperto. Una applicazione

ha limite

f : U → E0 ,

(14.37)

d (x, x0 ) < δ (x0 , ε) ⇒ d0 (f (x) , ) < ε.

(14.38)

in x0 ∈ E se ∀ε > 0 ∃δ (x0 , ε) > 0 :

Nella precedente d e d0 denotano rispettivamente le distanze in E ed E0 . La applicazione f è continua in x0 se lim f (x) = f (x0 ) . (14.39) x→x0

Diremo che f è continua in U se è continua in ogni punto x ∈ U. Proposizione 205 Siano E, E0 , E00 tre spazi puntuali euclidei ed U ⊂ E, U0 ⊂ E0 due aperti. Siano inoltre f : U → U0 ,

g : U0 → E00 ,

(14.40)

h := g ◦ f,

(14.41)

due applicazioni continue. L’applicazione composta h : U → E00 , è continua. Dimostrazione Dall’ipotesi che f sia continua si ha che ∀ε > 0 ∃δ (x0 , ε) > 0 : per ogni x, x0 ∈ U. Sia poi

d (x, x0 ) < δ (x0 , ε) ⇒ d0 (f (x) , f (x0 )) < ε, x0 = f (x) ∈ U0 ,

(14.42) (14.43)

il valore della funzione f in x. Dall’ipotesi che g sia continua discende che ∀ε0 > 0 ∃δ 0 (x00 , ε0 ) > 0 :

d0 (x0 , x00 ) < δ 0 (x00 , ε0 ) ⇒ d00 (g (x0 ) , g (x00 )) < ε0 ,

(14.44)

avendo indicato con d00 la distanza in E00 . Combinando le precedenti espressioni si ottiene ∀ε > 0 ∃δ (x0 , ε) > 0 :

d (x, x0 ) < δ (x0 , ε) ⇒ d00 (g (f (x)) , g (f (x0 ))) < ε,

(14.45)

d (x, x0 ) < δ (x0 , ε) ⇒ d00 (h (x) , h (x0 )) < ε.

(14.46)

ovvero, dalla definizione di h ∀ε > 0 ∃δ (x0 , ε) > 0 :

Consideriamo di nuovo due spazi puntuali euclidei E, E0 ed i rispettivi spazi delle traslazioni V, V0 . Sia inoltre U ⊂ E un aperto; una applicazione f : U → E0 , (14.47)

è differenziabile in x ∈ U se esiste una trasformazione lineare Lf,x ∈ Hom (V, V0 ) tale che f (x + v) = f (x) + Lf,x (v) + o (x, v) , dove lim

v→0

o (x, v) = 0. |v|

∀v ∈ V,

(14.48)

(14.49)

14.3. CONTINUITÀ E DIFFERENZIABILITÀ. CAMPI.

147

Proposizione 206 l’applicazione Lf,x di cui alla (14.48) è unica. Dimostrazione Supponiamo che esistano due applicazioni lineari Lf,x ed Lf,x soddisfacenti la (14.48). Sottraendo le due espressioni corrispondenti si ottiene £ ¤ (14.50) Lf,x − Lf,x (v) = o (x, v) − o (x, v) , ∀v ∈ V,

v il corrispondente vettore di modulo unitario Utilizzando la linerità di Lf,x ed α Lf,x , dalla (14.49) discende che Sia ora |v| = α 6= 0 e sia u =

¤ £ ¤ £ o (x, v) − o (x, v) = 0, Lf,x − Lf,x (u) = lim Lf,x − Lf,x (u) = lim v→0 v→0 α ∀u ∈ V : |u| = 1.

(14.51)

La precedente implica che Lf,x = Lf,x . Se f è differenziabile in ogni punto del suo dominio U, è possibile definire l’applicazione gradf : U →Hom (V, V0 ) ,

(14.52)

detta gradiente di f e definita da gradf (x) := Lf,x , 1

x ∈ U.

(14.53) k

Se gradf è continua in U, allora f è di classe C . In generale, f è di classe C , k > 0, se è di classe C k−1 e k−1

se il suo (k − 1) esimo gradiente, gradf, è di classe C 1 . Se f ∈ C k (U) ha inversa f −1 che pure è di classe C k in f (U) , allora f è detta C k diffeomorfismo. Se f è differenziabile in x, sostituendo nella (14.48) v con τ v, τ > 0, segue che (si tenga presente che Lf,x è lineare) f (x + τ v) − f (x) o (x, τ v) Lf,x (v) = − . (14.54) τ τ Dalla (14.49) si ha inoltre che o (x, τ v) = 0, (14.55) lim τ →0 τ da cui ¯ ¯ d f (x + τ v) − f (x) , ∀v ∈V. (14.56) ≡ f (x + τ v)¯¯ Lf,x (v) = lim τ →0 τ dτ τ =0 La precedente vale per ogni v ∈V in quanto è sempre possibile scegliere τ sufficientemente piccolo affinché (x + τ v) ∈ U. Se f ∈ C 1 (U) , ovvero è differenziabile in ogni punto x ∈ U, è possibile riscrivere la (14.56) come ¯ ¯ d [gradf (x)] (v) = , ∀v ∈V. (14.57) f (x + τ v)¯¯ dτ τ =0 Una applicazione f : U →IR, dove U ⊂ E è un aperto, è detta campo scalare in U. Analogamente, f : U →V è detta campo vettoriale ed F : U → Tp (V) è detta campo tensoriale di ordine totale p (vedi Capitolo 12). La nozione di campo appena introdotta non va ovviamente confusa con la omonima struttura algebrica. Un campo è quindi in definitiva una funzione di punto a valori in un dato spazio tensoriale. Assumendo che il lettore sia familiare con la regola di derivazione delle funzioni composte ne considereremo, attraverso la seguente proposizione della quale si omette la dimostrazione, una forma che si presta ad essere utilizzata nelle applicazioni che verranno sviluppate nei prossimi capitoli. Siano dunque E, G, F spazi puntuali euclidei finito-dimensionali e C ⊂ G, D ⊂ E sottoinsiemi aperti di G ed E rispettivamente. Si considerino le applicazioni g : D → G, f : C → F, (14.58) con

Im g ⊂ C.

(14.59)

Proposizione 207 Sia g differenziabile in x ∈ D e sia f differenziabile in y = g (x) ∈ C. Allora la funzione composta h = f ◦ g, (14.60) è differenziabile in x ed il suo gradiente è dato da

gradh (x) = gradf (y) ◦ gradg (x) ,

(14.61)

ovvero, più esplicitamente [gradh (x)] (v) = [gradf (g (x))] ([gradg (x)] (v)) ,

∀v ∈ E.

(14.62)

148

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Chiudiamo la sezione enunciando la seguente proposizione, attraverso la quale si ricava una condizione di esistenza della inversa locale di una applicazione sufficientemente regolare. Come vedremo, tale risultato risulterà cruciale nello studio delle deformazioni dei corpi modellati come continui. Proposizione 208 Sia f : U → E0 una applicazione di classe C k e si assuma che gradf (x0 ) , x0 ∈ U, sia un isomorfismo. Allora esiste un intorno U0 di x0 tale che la restrizione di f ad U0 è un C k diffeomorfismo. Si ha inoltre gradf −1 (f (x0 )) = [gradf (x0 )]−1 . (14.63) Si rimanda ai testi di analisi matematica per la dimostrazione della precedente proposizione.

14.4

Sistemi di coordinate e varietà affini.

Sia E uno spazio puntuale euclideo di dimensione n. Si definisce C k -carta in x ∈ E una coppia (U, zb) , dove U ⊂ E è un aperto contenente x e zb : U →IRn , (14.64) è un C k diffeomorfismo. Data una carta (U, zb), risultano determinati n campi scalari

tali che

zb i : U →IR,

i = 1, 2, ..., n,

¢ ¡ zb (x) = zb 1 (x) , zb 2 (x) , ..., zb n (x) ,

∀x ∈ U.

(14.65)

(14.66)

Gli n campi scalari appena introdotti sono le funzioni coordinate della carta, e la applicazione zb è anche detta sistema di coordinate su U. Dati due aperti U1 ⊂ E ed U2 ⊂ E tali che U1 ∩ U2 6= ∅, e due carte (U1 , zb) , (U2 , yb) è determinata la applicazione cambiamento di coordinate e la sua inversa Essendo

yb ◦ zb −1 : zb (U1 ∩ U2 ) → yb (U1 ∩ U2 ) , zb ◦ yb −1 : yb (U1 ∩ U2 ) → zb (U1 ∩ U2 ) . ¡ ¢ yb (x) = yb 1 (x) , ..., yb n (x) ,

è lecito scrivere il cambiamento di coordinate nella forma ¢ ¢ ¡ 1 ¡ yb (x) , ..., yb n (x) = yb ◦ zb −1 zb 1 (x) , ..., zb n (x) , ed analogamente per la sua inversa ¢ ¢ ¡ ¡ 1 zb (x) , ..., zb n (x) = zb ◦ yb −1 yb 1 (x) , ..., yb n (x) . ovvero, definendo i valori delle funzioni yb ◦ zb −1 e zb ◦ yb −1 in x y i := yb i (x) ,

z i := zb i (x) ,

(14.67)

(14.68) (14.69)

(14.70)

(14.71)

(14.72)

ed indicando impropriamente con lo stesso simbolo le funzioni stesse, introduciamo la notazione semplificata ¡ ¢ ¡ ¢ (14.73) y i = y i z j , z i = z i y j , i, j = 1, 2, ..., n.

¢ ¡ ¢ ¡ Le due n−ple y 1 , ..., y n e z 1 , ..., z n sono le coordinate del punto x ∈ U1 ∩ U2 , e ciascuna di esse è un campo scalare definito nell’aperto U1 ∩ U2 . Poiché zb è un diffeomorfismo, l’equazione (14.66) riscritta nella forma ¡ ¢ zb (x) = z 1 , ..., z n , (14.74) può essere invertita

avendo introdotto il diffeomorfismo inverso

¡ ¢ x=x e z 1 , ..., z n , x e : zb (U) → U.

(14.75)

(14.76)

14.4. SISTEMI DI COORDINATE E VARIETÀ AFFINI.

149

Sia I un insieme. Un C k −atlante in E è una famiglia, non necessariamente numerabile, di C k −carte {(Uα , zbα ) , α ∈ I} tale che la famiglia di aperti {Uα , α ∈ I} sia un ricoprimento per E, ovvero tale che risulti E = ∪ Uα .

(14.77)

α∈I

Diremo C k -varietà affine euclidea uno spazio puntuale euclideo dotato di un C k -atlante. Una curva C ∞ in E è una applicazione di classe C ∞ : γ : (a, b) → E,

(14.78)

dove (a, b) è un aperto di IR. Sia x0 ∈ E; una curva C ∞ passa per il punto x0 se ∃c ∈ (a, b) : γ (c) = x0 .

(14.79)

Assegnata una carta (U, zb) e dato un punto x0 ∈ U, la j−esima curva coordinata passante per il punto x0 è la curva γ j definita da ³ ´ e z01 , ..., z0j−1 , z0j + t, z0j+1 , ..., z0n , (14.80) γ j (t) = x per ogni t tale che

³ ´ z01 , ..., z0j−1 , z0j + t, z0j+1 , ..., z0n ∈ zb (U) .

(14.81)

Nelle precedenti espressioni si è introdotto z0i = zb i (x0 ) . Il sottoinsieme di U definito da z j = zb j (x) = cost,

(14.82)

è detto j−esima superficie coordinata della carta.

14.4.1

Alcuni sistemi di coordinate nelle varietà affini euclidee.

Introdurremo ora alcuni sistemi di coordinate nelle varietà ¡ euclidee¢ che risultano di interesse nelle applicazioni. Si consideri una varietà affine euclidea e sia B = b1 , ..., bn una base dello spazio delle traslazioni V. Definiamo gli n campi vettoriali costanti bj : x ∈ E 7→bj (x) = bj ∈ V,

j = 1, ..., n,

(14.83)

avendo indicato con lo stesso simbolo la funzione ed il valore da essa assunto in x. Sia poi o un dato punto di E; si definisce sistema di coordinate cartesiane in E la n-pla di campi scalari zb 1 , ..., zb n tali che z j = zb j (x) = (x − o) · bj ,

x ∈ E.

(14.84)

Se la base B è ortonormale, il corrispettivo sistema di coordinate è detto cartesiano rettangolare. Il punto o è detto origine del sistema di coordinate, ed il campo vettoriale r : E →V definito da r (x) = x − o,

∀x ∈ E,

(14.85)

è detto campo vettore posizione rispetto all’origine o. Il suo valore è appunto il vettore posizione del punto x rispetto all’origine o. Sia poi B0 = (b1 , ..., bn ) la base di V reciproca della B (cfr. Capitolo 12 per la definizione di base reciproca); la (14.84) implica la seguente catena di uguaglianze ¡ ¢ x−o=x e z 1 , ..., z n − o = r (x) = zb j (x) bj , (14.86) dove il prodotto tra il campo scalare zbj ed il campo vettoriale costante bj è definito puntualmente, ovvero £ j ¤ zb bj (x) := zb j (x) bj (x) , (14.87)

per ogni x appartenente all’intersezione dei domini dei campi zbj e bj . La (14.86) permette di esprimere la (14.84) nella forma equivalente zb j = r · bj , (14.88)

dove il prodotto scalare tra i due campi vettoriali r e bj è definito puntualmente ³ ´nello stesso senso specificato 1

n

dalla (14.87). Come esempio illustrativo si consideri una base B = b , ..., b come i b = Qij bj ,

di V ottenuta dalla base B

(14.89)

150

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

dove Qij è una matrice rettangolare a rango massimo, e sia o un dato punto di E. La (14.84) porge j

j

z j = (x − o) · b = [(x − o) + (o − o)] · b j

j

= (x − o) · b + (o − o) · b

j

= Qjk (x − o) · bk + (o − o) · b = Qjk z k + cj ,

(14.90) j

j avendo utilizzato la linearità del prodotto scalare, la (14.89) ed avendo £ i ¤ introdotto le n costanti c = (o − o)·b . Se le basi B e B sono entrambe ortonormali allora la matrice Qj è ortogonale. Si noti che i sistemi di coordinate coinvolti hanno come dominio l’intero spazio E. Poiché ogni spazio vettoriale dotato di prodotto scalare possiede sempre una base ortonormale, è comunque possibile associare ad ogni punto di E considerato come origine un sistema di coordinate cartesiane rettangolari. ¡ ¢ Dato un sistema di coordinate cartesiane rettangolari, z 1 , ..., z n , è possibile caratterizzare un sistema di coordinate generali o curvilinee considerando una carta (U, yb) ed il cambiamento di coordinate da zb ad yb, tenendo presente che in questo caso l’intersezione dei domini dei diffeomorfismi zb ed yb è dato da U ∩ E = U, dove U può essere un sottoinsieme proprio di E. Si ha quindi ¡ 1 ¢ ¡ 1 ¢ n −1 n ¡z 1 , ..., z n ¢ = zb ◦ yb −1 ¡y 1, ..., y n ¢ , (14.91) z , ..., z , y , ..., y = yb ◦ zb

dove zb ◦ yb −1 : yb (U) → zb (U) e yb ◦ zb −1 : zb (U) → yb (U) sono diffeomorfismi. Si consideri ad esempio un sistema di coordinate cilindriche in uno spazio puntuale euclideo tridimensionale; in questo caso si ha n = 3 e la precedente equazione (14.91)1 assume la forma ¡ 1 2 3¢ ¡ 1 ¢ z , z , z = y cos y 2 , y 1 sin y 2 , y 3 . (14.92) Affinché la precedente sia l’espressione di un cambiamento di coordinate, è necessario che le trasformazioni zb ◦ yb −1 e yb ◦ zb −1 siano C ∞ . La restrizione della funzione zb ◦ yb −1 all’insieme V := (0, ∞) × [0, 2π) × (−∞, ∞) ,

è C ∞ ed è biettiva. Inoltre la trasformazione inversa ¶ µq ¡ 1 2 3¢ z2 2 2 (z 1 ) + (z 2 ) , tan−1 1 , z 3 , y ,y ,y = z

(14.93)

(14.94)

risulta di classe C ∞ in tutto IR3 . Di conseguenza se abbiamo scelto come insieme di definizione del sistema di coordinate yb un generico sottoinsieme U di IR3 si ha che yb (U) ⊂ V.

(14.95)

Per il sistema di coordinate cilindriche, le linee coordinate y 1 sono ¢ passanti per l’origine, le linee co¡ rette ordinate y 2 sono circonferenze giacenti su piani paralleli al piano z 1 , z 2 e le linee coordinate y 3 sono rette coincidenti con z 3 . Le superfici y 1 = cost sono cilindri circolari aventi i generatori paralleli all’asse z 3 ; le 2 3 3 ¡superfici ¢ y = cost sono piani contenenti l’asse z mentre le superfici y = cost sono piani paralleli al piano 1 2 z ,z . Un sistema di coordinate sferiche in uno spazio puntuale euclideo tridimensionale è invece caratterizzato dal cambiamento di coordinate ¡ 1 2 3¢ ¡ 1 ¢ z , z , z = y sin y 2 cos y 3 , y 1 sin y 2 sin y 3 , y 1 cos y 2 , (14.96) dove y 2 è detta colatitudine ed y 3 è detta longitudine. La restrizione della funzione zb ◦ yb −1 all’insieme V := (0, ∞) × [0, π) × [0, 2π) ,

è di classe C ∞ e biettiva, e la trasformazione inversa ⎞ ⎛ q 2 3 ¡ 1 2 3¢ z z 2 2 2 ⎠, y , y , y = ⎝ (z 1 ) + (z 2 ) + (z 3 ) , tan−1 1 , cos−1 q z 2 2 2 1 2 3 (z ) + (z ) + (z )

(14.97)

(14.98)

è di classe C ∞ in tutto IR3 . Per questo sistema di coordinate le linee y 1 sono rette passanti per l’origine, le linee coordinate y 2 sono circonferenze di raggio y 1 giacenti¡su un ¢piano contenente l’asse z 3 dette meridiani e le linee coordinate y 3 sono circonferenze parallele al piano z 1 , z 2 dette paralleli. ¡Le superfici y 1 = cost sono ¢ 1 2 1 2 superfici sferiche di raggio y ; le superfici y = cost sono piani paralleli al piano z , z mentre le superfici y 3 = cost sono piani contenenti l’asse z 3 .

14.4. SISTEMI DI COORDINATE E VARIETÀ AFFINI.

14.4.2

151

Basi naturali e basi anolonome.

Si considerino le leggi di trasformazione (14.73). Sostituendo la seconda nella prima e differenziando si ottiene: ∙ i ¸∙ ¸ ¢ ∂z j ¡ 1 ¢ ∂y ¡ 1 ∂ £ i ¡ j ¡ k ¢¢¤ n n , ..., z , ..., y (14.99) y z y = z y = δ ik , ∂z j ∂z j ∂y k

ed analogamente, sostituendo la prima nella seconda: ∙ i ¸∙ ¸ ¢ ∂y j ¡ 1 ¢ ∂z ¡ 1 n n , ..., y , ..., z y z = δ ik . ∂y j ∂z k

(14.100)

Le precedenti stabiliscono che le trasformazioni (14.73) sono non singolari in quanto i determinanti delle matrici Jacobiane ad esse associate sono non nulli: ∙ i ¸ µ ∙ j ¸¶ ¢ ¢ −1 ∂y ¡ 1 ∂z ¡ 1 n n det , ..., z , ..., y 6= 0. (14.101) z = det y ∂z j ∂y k

Si consideri ora una carta (U, zb) in E, e sia

gi := gradb z i,

(14.102)

il gradiente della i−esima funzione coordinata della introdotta carta. Le funzioni gi , i = 1, 2, ..., n, sono evidentemente campi vettoriali di classe C ∞ in U. Ricordando la definizione (14.82), la (14.102) implica che, dato x ∈ U, gi (x) è un vettore dello spazio delle traslazioni V normale alla i−esima superficie coordinata della carta (U, zb) . Partendo dalla (14.75) definiamo n campi vettoriali g1 , g2 , ..., gn in U come: ¡ ¢ ¡ ¢ x e z 1 , ..., z i + t, ..., z n − x e z 1 , ..., z n gi (x) := lim t→0 τ ¢ ∂e x ¡ 1 (14.103) = i z , ..., z n , ∀x ∈ U, i = 1, 2, ..., n. ∂z Dalla definizione (14.80) si ha che gi (x) è un vettore di V tangente alla i−esima curva coordinata della carta (U, zb) . Ricordando che ¡ ¡ 1 ¢¢ z i = zb i x e z , ..., z n , (14.104)

dalla regola di derivazione della funzione composta, insieme alle (14.102), (14.103) si ottiene ∂e x ∂z i = δ ij = gradb z i j = gi · gi . j ∂z ∂z

(14.105)

Proposizione 209 L’insieme {g1 (x) , g2 (x) , ..., gn (x)} è formato da vettori linearmente indipendenti in V, per ogni x ∈ U. Dimostrazione Sia x ∈ U, e sia α1 g1 (x) + α2 g2 (x) + ... + αn gn (x) = 0,

(14.106)

la combinazione lineare dei vettori g1 (x) , g2 (x) , ..., gn (x) secondo i coefficienti reali α1 , ..., αn . Considerando il prodotto scalare con il vettore gi (x) ed utilizzando la (14.105) si ottiene: αi = 0,

i = 1, 2, ..., n,

(14.107)

onde l’asserto. Essendo dim V = n, dalla precedente proposizione discende immediatamente che G = (g1 (x) , g2 (x) , ..., gn (x)) , è una base di V e che

¡ ¢ G 0 = g1 (x) , g2 (x) , ..., gn (x) ,

(14.108) (14.109)

è la sua base reciproca in V (cfr. Capitolo 12). Le due basi appena introdotte sono dette basi naturali di zb in x. Qualunque altra base non ottenibile come nelle (14.102), (14.103) è detta anolonoma o non integrabile.

152

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

La base fisica relativa al sistema di coordinate zb in x è una particolare base anolonoma. Essa è costituita dai versori ghii (x) , i = 1, 2, ..., n, (14.110) diretti come i vettori della base naturale G relativa ad un sistema di coordinate ortogonali. Data dunque una carta (U, zb) , con zb ortogonale, si ha −1

ghii (x) = kgi (x)k

gi (x) ,

∀x ∈ U.

(14.111)

Poiché G è in questo caso ortogonale, segue che la base fisica è ortonormale: ghii · ghji = δ ij .

(14.112)

Dalla precedente discende la seguente espressione dei vettori della base fisica nei termini della base G 0 : ° °−1 ghii (x) = °gi (x)° gi (x) ,

∀x ∈ U.

(14.113)

Si noti che a prescindere dalle dimensioni fisiche delle coordinate che generano le basi naturali, i vettori della relativa base fisica sono adimensionali. Il vantaggio di rappresentare una grandezza tensoriale nella base fisica risiede dunque nel fatto che tutte le componenti sono dimensionalmente omogenee. Vogliamo ora determinare la legge di trasformazione per il cambiamento di base naturale associato ad un cambiamento di coordinate. Siano a tal fine (U1 , zb) e (U2 , yb) due carte tali che E ⊃ U1 ∩ U2 6= ∅, e sia y i. hi = gradb

(14.114)

Dalle (14.73), (14.102) si ha

ed analogamente

y i (x) hi (x) = gradb ∙ i ¸ ¢ ∂y ¡ 1 n = z , ..., z gradb z j (x) ∂z j ∙ i ¸ ¢ j ∂y ¡ 1 n = z , ..., z g (x) , ∀x ∈ U1 ∩ U2 , ∂z j hi (x) =



¸ ¢ ∂z i ¡ 1 n , ..., y y gj (x) , ∂y j

∀x ∈ U1 ∩ U2 ,

le quali forniscono le ricercate leggi di trasformazione. Data una carta (U, zb) , sono individuati i 2n2 campi scalari

(14.115)

(14.116)

gij : U →IR, g ij : U →IR, i, j = 1, 2, ..., n,

(14.117)

gij (x) := gi (x) · gj (x) = gji (x) , g ij (x) := gi (x) · gj (x) = g ji (x) ,

(14.118)

definiti come ∀x ∈ U.

Riprendendo le definizioni date nella sezione 12.1 si ha che i campi scalari appena introdotti sono rispettivamente le componenti covarianti e controvarianti del campo tensoriale 1I : E → T2 (V) ,

(14.119)

di ordine totale 2, il cui valore nel punto x ∈ U è il tensore identico o tensore metrico: 1I=gij gi ⊗ gj = gj ⊗ gj = gj ⊗ gj = g ij gi ⊗ gj .

(14.120)

La precedente mostra che in generale le componenti di un campo tensoriale costante non sono in generale campi scalari costanti. Ciò è risulta vero solo in coordinate cartesiane. Si ha inoltre che dalla (14.100) risulta

e

£ ¤−1 , gij (x) = g ij (x) gi = g ij gj ,

∀x ∈ U,

gi = gij gj .

(14.121)

(14.122)

14.5. LA DERIVATA COVARIANTE.

153

Nel punto x ∈ U, definiamo l’elemento di arco ds come ds2 = dx · dx, avendo introdotto il vettore dello spazio delle traslazioni ¸ ∙ ∂e x (b z (x)) dz j , dx = ∂z j

(14.123)

(14.124)

(cfr. la (14.75)). Utilizzando le (14.103), (14.118)1 , la precedente può essere riscritta come ds2 = gij (x) dz i dz j .

(14.125)

Date poi due carte (U1 , zb) , (U2 , yb) con U1 ∩ U2 6= ∅, nel punto x ∈ U1 ∩ U2 si ha:

hi (x) · hj (x) = hij (x) ¸∙ ¸ ∙ k ¢ ∂z m ¡ 1 ¢ ∂z ¡ 1 n n y , ..., y y , ..., y gkm (x) . = ∂y i ∂y j

(14.126)

La precedente espressione fornisce un utile strumento di calcolo per gkm (x) qualora il sistema di coordinate zb sia cartesiano. Infatti, considerando ad esempio la trasformazione (14.91)1 si ha ∙ k ¸∙ ¸ ¢ ∂z k ¡ 1 ¢ ∂z ¡ 1 n n gij (x) = y , ..., y y , ..., y , (14.127) ∂y i ∂y j essendo, per i sistemi di coordinate cartesiane

∀x ∈ U1 ∩ U2 .

hij (x) = δ ij ,

Così, per il sistema di coordinate cilindriche definito dalle trasformazioni (14.92) si ha ⎞ ⎛ 1 0 0 ¡ 1 ¢2 [gij ] = ⎝0 y 0⎠ , 0 0 1

(14.128)

(14.129)

ds2 = (dy 1 )2 + (y 1 dy 2 )2 + (dy 3 )2 ,

mentre per le coordinate sferiche (14.96) si ha ⎛ 1 0 ⎜ ¡ ¢2 [gij ] = ⎝0 y 1 0 0

⎞ 0 ⎟ 0 ⎠, ¡ 1 ¢ 2 2 y sin y

(14.130)

ds2 = (dy 1 )2 + (y 1 dy 2 )2 + (y 1 sin y 2 dy 3 )2 ,

ed entrambi risultano evidentemente essere ortogonali.

14.5

La derivata covariante.

In questa sezione ci proponiamo di rappresentare il gradiente di un campo tensoriale nei termini delle sue componenti nella base naturale associata ad una arbitraria carta. Nel contesto dell’analisi tensoriale, l’operatore gradiente è anche noto come derivata covariante, per cui l’operazione che consiste nell’eseguire il gradiente di un campo tensoriale è detta derivazione covariante dello stesso. Sia γ : (a, b) → E, (14.131) una curva regolare passante per il punto x, ovvero x = γ (c) ,

c ∈ (a, b) .

Data una carta (U, zb) , consideriamo le coordinate della curva γ in tale carta: ¢ ¡ zb (γ (t)) = γ 1 (t) , γ 2 (t) , ..., γ n (t) ,

(14.132)

(14.133)

154 cosicché

CAPITOLO 14. CENNI DI ANALISI TENSORIALE ¡ ¢ γ (t) = x e γ 1 (t) , γ 2 (t) , ..., γ n (t) ,

∀t : γ (t) ∈ U.

(14.134)

Differenziando rispetto a t si ottiene:

γ| ˙ x=

¯ ¯ ∂e x dγ j ¯¯ dγ j ¯¯ = gj (x) , ∂z j dt ¯t=c dt ¯t=c

(14.135)

avendo utilizzato la (14.103). La precedente è la proiezione della curva γ nella base naturale {gj } associata alla carta (U, zb) ; essa afferma che le componenti di γ˙ in tale base sono date dalle derivate delle coordinate di γ in zb. In effetti, si può notare che la (14.103) è un caso particolare della (14.135) quando γ coincide con una delle curve coordinate. Si consideri ora una applicazione regolare f : U →IR,

(14.136)

dove U è un aperto dello spazio puntuale affine E. Il suo gradiente nel punto x ∈ U è dato dalla (cfr. la (14.57)): ¯ ¯ d [gradf (x)] · v = , ∀v ∈V, (14.137) f (x + τ v)¯¯ dτ τ =0

avendo indicato con V lo spazio delle traslazioni di E. Scelta una carta (U, zb) , diremo rappresentazione coordinata di f in tale carta la funzione f ◦x e : IRn → IR,

(14.138)

tale che f possa rappresentarsi come (cfr. la (14.75)): ¢ ¡ ¢ ¡ f (x) = f ◦ x e z 1 , ..., z n ≡ f z 1 , ..., z n . Essendo

¡ ¢ f (x + τ v) = f z 1 + τ v 1 , ..., z n + τ v n ,

il secondo membro della (14.137) può riscriversi come ¯ ¯ d ∂f (x) j = v , f (x + τ v)¯¯ dτ ∂z j τ =0

(14.139)

(14.140)

(14.141)

ovvero, dalla arbitrarietà di v:

∂f j g , ∂z j

(14.142) © jª dove g è la base naturale associata alla carta (U, zb). Si noti che la precedente equazione è una generalizzazione della (14.102), riducendosi a questa ultima nel caso in cui f coincida con una delle funzioni coordinate zbj . Avendo come bagaglio la definizione della tangente ad una curva e del gradiente di una funzione a valori reali, passiamo ora alla rappresentazione del gradiente di un campo tensoriale di ordine qualunque. Denoteremo ∞ con T∞ di ordine totale p definiti nell’aperto U ⊂ E : p (U) l’insieme dei campi tensoriali C gradf =

T∞ p (U) := {T : x ∈ U 7→T (x) ∈ Tp (V) ,

∀x ∈ U} .

(14.143)

La somma dei due elementi di T∞ p (U) T :U → Tp (V) ,

U :U → Tp (V) ,

(14.144)

è il campo tensoriale C ∞ di ordine totale p T + U :U → Tp (V) ,

(14.145)

definito come [T + U] (x) = T (x) + U (x) , Considerata poi la funzione di classe C

∀x ∈ U.

(14.146)



f : U →IR,

(14.147)

14.5. LA DERIVATA COVARIANTE.

155

è individuato il prodotto f T ∈T∞ p (U): [f T] (x) = f (x) T (x) ,

∀x ∈ U.

(14.148)

Le componenti covarianti del campo tensoriale T :U → Tp (V) rispetto alla carta (U1 , zb) sono gli np campi scalari Ti1 ...ip : U1 ∩ U →IR, (14.149) definiti come

¡ ¢ Ti1 ...ip (x) = [T (x)] gi1 (x) , ..., gip (x) ,

∀x ∈ U1 ∩ U,

(14.150)

i1 , .., ip = 1, 2, ..., n,

(14.151)

per cui il campo tensoriale T ammette la rappresentazione T =Ti1 ...ip gi1 ⊗ · · · ⊗ gip ,

∀x ∈ U1 ∩ U,

nella base prodotto associata alla base naturale di zb. b) una carta. Il gradiente di T nel punto x è Sia T ∈T∞ p (U) un campo tensoriale, x un punto di U ed (U, z l’applicazione lineare gradT (x) ∈ Hom (V, Tp (V)) , (14.152) data da (cfr. la (14.57)):

¯ ¯ d [gradT (x)] (v) = , T (x + τ v)¯¯ dτ τ =0

∀v ∈ V.

(14.153)

Considerando quindi la rappresentazione coordinata di T nella carta (U, zb) , ovvero la funzione T◦e x : IRn → Tp (V) ,

si ha

ovvero

¯ ∙ ¸ ¯ ¡ 1 ¢ i ∂T (x) i ∂ d n ¯ = T◦e x z , ..., z v, v = T (x + τ v)¯ dτ ∂z i ∂z i τ =0

∂T (x) i v, ∂z i Data l’arbitrarietà di v, è possibile scegliere v = gi (x) , da cui [gradT (x)] (v) =

[gradT (x)] (gi (x)) =

∀v ∈ V,

∀v ∈ V.

∂T (x) . ∂z i

(14.154)

(14.155)

(14.156)

(14.157)

Osservando infine che, in virtù della proposizione 145, gli spazi Tp+1 (V) ed Hom (V, Tp (V)) (V può infatti riguardarsi come T1 (V)), il gradiente di T nel punto x è equivalentemente il tensore di Tp+1 (V) dato da gradT (x) =

∂T (x) ⊗ gi (x) , ∂z i

(14.158)

dalla quale si evince che gradT ∈T∞ p+1 (U), ovvero che esso è un campo tensoriale di ordine totale p + 1 definito in U. La rappresentazione di gradT (x) ∈ Tp+1 (V) nella base prodotto di Tp+1 (V) ª © (14.159) gi1 (x) ⊗ · · · ⊗ gip (x) ⊗ gip+1 (x) , i1 , ..., ip+1 = 1, 2, ..., n, generata dalla base naturale relativa alla carta (U, zb) è

gradT (x) = [gradT (x)]i1 ...ip ip+1 gi1 (x) ⊗ · · · ⊗ gip (x) ⊗ gip+1 (x) ,

(14.160)

la quale, confrontata con la (14.158) fornisce la seguente espressione per le n derivate parziali di T (x) lungo le curve coordinate di zb : ∂T (x) i ...i = [gradT (x)] 1 p ip+1 gi1 (x) ⊗ · · · ⊗ gip (x) , ∂z ip+1

∀ip+1 = 1, 2, ..., n.

(14.161)

Nelle applicazioni risulta sovente utile, al fine di compiere alcuni calcoli, rappresentare le componenti di gradT (x) in una data carta nei termini delle componenti di T (x) nella stessa carta. Scelta dunque una carta (U, zb) si ha T (x) =T i1 ...ip (x) gi1 (x) ⊗ · · · ⊗ gip (x) , (14.162)

156

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

ed il primo membro della (14.161) può essere riscritto come ∂T (x) ∂T i1 ...ip (x) = gi (x) ⊗ · · · ⊗ gip (x) i p+1 ∂z ∂z ip+1 ∙ 1 ¸ ∂gip (x) ∂gi1 (x) i1 ...ip (x) ⊗ · · · ⊗ gip (x) + · · · + gi1 (x) ⊗ · · · ⊗ . +T ∂z ip+1 ∂z ip+1

(14.163)

Dalla (14.161) con T =gi si ottiene ∂gi (x) k ∂gi (x) = [gradgi (x)]k j gk (x) =⇒ [gradgi (x)]k j = · g (x) . ∂z j ∂z j Introducendo i simboli di Christoffel associati alla carta (U, zb) con la definizione Γij k :=

∂gi k ·g , ∂z j

(14.164)

(14.165)

le derivate parziali dei vettori della base naturale covariante possono esprimersi come ∂gi = Γij k gk . ∂z j

(14.166)

Utilizzando la (14.103) si ha Γij k =

∂2x e · gk = Γji k , i ∂z ∂z j

(14.167)

la quale afferma la simmetria dei simboli di Christoffel rispetto agli indici i e j. Al fine di ottenere una formula che risulti maneggevole per il calcolo di Γijk , si consideri la derivata parziale delle componenti covarianti del tensore metrico: ∂ ∂gi ∂gj ∂gij = k (gi · gj ) = k · gj + k · gi ∂z k ∂z ∂z ∂z = Γik h gh · gj + Γjk h gh · gi = Γik h ghj + Γjk h ghi ,

(14.168)

dalla quale si ottiene ∂gij = Γik h ghj + Γjk h ghi , ∂z k ∂gik = Γij h ghk + Γkj h ghi , ∂z j ∂gkj = Γki h ghj + Γji h ghk . ∂z i

(14.169)

Sottraendo infine la (14.169)1 alla somma delle (14.169)2 , (14.169)3 e tenendo conto della simmetria (14.167) si ha: ∂gjk ∂gij ∂gik + − = 2 Γij h ghk , (14.170) ∂z j ∂z i ∂z k ovvero µ ¶ 1 hk ∂gik ∂gjk ∂gij h + − , (14.171) Γij = g 2 ∂z j ∂z i ∂z k attraverso la quale si possono calcolare i simboli di Christoffel relativi ad un dato sistema di coordinate a partire dalle componenti del tensore metrico associato alle stesse coordinate. Per le coordinate cilindriche (14.92), utilizzando la (14.171) si trova che gli unici due simboli di Christoffel non nulli sono Γ22

1

Γ12

2

¡ ¢2 µ ¶ 1 11 ∂g22 1 ∂ y1 = g = −y 1 , − 1 =− 2 ∂y 2 ∂y 1 µ ¶ 1 ∂g22 1 = Γ21 2 = g 22 = 1, 1 2 ∂y y

(14.172)

14.6. DERIVATA COVARIANTE LUNGO CURVE.

157

mentre per le coordinate sferiche (14.96) si ha Γ12 1 = Γ21 1 = Γ13 1 = Γ31 1 =

1 , y1

Γ22 1 = −y 1 , ¡ ¢2 Γ33 1 = −y 1 sin y 2 ,

(14.173)

Γ33 2 = − cos y 2 sin y 2 , Γ23 3 = Γ32 3 =

1 , tan y 2

ed i rimanenti nulli. Si lascia al lettore la verifica del fatto che i simboli di Christoffel relativi ad un sistema di coordinate cartesiane sono tutti nulli3 . Ritorniamo ora alla equazione (14.163). Con l’ausilio della (14.166), è possibile esprimere la derivata dell’iq −esimo (q = 1, 2, ..., p) vettore della base naturale per cui, sostituendo nella (14.163) la stessa diviene ∙ i1 ...ip ¸ ∂T (x) ∂T (x) i1 ip h i2 ...ip i1 ...ip−1 h = + T (x) Γ (x) + · · · + T (x) Γ (x) gi1 (x) ⊗ · · · ⊗ gip (x) , h ip+1 h ip+1 ∂z ip+1 ∂z ip+1 (14.174) ovvero, confrontando con la (14.161) ed introducendo la notazione [gradT]i1 ...ip ip+1 = T i1 ...ip kip+1 ,

(14.175)

per la derivata covariante si ha T i1 ...ip kip+1 =

∂T i1 ...ip + T h i2 ...ip Γh ip+1 i1 + · · · + T i1 ...ip−1 h Γh ip+1 ip . ∂z ip+1

(14.176)

La precedente è l’espressione delle componenti del gradiente di T nei termini delle sue componenti controvarianti. Se il sistema di coordinate è cartesiano, la derivata covariante si riduce alla ordinaria derivata parziale, essendo tutti nulli i simboli di Christoffel. Si consideri ancora un campo tensoriale T di ordine totale p ≥ 1. La sua divergenza è il campo tensoriale di ordine totale p − 1 definito come divT := Cp p+1 (gradT) , (14.177) dove C denota l’operazione di contrazione semplice come definita in (12.78) (si veda la sezione 11.1 per maggiori dettagli). La rappresentazione per componenti nella base prodotto di Tp−1 è divT = T i1 ...ip−1 h kh gi1 ⊗ · · · ⊗ gip−1 ,

(14.178)

la quale, nel caso in cui p = 1 si riduce alla contrazione completa: divv = v h kh = g hk vh kk ∈ IR.

(14.179)

£ ¤ Introducendo g = det g hk , la precedente formula risulta essere equivalente alla (per una dimostrazione si consulti [7]) ¡√ i ¢ gv 1 ∂ , (14.180) divv = √ g ∂z i la quale è particolarmente utile per il calcolo della divergenza di un campo vettoriale in quanto è possibile prescindere dai simboli di Christoffel, che evidentemente non compaiono in essa esplicitamente.

14.6

Derivata covariante lungo curve.

Considereremo in questa sezione la derivazione covariante di campi tensoriali definiti su curve di E piuttosto che nei suoi sottoinsiemi aperti. Sia γ : IR 3 (a, b) → E, (14.181) 3 Sovente

i simboli di Christoffel Γijk sono denotati come

qkr . ij

158

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

una curva regolare. Il vettore tangente γ, ˙ esaminato nella sezione precedente, è un esempio di campo vettoriale definito su γ. In generale, dato un campo tensoriale di ordine totale p T : (a, b) → Tp (V) ,

(14.182)

il suo valore T (t) in t ∈ (a, b) è un tensore di Tp (V) nel punto γ (t) . Possiamo quindi definire il suo gradiente o derivata covariante lungo γ come dT (t) T (t + ∆t) − T (t) := lim , ∆t→0 dt ∆t

∀t ∈ (a, b) .

(14.183)

Quando il limite esiste, si ottiene un campo tensoriale di ordine totale p definito su γ. In questo modo risulta evidente la possibilità di definire le derivate covarianti di qualunque ordine purché T sia sufficientemente regolare su γ. Al fine di ottenere la rappresentazione per componenti della derivata covariante (14.183), consideriamo un sistema di coordinate zb che ricopra il punto γ (t) . La rappresentazione del tensore T (t) nella base prodotto generata dalla base naturale covariante associata all’introdotto sistema di coordinate è T (t) = T i1 ...ip (t) gi1 (γ (t)) ⊗ · · · ⊗ gip (γ (t)) .

(14.184)

Differenziando la precedente rispetto a t si ottiene dT (t) dT i1 ...ip (t) (14.185) = gi (γ (t)) ⊗ · · · ⊗ gip (γ (t)) dt dt ∙ 1 ¸ dgip (γ (t)) dgi1 (γ (t)) + T i1 ...ip (t) ⊗ · · · ⊗ gip (γ (t)) + · · · + gi1 (γ (t)) ⊗ · · · ⊗ . dt dt Applicando successivamente la regola di derivazione della funzione composta ed utilizzando le (14.133), (14.135) si ha ∂gj (γ (t)) dγ k (t) dgj (γ (t)) = , (14.186) dt ∂z k dt e rappresentando la derivata dei vettori della base naturale come in (14.166) si giunge alla dγ k (t) dgj (γ (t)) = Γjk i gi (γ (t)) , dt dt la quale, sostituita nella (14.185) fornisce ∙ i1 ...ip dT (t) dT (t) = dt dt ¸ ¡ j i2 ...ip ¢ dγ k (t) + T (t) Γjk i1 (γ (t)) + · · · + T i2 ...ip−1 j (t) Γjk ip (γ (t)) dt gi1 (γ (t)) ⊗ · · · ⊗ gip (γ (t)) . Come esempio illustrativo, si consideri il gradiente di un campo vettoriale v lungo una curva γ : ∙ i ¸ dv (t) dv (t) dγ k (t) = + v j (t) Γjk i gi , dt dt dt

(14.187)

(14.188)

(14.189)

con le componenti date da µ

dv (t) dt

¶i

=

dv i (t) dγ k (t) + v j (t) Γjk i , dt dt

i = 1, 2, ..., n.

(14.190)

Si tenga presente la differenza che intercorre tra la derivata covariante delle componenti: dT i1 ...ip (t) , dt e le componenti della derivata covariante:

µ

dT (t) dt

¶i1 ...ip

(14.191)

.

(14.192)

14.7. LE FORMULE DI FRENET.

159

Si consideri ora un campo tensoriale T : E ⊃U→ Tp (V) , e sia T (t) := T (γ (t)) ,

t ∈ (a, b) ,

(14.193)

la sua restrizione alla curva γ : (a, b) → U. Eseguendo il gradiente lungo la curva γ attraverso la (14.188) e tenendo conto della (14.174) si ottiene dT (γ (t)) = [gradT (γ (t))] (γ˙ (t)) , dt

(14.194)

essendo il gradiente un elemento di Hom (V, Tp (V)) . Alla precedente, utilizzando la (14.158) è possibile dare la forma equivalente ma più esplicita: ∂T (γ (t)) dγ k (t) dT (γ (t)) = . dt ∂z k dt

14.7

(14.195)

Le formule di Frenet.

Si consideri uno spazio puntuale euclideo tridimensionale E e sia v : x ∈ E → v (x) ∈ V,

(14.196)

un campo vettoriale non nullo. Indicando con t=

v , kvk

(14.197)

il suo versore, diremo curva integrale di t una applicazione γ : IR 3 s 7→ γ (s) ∈ E,

(14.198)

tale che

dγ = t (γ (s)) , ds dove s, detto ascissa curvilinea, è un parametro reale tale che ° ° ° dγ ° ° ° = 1. ° ds °

(14.199)

(14.200)

In base alla definizione, il vettore t è tangente alla curva γ, da cui il nome di tangente di γ. Escludendo il caso in cui γ sia una retta, si consideri la derivata covariante di t lungo γ (cfr. la sezione precedente): ° ° ° dt ° dt ° = κn, κ := ° (14.201) ° ds ° . ds

Il modulo κ di tale derivata è detto curvatura della curva γ, ed il versore n è la sua normale principale. È ovviamente κ > 0. Il reciproco di κ 1 (14.202) ρ= , κ è il raggio di curvatura della curva γ. Differenziando il prodotto scalare (t · t) e tenendo conto del fatto che t stesso è un versore si ha d dt 0= (t · t) = 2t · = 2κt · n = 0 =⇒ t · n = 0, (14.203) ds ds la quale afferma che il gradiente del versore n è ortogonale a t rispetto al prodotto scalare definito in V. Poiché t ed n sono entrambi versori, il loro prodotto vettore b = t ∧ n,

(14.204)

è un vettore di modulo unitario, detto binormale di γ. La terna ortonormale (t (s) , n (s) , b (s)) formata da tangente, normale e binormale della curva γ nel punto γ (s) prende il nome di triedro principale associato a γ in γ (s) . La terna (t, n, b) può anche riguardarsi come un campo di basi ortonormali anolonome nel dominio del campo v.

160

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Per completare la nostra analisi, consideriamo le derivate covarianti di n e b lungo γ. Differenziando (b · b) si ottiene db b· = 0, (14.205) ds ed analogamente, essendo b · t = 0 ed n · b = 0 si ha t·

dt db = −b · = −κn · b = 0, ds ds

le quali, combinate, affermano che db/ds è parallelo ad n. Definita la torsione di γ ° ° ° db ° ° τ := − ° ° ds ° ,

(14.206)

(14.207)

si ha

db = −τ n. (14.208) ds Considerando infine che, dalla (14.204) e dalle proprietà cicliche del prodotto vettore, la normale può esprimersi come n = b ∧ t, (14.209)

discende che la derivata covariante di n lungo γ è data da dn db dt = ∧t+b∧ = −τ n ∧ t + b ∧ κn = τ b − κt. ds ds ds

(14.210)

I risultati (14.201), (14.208) e (14.210), qui di seguito riassunti: dt = κn, ds dn = τ b − κt, ds

(14.211)

db = −τ n, ds sono noti come formule di Frenet.

14.8

Elementi di geometria gaussiana.

Questa sezione sarà dedicata alla teoria delle superfici bidimensionali immerse in una varietà euclidea tridimensionale E. Tale teoria, nota come geometria gaussiana, è un caso particolare di quella delle ipersuperfici (n − 1)-dimensionali immerse in una varietà euclidea n-dimensionale. Attenendoci alla tradizione, quando non diversamente specificato, denoteremo con lettere dell’alfabeto latino gli indici il cui campo di variabilità sia esteso da 1 a 3 (o comunque da 1 ad n), mentre saranno utilizzate lettere greche per gli indici che variano da 1 a 2 (o da 1 ad n − 1).

14.8.1

Vettore normale, piano tangente e tensore metrico superficiale.

Sia E uno spazio puntuale euclideo tridimensionale e sia V il suo spazio delle traslazioni. Una superficie bidimensionale immersa in E (che indicheremo da ora in poi semplicemente con il termine “superficie”, omettendo l’aggettivo “bidimensionale”) è un insieme S di punti di E caratterizzato localmente dalla condizione ∀x ∈ S,

∃Nx aperto, ∃Σx ∈ C 1 (Nx ) :

y ∈ S ∩ N x ⇐⇒Σx (y) = 0,

(14.212)

dove Σx è una funzione regolare non nulla dotata di gradiente non nullo in S ∩ N x . La precedente caratterizza localmente la superficie S nel senso che la funzione Σ, dato x, è definita nell’aperto Nx che in generale varia con il punto. Diremo normale unitaria della superficie S il campo vettoriale n : S ∩ N x →V,

(14.213)

gradΣ . kgradΣk

(14.214)

definito da n :=

14.8. ELEMENTI DI GEOMETRIA GAUSSIANA.

161

La rappresentazione (14.212) non è unica: infatti essa è soddisfatta anche da −Σ con il campo delle normali −n. Diremo che la superficie S è orientabile se il dominio della funzione Σ coincide con S, per cui la superficie stessa può essere caratterizzata globalmente come x ∈ S⇐⇒Σ (x) = 0.

(14.215)

Nel caso in cui S sia orientabile, è possibile assegnare ad essa una orientazione scegliendo un campo delle normali n il quale viene designato come normale positiva per S. Nel seguito ci riferiremo a superfici orientate. Siano 1 2 b ξ : x 7→ ξ 1 , b ξ : x 7→ ξ 2 , (14.216) due funzioni scalari tali che

¢ ¡ b ξ (x) := ξ 1 , ξ 2 , Σ (x) ,

(14.217)

sia un sistema di coordinate locali in E (cfr. la (14.74)). La superficie S può essere localmente caratterizzata come (14.218) x=x e (ξ α ) , −1

(si veda la (14.75)). Le introdotte ξ α sono dette coordinate gausessendo x e il diffeomorfismo inverso b ξ siane della superficie S. Poiché le curve coordinate di ξ α appartengono alla superficie S, i vettori della base naturale ∂e x (14.219) sα = α , ∂ξ sono tangenti ad S. Diremo piano tangente alla superficie S nel punto x la giacitura definita da Π (x) = span {s1 (x) , s2 (x)} .

(14.220)

Essendo dim V = 3, il campo delle normali è dato da n=

s1 ∧ s2 , ks1 ∧ s2 k

(14.221)

dove “∧” è il prodotto vettore definito dagli assiomi (13.10), (13.12), (13.13), (13.11). Introducendo i versori tα :=

sα , ksα k

α non sommato,

(14.222)

la normale può equivalentemente esprimersi come n = t1 ∧ t2 .

(14.223)

Dalla definizione (14.221) si ha che la terna (s1 , s2 , n) è una base positiva di E, ed essendo sα · n = 0, (14.224) ¡ 1 2 ¢ ne discende che anche la sua reciproca s , s , n gode della stessa proprietà. Avendo, dalla definizione di base reciproca (14.225) sα · sβ = δ βα , ¡ 1 2¢ ¡ 1 2¢ le (s1 , s2 ) , s , s sono dette basi naturali¡reciproche ¢ del sistema di coordinate superficiali ξ , ξ su S. Introducendo il sistema di coordinate locali z 1 , z 2 , z 3 in E, possiamo rappresentare la superficie S come x (ξ α )) =: z i (ξ α ) , z i = zbi (x) = zbi (e

(14.226)

ed ottenere di conseguenza il seguente legame tra i vettori sα della base naturale superficiale ed i vettori gi della base naturale associata a z i : ∂z i ∂e x ∂z i z i α = gi · sα =⇒ sα = α gi . α = gradb ∂ξ ∂ξ ∂ξ

(14.227)

Sia Tx il sottospazio dello spazio delle V generato, nel punto x ∈ S, dai vettori naturali © traslazioni ª superficiali {s1 , s2 } o dai loro reciproci s1 , s2 . Il prodotto scalare definito nello spazio delle traslazioni V

162

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

(che assumiamo non degenere e definito positivo, cfr. le (7.46), (7.48), (7.49)) induce in Tx un prodotto scalare non degenere definito positivo relativo alle coordinate gaussiane ξ α . Siano u, v ∈ Tx ; si ha u · v = uα v β (sα (x) · sβ (x)) = uα v β aαβ (x) ,

(14.228)

avendo introdotto le componenti della metrica superficiale aαβ := sα · sβ =

∂z i ∂z j ∂z i ∂z j gi · gj = α β gij , α β ∂y ∂y ∂y ∂y

(14.229)

4 ovvero della matrice associata al prodotto scalare £ . Tale ¤ matrice è evidentemente simmetrica e definita positiva (cfr. Capitolo 7), ed esiste pertanto la inversa aαβ :

aαβ aβγ = δ γα ,

(14.230)

aβγ = sβ · sγ .

(14.231)

data da Utilizzando la precedente uguaglianza insieme alla (14.227) siamo quindi in grado di trovare la seguente rappresentazione per i vettori della base naturale controvariante della superficie: sβ = aβγ

∂z i gi . ∂y γ

(14.232)

Si consideri ora un campo vettoriale definito su S: v : x ∈ S 7→ v (x) ∈ V.

(14.233) ¡ ¢ Per ogni x ∈ S, v ammette le rappresentazioni uniche nelle basi reciproche di V (s1 , s2 , n) ed s1 , s2 , n : v = v α sα + v 3 n, v = vα sα + v3 n, v α = v · sα , vα = v · sα , v 3 = v3 = v · n.

(14.234)

vS := v α sα = vα sα , vn := v3 n,

(14.235)

I campi vettoriali

sono detti rispettivamente proiezione tangenziale e proiezione normale di v. Introducendo ¡ ¢ la rappresentazione del tensore metrico di E nelle basi prodotto generate dalle basi (s1 , s2 , n) ed s1 , s2 , n : 1I =

= aαβ sα ⊗ sβ + n ⊗ n = aαβ sα ⊗ sβ + n ⊗ n = sα ⊗ sα + n ⊗ n = sα ⊗ sα + n ⊗ n,

(14.236)

il tensore metrico superficiale si definisce come S

1I = 1I − n ⊗ n.

(14.237)

Il campo tensoriale appena introdotto si comporta come l’identità tensoriale di Tx , lasciando invariati i vettori del piano tangente alla superficie S nel punto x, mentre, quando applicato ai vettori di V, esso proietta gli stessi in Tx , fornendo la loro componente superficiale: £S ¤ 1I (x) (v (x)) = v (x) − (v (x) · n (x)) n (x) = vS (x) , ∀v (x) ∈ V. (14.238)

Il tensore metrico superficiale è noto in geometria differenziale come prima forma fondamentale della superficie S. 4 Si

noti che utilizzando i coefficienti della metrica i versori tangenti superficiali possono scriversi come sα , α non sommato. tα = √ aαα

14.8. ELEMENTI DI GEOMETRIA GAUSSIANA.

14.8.2

163

Derivata covariante superficiale.

Esiste una differenza fondamentale tra lo spazio puntuale euclideo E e la superficie S in esso immersa: a meno che S non sia un piano, i piani tangenti a S variano con il punto, per cui essi non sono in generale lo stesso sottospazio dello spazio delle traslazioni V. Ciò comporta l’impossibilità di definire il gradiente o la derivata covariante attraverso una formula che sia direttamente derivabile dalla (14.153), in quanto un vettore di V può essere tangente ad S in un punto ma non possedere più tale proprietà in un altro punto5 . Sia T :U ⊂S→ Tp (Tx ) un campo tensoriale tangenziale di ordine totale p, tangenziale nel senso che ¡ ¢ possiede componenti non nulle soltanto nella base prodotto generata dalle basi superficiali (s1 , s2 ) ed s1 , s2 . Il campo tensoriale T ammette in tale base la rappresentazione T=T α1 ...αp sα1 ⊗ · · · ⊗ sαp = Tα1 α2 ...αp sα1 ⊗ sα2 ⊗ · · · ⊗ sαp ...

(14.239)

Si definisce gradiente superficiale di T l’applicazione S

gradT (x) ∈ Hom (Tx , Tp (Tx )) ,

(14.240)

gradT := T α1 ...αp kαp+1 sα1 ⊗ · · · ⊗ sαp ⊗ sαp+1 ,

(14.241)

definita da S

dove T α1 ...αp kαp+1 =

∂T α1 ...αp + T β α2 ...αp Γβ αp+1 α1 + · · · + T α1 ...αp−1 β Γβ αp+1 αp , ∂ξ αp+1

(14.242)

è la derivata covariante superficiale, e Γαβ γ =

1 γµ a 2

µ

∂aβµ ∂aαβ ∂aαµ + α − β ∂ξ ∂ξ µ ∂ξ



= Γβα γ ,

(14.243)

sono i simboli di Christoffel della superficie. Poiché, come ampiamente discusso in [7], le derivate parziali dei vettori della base naturale superficiale ∂sα , (14.244) ∂ξ β non sono in generali campi vettoriali, tangenti, non è possibile ottenere per essi una formula di rappresentazione nei termini dei simboli di Christoffel superficiali che sia analoga alla (14.166). È tuttavia possibile eseguire tali derivate utilizzando ancora la (14.166) con i vettori della base naturale (s1 , s2 , n) . La definizione di divergenza superficiale del campo tensoriale T di ordine totale p ≥ 1 si ottiene immediatamente estendendo la (14.177): ¢ ¡ S divT := Cp p+1 S gradT , (14.245) dove C è l’operatore di contrazione semplice. La precedente si rappresenta come S

divT = T α1 ...αp−1 β kβ sα1 ⊗ · · · ⊗ sαp−1 ,

(14.246)

che, nel caso in cui sia p = 1 si riduce alla contrazione completa: S

14.8.3

divv= v β kβ =S 1I ·S gradv.

(14.247)

Seconda forma fondamentale: curvatura delle superfici.

Nella sezione precedente è stata definita la derivata covariante di un campo tensoriale definito sulla superficie S. Tale oggetto può tuttavia riguardarsi come un campo tensoriale definito in E avente componenti non nulle soltanto nella base prodotto sα1 ⊗ · · · ⊗ sαp , α1 , ..., αp = 1, 2, (14.248) generata dalla base naturale superficiale (s1 , s2 ) . Tale base è ovviamente un sottoinsieme della base (s1 , s2 , n) di V, dove n è il campo delle normali unitarie alla superficie S. Quindi perché sia possibile definire la derivata covariante lungo la superficie S di un campo tensoriale in generale non tangente, bisogna calcolare tale derivata per un campo in E avente la sua unica componente non nulla lungo la direzione n. 5 Nel caso in esame si dice che non esiste un parallelismo canonico che connetta i diversi piani tangenti ad S. Per maggiori dettagli si consulti [7].

164

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Sia dunque γ : (a, b) → S,

(14.249)

una curva di S. Poiché n è un campo vettoriale unitario, dalla (14.188) si ottiene, lungo γ 0=

d dn dn (n · n) = 2n · =⇒ n · = 0, dt dt dt

(14.250)

per cui il gradiente dn/dt è un campo vettoriale tangente. Possiamo quindi enunciare la seguente Proposizione 210 Esiste un campo tensoriale tangenziale simmetrico di ordine totale 2 B : x 7→ B (x) ∈ T2 (Tx ) , tale che

Tx = span {s1 , s2 } ,

dn = −B (γ) ˙ , dt

(14.251) (14.252)

per ogni curva γ su S. Dimostrazione L’esistenza del campo B discende immediatamente dalla (14.194) quando in essa si identifichi T con n: dn (γ (t)) = [gradn (γ (t))] (γ˙ (t)) , (14.253) dt per cui ¢ ¡ (14.254) B (γ (t)) := −gradn (γ (t)) ∈ Hom T1 , T1 ,

il quale, in virtù della proposizione 145 risulta essere un tensore di T2 . Il fatto che B sia tangente è conseguenza della (14.250). Per provare la simmetria, si tenga presente che dalla (14.214), n risulta parallelo al gradiente di un certo campo scalare Σ. Definendo Σ (x) σ (x) := , ∀x ∈ S, (14.255) kgradΣ (x)k si ha n (x) = gradσ (x) , ∀x ∈ S, (14.256) ovvero, dalla (14.252)

B = −grad (gradσ) ,

(14.257)

onde la simmetria. Come risulta evidente dalla (14.252), il tensore B caratterizza la curvatura della superficie S in quanto esso misura la variazione della normale n alla superficie. Il tensore B è noto come seconda forma fondamentale della superficie S o tensore di Gauss-Weingarten ad esso associato. Considerato un sistema di coordinate gaussiane ξ α per S, si ha B = bαβ sα ⊗ sβ = bα β sα ⊗ sβ = bαβ sα ⊗ sβ , (14.258) nella base prodotto superficiale generata da tale sistema di coordinate, con le componenti che, per la (14.252) sono date dalle seguenti: ∂n = −bαβ sβ = − bα β sβ , (14.259) ∂ξ α o equivalentemente, dalle (14.222): bαβ β ∂n √ = −√ t = −bαβ aββ tβ , ββ ∂ξ α a

(14.260)

note in geometria differenziale classica come formule di Gauss-Weingarten. Ricordando la definizione (14.223) si ha µ ¶ ∂t1 ∂n ∂ ∂t2 = α (t1 ∧ t2 ) = ∧ t2 + t1 ∧ α , (14.261) ∂ξ α ∂ξ ∂ξ α ∂ξ ovvero µ ∙µ ¶ ¶ ¸ 1 ∂t2 ∂t1 ∧ t + t ∧ · t · t bαβ = − √ 2 β 1 β aββ ∂ξ α ∂ξ α ∙ ¸ ∂t1 ∂t2 1 (t2 ∧ tβ ) · α + (tβ ∧ t1 ) · α = −√ aββ ∂ξ ∂ξ =n·

∂sβ ∂2x e . α =n· α ∂ξ ∂ξ ∂ξ β

(14.262)

14.8. ELEMENTI DI GEOMETRIA GAUSSIANA.

165

Le precedenti permettono il calcolo delle componenti della seconda forma fondamentale a partire dalla normale e dalla legge ¡ ¢ x=x e ξ1, ξ2 , (14.263)

che descrive la superficie. Illustriamo il suo utilizzo calcolando le componenti della seconda forma fondamentale per le superfici cilindriche. • Per le superfici cilindriche si ha che il generico punto x sulla superficie stessa è dato, riferendo E ad un sistema di coordinate cartesiane ortogonali z i : ⎧ 1 1 ⎨ z = R cos ξ 1 (14.264) z 2 = R sin ξ , ξ 1 ∈ [0, π) , ξ 2 ∈ [−H, H] . ⎩ 3 2 z =ξ

Per eseguire i calcoli, risulta conveniente scegliere una origine o ∈ E una volta per tutte, in modo tale che x possa essere rappresentato dal vettore (x − o) dello spazio delle traslazioni il quale, detta (e1 , e2 , e3 ) la base naturale associata al sistema di coordinate cartesiane z i si rappresenta come x = R cos ξ 1 e1 + R sin ξ 1 e2 + ξ 2 e3 .

(14.265) ¡ 1 2¢ I vettori della base naturale superficiale associata al sistema di coordinate gaussiane ξ , ξ , ovvero i vettori tangenti alle linee coordinate ξ α sono (cfr. la (14.219)) ∂x = −R sin ξ 1 e1 + R cos ξ 1 e2 , ∂ξ 1 ∂x s2 = 2 = e3 , ∂ξ s1 =

(14.266)

e la prima forma fondamentale è data da µ 2 R [aαβ ] = [sα · sβ ] = 0

¶ 0 , 1

(14.267)

per cui il sistema di coordinate superficiali risulta ortogonale. La normale alla superficie è, in virtù della (14.221): n = cos ξ 1 e1 + sin ξ 1 e2 , (14.268) e le derivate dei vettori tangenti superficiali sono ∂2x ∂s1 1 1 ¢ = −R cos ξ e1 − R sin ξ e2 , 1 = ¡ 1 2 ∂ξ ∂ξ ∂s2 ∂2x ∂s1 = = = 0, ∂ξ 2 ∂ξ 1 ∂ξ 1 ∂ξ 2 ∂s2 = 0, ∂ξ 2

(14.269)

per cui, con l’utilizzo della (14.262) si ottiene [bαβ ] =

µ −R 0

¶ 0 . 0

(14.270)

Poiché B è simmetrico, per ogni x ∈ S esiste una base ortonormale (b1 (x) , b2 (x)) costituita dai suoi autovettori; in tale base B ammette la rappresentazione spettrale (cfr. la sezione 13.8) B (x) = κ1 (x) b1 (x) ⊗ b1 (x) + κ2 (x) b2 (x) ⊗ b2 (x) ,

(14.271)

dove gli autovalori κ1 (x) e κ2 (x) sono le curvature principali o curvature normali della superficie S nel punto x. In generale non è detto che (b1 , b2 ) sia la base naturale associata ad un sistema di coordinate gaussiane. Un sistema di coordinate rispetto al quale la matrice associata al tensore di Gauss-Weingarten è diagonale è detto sistema di coordinate principali, e le relative curve coordinate sono dette linee di

166

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

curvatura. Relativamente ad un sistema di coordinate principali le componenti della prima e seconda forma fondamentale soddisfano ovviamente le condizioni

e si ha inoltre s1 =

a12 = 0,

b12 = 0,

√ a11 b1 ,

s2 =

√ a22 b2 .

(14.272) (14.273)

Si noti che il sistema di coordinate cilindriche precedentemente esaminato è principale, e che le curvature principali sono date da 1 1 κ1 = b11 = = − , κ2 = 0. (14.274) b11 R I due invarianti principali di B dati da Tr B =S 1I · B = aαβ bαβ = κ1 + κ2 , det B = det [ bβ α ] = κ1 κ2 =:K,

(14.275)

sono detti rispettivamente curvatura media e curvatura Gaussiana della superficie S. Per la superficie cilindrica si ha 1 (14.276) κ1 + κ2 = − , K = 0. R

14.8.4

Regioni a forma di guscio e Shifters.

Si consideri uno spazio puntuale euclideo tridimensionale E, e sia S una superficie orientabile in esso immersa (cfr. sezione 14.8.1). Essendo S orientabile, è possibile introdurre per essa una parametrizzazione globale attraverso una coppia di coordinate gaussiane ξ α in modo tale che ogni punto x ∈ S possa essere caratterizzato come x=x e (ξ α ) . (14.277) Una regione a forma di guscio avente spessore ε modellata sulla superficie orientabile6 S dotata di campo delle normali n è una porzione Gε ⊂ E, (14.278)

tale che, per ogni X ∈ Gε valga la parametrizzazione globale

e (ξ α , ζ) := x X =X e (ξ α ) + ζn (e x (ξ α )) .

(14.279)

X − x = ζn.

(14.280)

e (ξ α , 0) X0 = X

(14.281)

e (ξ α , ζ) := x X =X e (ξ α ) + ζn,

(14.282)

Il valore assoluto |ζ| dell’introdotto parametro reale ζ ∈ (−ε/2, ε/2) rappresenta la distanza del punto X = e (ξ α , ζ) ∈ Gε dal piano tangente alla superficie S nel punto x = x X e (ξ α ) : Si noti che

descrive la superficie sulla quale è modellata la regione a forma di guscio; S è detta superficie media. Una regione a forma di piastra può riguardarsi come una regione a forma di guscio modellata su un piano. Per essa dunque la superficie media è ancora descritta dalla parametrizzazione (14.277), ma la parametrizzazione globale per il punto X ∈ Pε ⊂ E della regione a forma di piastra Pε di spessore ε è data da dove n è un versore costante indipendente dalle coordinate gaussiane ξ α , coincidente ovviamente con la normale al piano medio. Consideriamo ora le basi naturali associate al sistema di coordinate (ξ α , ζ) introdotto in Gε . Coerentemente con la definizione (14.103) e dalla (14.279) la base covariante è data da e α ∂X (ξ , ζ) ∂ξ β µ ¶ ∂e x α ∂e x = β (ξ α , ζ) + ζ [gradn (e x (ξ α ))] (ξ , ζ) ∂ξ ∂ξ β = [1I − ζB (ξ α )] (sβ (ξ α )) , e α ∂X g3 (ξ α , ζ) = (ξ , ζ) = n (ξ α ) , ∂ζ

gβ (ξ α , ζ) =

(14.283) (14.284)

6 È possibile estendere la definizione che ci accingiamo a dare modellando la regione a forma di guscio su superfici non orientabili. Tali gusci sono detti di Möbius.

14.9. OPERATORI DIFFERENZIALI SULLE VARIETÀ EUCLIDEE TRIDIMENSIONALI.

167

dove sβ sono i vettori tangenti alle linee coordinate ξ β che risultano paralleli ai corrispondenti vettori tangenti sulla superficie media, e B = −gradn (14.285) è il tensore di Gauss-Weingarten (cfr. la 14.254). È evidente che la eventuale ortogonalità dei vettori (s1 , s2 ) non assicura in generale la ortogonalità dei vettori della base naturale controvariante (g1 , g2 , n) ; affinché questi siano ortogonali occorre infatti che lo siano s1 ed s2 e che il tensore di Gauss-Weingarten sia diagonale, ovvero che il sistema di coordinate gaussiane sia principale. Nota la base covariante, sono individuate le componenti covarianti gij del tensore metrico, per cui, attraverso la (14.122) è possibile calcolare i vettori della base naturale controvariante. e (ξ α , ζ) ∈ Gε con le basi naturali della superficie media nel Al fine di legare le basi naturali nel punto X = X e (ξ α , 0) ∈ S si introducono due campi tensoriali di ordine totale 2, detti shifters. In particolare, punto x = X lo shifter (14.286) M (ξ α , ζ) := gα (ξ α , ζ) ⊗ sα (ξ α ) + n (ξ α ) ⊗ n (ξ α ) , trasforma i vettori della base covariante (s1 (x) , s2 (x) , n (x)) nel punto x ∈ S nei vettori della base covariante nel corrispondente punto X ∈ Gε , mentre lo shifter N (ξ α , ζ) := gα (ξ α , ζ) ⊗ sα (ξ α ) + n (ξ α ) ⊗ n (ξ α ) , (14.287) ¡ ¢ trasforma i vettori della base controvariante s1 (x) , s2 (x) , n (x) in x nei vettori della base covariante in X.

Proposizione 211 Gli shifters sono legati dalla seguente relazione: M−1 = NT .

(14.288)

Dimostrazione Dalla definizione (14.287) e dalla proposizione 159 si ha NT = sα ⊗ gα + n ⊗ n,

(14.289)

da cui, utilizzando la (13.6) e ricordando che sα · n = sα · n = gα · n = gα · n = 0,

(14.290)

si ha ¡ ¢ MNT = (gα ⊗ sα ) sβ ⊗ gβ + (n ⊗ n) (n ⊗ n) = gα ⊗ gα + n ⊗ n = 1I, dove 1I è il tensore metrico di Gε nel punto X. Analogamente si ha ¡ ¢ NT M = (sα ⊗ gα ) gβ ⊗ sβ + (n ⊗ n) (n ⊗ n) = sα ⊗ sα + n ⊗ n = 1I,

(14.291)

(14.292)

con il tensore metrico 1I valutato ora nel punto x. È ovvia conseguenza della proposizione precedente la seguente: N−1 = MT .

14.9

(14.293)

Operatori differenziali sulle varietà euclidee tridimensionali.

Sia E uno spazio puntuale euclideo con dim E = dim V = 3, e si assuma la orientazione V+ per lo spazio delle traslazioni (cfr. sezione 13.2). Scelta una origine o appartenente ad un dominio D di E, è stabilita una corrispondenza biunivoca tra punti x di D e vettori dello spazio delle traslazioni V (cfr. (14.85)) attraverso il campo dei vettori posizione: x = o + r (x) . (14.294) Detto D il sottoinsieme di V costituito dai vettori posizione dei punti x ∈ D, ogni campo scalare f : D →IR individua una funzione a valori reali fo : D → IR definita da fo (x) := f (x) ,

∀x = r (x) ∈ D.

(14.295)

168

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

In modo del tutto analogo a campi vettoriali e tensoriali definiti in D corrispondono campi vettoriali e tensoriali definiti in D. Anche se i campi definiti in D dipendono dalla scelta dell’origine o, l’effetto di un cambiamento della stessa corrisponde ad incrementare il campo dei vettori posizione di una quantità costante: r (x) = x − o; x − o = (x − o) + (o − o) = r (x) + (o − o) .

(14.296)

Nel seguito denoteremo quindi con f (x) il valore del campo f nel punto x ∈ D avente vettore posizione x ∈ D quando ¢ stata scelta una origine o. Considereremo inoltre sistemi di coordinate cartesiane rettangolari ¡ 1 2 sia x , x , x3 ; i campi definiti in D (e le loro componenti se si tratta di campi vettoriali o tensoriali) possono dunque riguardarsi come funzioni delle introdotte coordinate cartesiane. Nella presente sezione intenderemo inoltre per campo tensoriale una applicazione T : x ∈ V 7→ T (x) ∈ Hom (V, V) .

(14.297)

Specializziamo ora la definizione di gradiente data nella sezione 14.3. Sia f un campo scalare definito in un dominio D. Tale campo è differenziabile in x ∈ D se esiste una applicazione lineare Lf,x ∈ Hom (V, IR) tale che ¯ ¯ ¯ f (x + τ a) − f (x) ¯¯ lim ¯¯Lf,x (a) − (14.298) ¯ = 0, ∀x ∈D, a ∈V. τ →0 τ

Quando f è differenziabile è possibile introdurre l’unico (cfr. proposizione 206) campo vettoriale gradf : D →Hom (V, IR) ,

(14.299)

gradf (x) · a : = Lf,x (a) .

(14.300)

detto gradiente di f e definito da Siano a, b ∈V e siano f , F rispettivamente un campo vettoriale ed un campo tensoriale definiti in un dominio D ∈ E. I campi f ed F sono continui e differenziabili se grad(f · a) e grad(b·F (a)) rispettivamente esistono e sono continui in D per ogni a, b ∈V. In altre parole assumiamo che le proprietà di continuità e differenziabilità siano ereditate dai campi f ed F qualora esse valgano per i campi scalari f · a e b·F (a) per ogni scelta dei campi costanti in D a e b. Si consideri un campo vettoriale differenziabile f :D →V. Il suo gradiente è il campo tensoriale gradf : D →Hom (V, V) ,

(14.301)

definito da [gradf (x)]T (a) := grad [f · a] (x) ,

∀x ∈D, a ∈V.

(14.302)

La divergenza ed il rotore di f sono rispettivamente il campo scalare ed il campo vettoriale divf :D →IR,

rotf :D →Hom (V, IR) ,

(14.303)

definiti da divf (x) := Tr [gradf (x)] , ∀x ∈D, rotf (x) · a : =div [f ∧ a] (x) , ∀x ∈D, a ∈V,

(14.304) (14.305)

dove “∧” è il prodotto vettore definito in V nel senso specificato dalle (13.10), (13.12), (13.13), (13.13) e “Tr” è l’operatore traccia (cfr. (11.19)). Si noti la consistenza della definizione di divergenza data in (14.304) con quella data nella (14.177). Sia ora F :D →Hom (V, V) un campo tensoriale differenziabile. La sua divergenza è il campo vettoriale divF :D →Hom (V, IR) , definito da

Proposizione 212 Siano

¤ £ divF (x) · a :=div FT (a) (x) , f : D →IR,

f :D →V,

(14.306)

∀x ∈D, a ∈V.

(14.307)

F :D →Hom (V, V) ,

(14.308)

14.9. OPERATORI DIFFERENZIALI SULLE VARIETÀ EUCLIDEE TRIDIMENSIONALI.

169

rispettivamente un campo scalare, vettoriale e tensoriale differenziabili. Scelta una origine¡ o ∈ D e ¢la base naturale B = (e1 , e2 , e3 ) relativa all’introdotto sistema di coordinate cartesiane rettangolari7 x1 , x2 , x3 si ha8 ∂f (x) ej , ∂xj i ∂f (x) ∂fj (x) ∂f k (x) i gradf (x) = (e ⊗ e ) , divf (x) = , rotf (x) = ε ei , i j jk ∂xj ∂xj ∂xj ∂ F i j (x) ei , divF (x) = ∂xj ¡ ¢ dove f j (x) = f (x) · ej ed F ij (x) = ei · [F (x)] ej sono le componenti dei campi f ed F nella base gradf (x) =

(14.309) (14.310) (14.311)

B.

Dimostrazione Essendo f differenziabile per ipotesi, dalla (14.298) con i vettori della base B al posto di a segue che esistono in D le derivate parziali ∂f (x) /∂xi e si ha inoltre Lif,x = ∂f (x) /∂xi . Dalla (14.300) discende dunque la (14.309). Analogamente, l’ipotesi di differenziabilità per f ed F assicura l’esistenza in D delle derivate parziali ∂f i (x) /∂xj e ∂F ij (x) /∂xj . Dato a ∈V, dalla definizione (14.302) e dalla (14.309) si ha (tenendo presente la (13.6) e la proposizione 159) £ ¤ T [gradf (x)] (a) = grad f i ei · a (x) £ ¤ ∂ (ei ·a) f i (x) ∂f i (x) = e = (ei ·a) ej j ∂xj ∂xj ∙ i ¸T ∂f (x) = (ei ⊗ ej ) (a) , (14.312) ∂xj da cui, data l’arbitrarietà di a, la (14.310)1 . Dalla definizione (14.304) ed utilizzando la (14.310)1 e la proposizione 164 si ha poi ∂f i (x) Tr (ei ⊗ ej ) ∂xj ∂f i (x) ∂f i (x) ∂fj (x) = (ei · ej ) = δ ij = , j ∂x ∂xj ∂xj

divf (x) = Tr [gradf (x)] =

(14.313)

ovvero la (14.310)2 . Considerando infine la definizione (14.305) combinata con la (14.310)2 e la (13.20) si ottiene ¤ £ rotf (x) · a=div [f ∧ a] (x) = div f i ei ∧ aj ej (x) £ ¤ ∂f i (x) j a = div εij k f i aj ek (x) = εijh ∂xh i i ∂f (x) j ∂f (x) = εijh e · a = εj hi ej · a, (14.314) h ∂x ∂xh ovvero la (14.310)3 . La dimostrazione della (14.311) si esegue considerando la definizione (14.307) insieme alla (14.310)2 : £ ¤ £ ¤ ∂Fji (x) j divF (x) · a=div FT (a) (x) = div Fj i aj ei (x) = a ∂xi ∂Fji (x) j ∂Fji (x) jk ∂ F k i (x) = e ·a= δ ek · a = ek · a. i i ∂x ∂x ∂xi

(14.315)

Sono immediata conseguenza delle proprietà stabilite nella proposizione precedente le seguenti: [gradf f ] (x) = f (x) ⊗ gradf (x) + f (x) gradf (x) , T

[divF (f )] (x) = f (x) · divF (x) + Tr [F (x) gradf (x)] , [divf f ] (x) = f (x) · gradf (x) + f (x) divf (x) [divf F] (x) = FT (x) gradf (x) + f (x) divF (x) .

7I

(14.316) (14.317) (14.318) (14.319)

vettori di B sono evidentemente versori costanti. di seguito la convenzione di Einstein, ovvero, salvo diversa specifica, gli indici ripetuti si considereranno sommati nel loro insieme di variabilità. 8 Utilizzeremo

170

14.10

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Teoremi di integrazione sulle varietà euclidee tridimensionali.

Si consideri, analogamente a quanto fatto nella precedente sezione, ¡ uno spazio ¢ puntuale euclideo tridimensionale E riferito ad un sistema di coordinate cartesiane rettangolari x1 , x2 , x3 . Si assume che il lettore possegga le nozioni di base di geometria differenziale delle curve e delle superfici orientate e i concetti base della teoria dell’integrazione. Indicheremo con dx un elemento orientato di una curva in E mentre gli elementi di area e di volume verranno denotati rispettivamente con dA e dV. La seguente proposizione fornisce uno strumento importante nella derivazione delle equazioni di campo nella meccanica dei continui. Proposizione 213 Sia f : D →IR un campo scalare continuo in un dominio D ⊂ E. Se Z f dV = 0,

(14.320)

R

per ogni regione R contenuta in D, allora f = 0 in D. Dimostrazione La dimostrazione procederà per assurdo supponendo che la tesi sia falsa. Esisterebbe dunque un punto y ∈ D avente vettore posizione y ∈ D, quando sia stata scelta una origine o, tale che f (y) 6= 0. Sia f (y) = 2κ, e si assuma κ > 0. Poiché D è un aperto, y deve essere necessariamente un punto interno; esiste dunque almeno una sfera aperta di raggio δ > 0 centrata in y, Bδ (y) , i cui punti appartengono tutti a D (tale sfera è evidentemente il sottoinsieme di D costituito dai punti la cui distanza da y è minore di δ). La continuità di f in y implica l’esistenza di un reale 0 < δ 0 < δ tale che |x − y| < δ 0 ⇒ |f (x) −f (y)| < κ.

(14.321)

La sfera Bδ0 (y) è una regione contenuta in D; considerato un punto x ∈ Bδ0 (y) , la precedente equazione implica che −κ < f (x) −f (y) < κ ⇒ f (x) > f (y) − κ = κ, (14.322) da cui

Z

f dV > κ Bδ0 (y)

Z

dV = Bδ0 (y)

4 03 πδ κ > 0, 3

(14.323)

il che è un assurdo contraddicendo l’ipotesi. Si deduce quindi che f non può essere positivo in nessun punto di D. Analogamente, assumendo che κ < 0 si evince che f non può essere negativo in D, il che implica in definitiva la tesi. Dal momento che ci limitiamo a considerare campi vettoriali e tensoriali in uno spazio puntuale euclideo, è semplice definire integrali di volume, superficie e di linea di campi vettoriali e tensoriali definiti rispettivamente in volumi superfici e curve semplicemente introducendo la loro rappresentazione in un sistema di coordinate cartesiane rettangolari ed integrando ciascuno dei campi scalari ottenuti. Una operazione fondamentale nella derivazione delle equazioni di campo è la trasformazione di un integrale definito sulla frontiera ∂R di una regione R in un integrale definito su R stessa. Lo strumento fondamentale per eseguire tale operazione è il teorema della divergenza, del quale si fornisce di seguito l’enunciato rimandando ai corsi e ai testi di analisi matematica la dimostrazione. Proposizione 214 Considerata una regione R regolare9 di E e la sua frontiera ∂R, sia f un campo vettoriale di classe C 1 nell’interno di R e di classe C 0 su ∂R e sia n il campo delle normali unitarie sulla frontiera ∂R. Allora Z Z f · ndA = divf dV. (14.324) R

∂R

La proposizione precedente si presta a generalizzazioni che riguardano campi tensoriali. A tal proposito è utile dimostrare la seguente: Proposizione 215 Si considerino un campo tensoriale F ed un campo vettoriale g entrambi di classe C 1 nell’interno di R e di classe C 0 su ∂R, e siano a, b due campi vettoriali costanti. Nelle ipotesi della proposizione precedente si ha Z Z ¢¤ £ ¡ T £ ¤ g⊗ F (n) dA = gradgF + g⊗divFT dV. (14.325) ∂R

9 Intendiamo

R

per regolare una regione la cui frontiera ∂R sia l’unione di un numero finito di superfici su ciascuna delle quali è definito un campo continuo di vettori normali.

14.10. TEOREMI DI INTEGRAZIONE SULLE VARIETÀ EUCLIDEE TRIDIMENSIONALI. Dimostrazione Sostituendo nella (14.324) f con il campo vettoriale (g · a) F (b) si ottiene Z Z [(g · a) F (b)] ·ndA = div [(g · a) F (b)] dV.

171

(14.326)

R

∂R

Utilizzando poi le (13.33), (13.6) è possibile stabilire l’identità ¡ ¢ £ ¡ ¢¤ [(g · a) F (b)] ·n = FT (n) ·b g · a = a· g⊗ FT (n) (b) ,

(14.327)

mentre le (14.302), (14.307), (14.318) porgono

da cui

Z

div [(g · a) F (b)] = F (b) · grad [(g · a)] + (g · a) div [F (b)] £ ¤ = F (b) · [gradg]T (a) + (g · a) divFT · b ¡£ ¤ ¢ = a· [gradgF] (b) + divFT · b g · a £ ¤ = a· gradgF + g⊗divFT (b) , ∂R

£ ¡ ¢¤ a· g⊗ FT (n) (b) dA =

Z

R

£ ¤ a· gradgF + g⊗divFT (b) dV,

∀a, b ∈ V,

(14.328)

(14.329)

ovvero, data l’arbitrarietà di a, b la tesi. La precedente proposizione permette di ricavare alcune interessanti relazioni come suoi casi particolari. Proposizione 216 Nelle ipotesi della proposizione precedente valgono le seguenti equazioni: Z Z g ⊗ ndA = gradgdV, ∂R R Z Z F (n) dA = divFdV, Z R Z ∂R g ∧ ndA = rotgdV.

(14.330) (14.331) (14.332)

R

∂R

Dimostrazione La prima si ottiene dalla (14.324) quando F è posto pari alla identità di Hom (V, V) , mentre la seconda si ottiene ancora dalla (14.324) riguardando g come un campo vettoriale costante. La terza si ottiene considerando la seguente catena di uguaglianze: Z Z Z rotg · adV = div (g ∧ a) dV = (g ∧ a) · ndA R ∂R Z R (g ∧ n) · adA, a ∈V, (14.333) = ∂R

dove sono state utilizzate le (14.305) e la (14.324) ed è stato introdotto il campo vettoriale costante a. Proposizione 217 Sia f un campo vettoriale di classe C 1 nell’interno di R e di classe C 0 su ∂R e sia n il campo delle normali unitarie sulla frontiera ∂R. Allora il campo tensoriale antisimmetrico (cfr sezione 13.9) gradf −gradf T ha come vettore assiale rotf . Dimostrazione Dalla (14.330) si ha che, dato i campi vettoriali costanti a, b : Z Z £ ¤ T b· gradg−gradg (a) dV = b· [g ⊗ n − n ⊗ g] (a) dA R Z ∂R Z b· [(n ∧ g) ∧a] dA = n· [g ∧ (a ∧ b)] dA = ∂R ∂R Z Z Z div [g ∧ (a ∧ b)] dV = rotg· (a ∧ b) dV = b·rotg ∧ adV, = R

R

(14.334)

R

avendo fatto uso delle (14.330), delle proprietà del prodotto vettore e della (14.333). Dalla proposizione 213 discende £ ¤ b· gradg−gradgT (a) = b·rotg ∧ a, ∀a, b ∈ V, (14.335)

onde l’asserto data l’arbitrarietà di a e b. Come ultimo strumento per la derivazione delle equazioni di campo nella meccanica del continuo consideriamo il teorema di Stokes, il quale ci permette di trasformare gli integrali definiti su una linea chiusa in integrali definiti su una superficie avente tale linea come bordo.

172

CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Proposizione 218 Sia Σ una superficie regolare avente come bordo una curva chiusa Γ regolare entrambe di classe C 1 . Sia poi f un campo vettoriale di classe C 1 in un dominio contenente Σ. Allora I Z f ·dx = rotf · ndA, (14.336) Γ

Σ

quando il verso di Γ sia concorde rispetto al campo n dei vettori normali unitari alla superficie Σ, ovvero quando si abbia che dati x, y ∈ Γ, con y successivo ad x nel verso specificato per Γ e z ∈ Σ, z ∈ /Γ: ∃ε > 0 : n (z) · [(z − y) ∧ (x − z)] > 0,

∀ |x − z| < ε, ∀ |z − y| < ε.

(14.337)

Capitolo 15

CENNI DI TEORIA DEI MODELLI Quanto esposto in questo capitolo mi è stato insegnato dal Prof. Luigi De Luca, primo motore dei miei studi scientifici e mio carissimo zio.

15.1

Introduzione.

La seconda parte di questo testo è un supporto didattico ad un corso di Scienza delle Costruzioni e di Meccanica dei Solidi per allievi ingegneri. Ci si può legittimamente chiedere il perché di un capitolo che sembra trattare piuttosto di questioni di Filosofia della Scienza. Una iniziale giustificazione di questa scelta può essere trovata invocando il principio di autorità. Il corso di Scienza delle Costruzioni, nell’impostazione e nei contenuti, è stato elaborato da molte generazioni di docenti e scienziati. Ebbene in tutti i corsi -anche i peggiori sia dal punto di vista scientificotecnologico (per quanto riguarda la scelta degli argomenti trattati) sia didattico (relativamente a come i predetti contenuti sono esposti)- si tenta di fondare la disciplina a partire da una rigorosa analisi dei suoi principi scientifici. Bisogna ammettere che, purtroppo, talvolta questo tentativo è perseguito soltanto per mezzo di un artificio: cioè utilizzando un linguaggio esoterico1 . D’altra parte la Scienza delle Costruzioni, che in francese è chiamata Resistance des Materiaux ed in Inglese Strenght of Materials, ha avuto come fondatori Galileo, Eulero, almeno due membri della famiglia Bernoulli, Navier, Cauchy, Saint-Venant, Maxwell, Beltrami. Essa è stata riconosciuta, fin dalla istituzione dell’Ecole Polytechnique, una materia di base nella scuola di applicazione per ingegneri perché non tratta direttamente delle regole tecniche del progettare in sicurezza ed efficienza una struttura. (Tali regole sono importantissime, e la loro valenza scientifica, culturale e formativa non deve assolutamente essere messa in discussione: esse sono oggetto dei corsi successivi, come per esempio quello di Tecnica delle Costruzioni, Geotecnica, Costruzioni Idrauliche, Costruzioni Aeronautiche, Robotica ecc.) La Scienza delle Costruzioni ha piuttosto come finalità il portare l’allievo ingegnere alla conoscenza di alcuni modelli matematici di una enorme mole di fenomeni (quelli che occorrono quando un qualsiasi materiale o struttura si deformano) la cui descrizione è essenziale per progettare, controllare e prevedere il comportamento di una infinità di apparati, tecnologie ed artefatti ingegneristici. Tuttavia non è disciplina di base, per l’ingegneria, come le matematiche, la fisica o la chimica: infatti nella modellazione dei fenomeni meccanici che sono alla base del comportamento delle strutture deve essere incessante il riferimento alle ipotesi semplificatrici necessarie per ottenere modelli matematicamente trattabili e contemporaneamente capaci di descrivere fenomeni non banali e di interesse nelle applicazioni. Quindi la sua trattazione non può e non deve essere né puramente logico-deduttiva, ché altrimenti si confonderebbe la Scienza delle Costruzioni con una parte delle matematiche che essa utilizza, né generale e fondamentale come accade nei corsi di fisica o chimica: l’ambito della modellazione deve essere ristretto ad una particolare classe di fenomeni meccanici tenendo sempre chiaramente in vista l’utilizzo nella pratica ingegneristica dei modelli introdotti. Questa dichiarata autolimitazione dell’ambito dei suoi interessi non deve essere però fraintesa: recentemente i modelli tradizionalmente sviluppati nell’ambito della Scienza delle Costruzioni hanno dimostrata la loro attualità e modernità, giocando un ruolo cruciale nello sviluppo di nuove ed importanti tecnologie. Si pensi, ad esempio, ai fenomeni in biomeccanica, piezoelettricità, magnetostrizione, ferromagnetismo che si stanno 1 Ovviamente il linguaggio esoterico più facilmente disponibile per impressionare il profano è quello fornito dalla matematica, e l’effetto voluto è tanto più facilmente ottenuto quanto più moderno è il formalismo utilizzato e quindi quanto più ristretto il numero dei lettori che ne abbiano una ragionevole padronanza. Si noti tuttavia che è stato sviluppato un linguaggio da iniziati proprio dei cultori della Scienza delle Costruzioni e della Meccanica delle Strutture, linguaggio che è utilizzato talvolta solo per rivendicare la loro particolarità di tecnologi astratti.

173

174

CAPITOLO 15. CENNI DI TEORIA DEI MODELLI

rivelando così importanti in molti campi dell’ingegneria ambientale, biomedica, aerospaziale, elettronica e delle telecomunicazioni. La visione precedentemente esposta è unanimemente condivisa da tutti quelli che in passato hanno affrontato il problema di scegliere gli argomenti per il corso e di scrivere un testo per i propri studenti: sebbene concepiti molti decenni fa, a mio avviso, sono molto suggestivi i testi di Colonnetti [12] o di Baldacci [3]. Molto istruttivo, anche per chi ritenga di conoscere già la materia, è il testo, più moderno, usato all’Ecole Polytechnique da J.Salençon [36]. Ma il principio di autorità non deve essere il solo a motivare la scelta di parlare di Teoria dei Modelli nel presente contesto. In ogni corso di Scienza delle Costruzioni si espongono i fondamenti della teoria della trave e di quella dei corpi deformabili. Oggetto di queste teorie sono il comportamento meccanico di strutture sottoposte a carichi esterni e vincolate. Ora uno stesso blocco di materiale (snello) soggetto ad un dato sistema di carichi viene mo in letteratura in modi molto diversi: 1. utilizzando il modello di trave di Eulero-Bernoulli, la cinematica del blocco è descritta per mezzo della sua curva d’asse e la sua resistenza da una o al più due rigidezze (flessionale ed estensionale); 2. utilizzando il modello di Timoshenko, tale cinematica è ulteriormente precisata introducendo il campo delle rotazioni delle sue sezioni trasversali alla curva d’asse cosicchè almeno una rigidezza al taglio deve essere aggiunta; 3. utilizzando l’approccio alla Cauchy (anche limitandosi al caso di piccole deformazioni) la cinematica dello stesso blocco è di molto complicata, essendo caratterizzata da un campo di spostamenti definito su di una forma tridimensionale del corpo, detta forma di riferimento, mentre per descrivere la deformabilità sono necessarie in generale ventuno rigidezze; 4. utilizzando una teoria atomica (si ricorderà che in un primo tentativo dovuto a Navier questo era proprio l’approccio utilizzato) la cinematica è quella di molte moli (nel senso di Avogadro) di particelle materiali collegate fra loro (di qui una dettagliatissima descrizione delle modalità di deformazione del corpo considerato) da forze centrali di tipo elastico. Si noti che una analisi empirista della serie presentata di descrizioni dello stesso oggetto fisico porterebbe a concludere che ciascuna di tali descrizioni è più vera di quella precedente; tra l’altro tale analisi avrebbe difficoltà a giustificare il fatto che l’ordine di elencazione scelto non è cronologico. Ancora più difficile, in questa ottica, sarebbe giustificare il perchè non si proponga l’utilizzo di una qualche Teoria Quanto-Relativistica che utilizzi quarks o qualche altro costituente elementare della materia. Ovviamente questa regressione verso l’infinitamente dettagliato, dettata dal tentativo di identificare la vera natura dei sistemi meccanici studiati, è fondamentalmente inutile perché rende impossibile lo studio del comportamento di semplici strutture utilizzate in tante applicazioni, non solo ingegneristiche. L’atteggiamento più appropriato da assumere è proprio quello proposto nell’ambito della teoria dei modelli (una elegante trattazione della quale si può trovare, per esempio, nel saggio di R. Aris [1]): rinunciando ad inseguire la vera natura dell’ente fisico oggetto dello studio ci si limita a modellarne alcuni aspetti che risultino importanti in una classe di situazioni e di fenomeni ben precisata. Il modello di Cauchy risulterà appropriato quando sia rilevante il dettaglio della deformazione delle sezioni trasversali del corpo snello, quello di Eulero quando questa deformazione abbia effetti trascurabili, rimanendo tali sezioni trasversali ortogonali alla linea d’asse, mentre la teoria di Timoshenko sarà utile nel caso in cui si presentino scorrimenti di taglio, cioè difetti di ortogonalità delle citate sezioni. Non risulta che sia stato fino ad ora di una qualche utilità studiare la struttura di un’ala di aeroplano a livello atomico, o in regime di velocità prossime a quelle della luce, ma non è saggio pronunciarsi per le necessità che si possano presentare in futuro. È interessante notare (si veda per esempio ancora Aris [1] oppure il manuale Pensare per Modelli della Open University [41]) che i vari modelli proposti di corpo deformabile e di strutture reticolari sono considerati sistematicamente come esempi di modelli di successo e per meglio spiegare le affermazioni generali della Teoria dei Modelli: infatti uniscono quelle rare caratteristiche di maneggevolezza matematica e di precisione descrittiva della realtà che sono auspicabili in ogni modello matematico di un qualche fenomeno fisico. Probabilmente è la familiarità con i vari modelli di corpo deformabile - insieme alla necessaria capacità di passare da una descrizione all’altra di un medesimo ente fisico e di stabilire delle relazioni fra tali differenti descrizioni - che rende, in generale, i cultori della Scienza delle Costruzioni contemporaneamente così inclini allo studio delle applicazioni, all’astrazione matematica ed alle discussioni metafisiche. Un’altra loro caratteristica peculiare è la tendenza alla estrema precisione dei loro discorsi, unita ad una cura quasi maniacale della scelta delle parole utilizzate. Tale caratteristica è facilmente comprensibile quando si tenga conto che nell’uso dei vari modelli da loro utilizzati correntemente è importantissimo, pena una confusione inestricabile di concetti e significati, distinguere, attribuendo loro diversi nomi, fra diversi enti: quelli fisici, che appartengono al

15.2. MORFISMI.

175

mondo dei fenomeni che vogliamo descrivere (i corpi deformabili) e quelli astratti, che servono come modello matematico dei primi (trave di Eulero, trave di Timoshenko, Continuo di Cauchy). Il necessario confronto fra le prestazioni dei vari modelli spiega, infine, sia le citate tendenze alla metafisica che la necessità di scegliere diversi nomi per caratterizzare i diversi enti matematici utilizzati per descrivere un medesimo ente fisico. Il fatto che una ragionevole padronanza dei metodi della Scienza delle Costruzioni richieda l’utilizzo di diversi registri intellettuali induce talvolta gli allievi ingegneri a non accettarne l’utilità ed a ritenerla incomprensibile e lontana dalla pratica. Al lettore che, arrivato a questo punto, ritenga di poter dedurre dalla presente introduzione la totale inutilità delle sezioni successive si può consigliare di, tout simplement, saltarle: la sua posizione è altrettanto rispettabile di quella rappresentata dalla letteratura -di parte- che viene citata a difesa delle scelte fatte nella loro stesura. Il più antico sostenitore di cui si abbia notizia della inutilità della Teoria dei Modelli e della sua visione di base è Sesto Empirico, come chiaramente si evince fin dalle prime frasi del suo Adversus Mathematicos: insieme a molti suoi epigoni egli recisamente nega l’utilità dei modelli matematici nella descrizione del mondo fisico. Al lettore che ritenga, invece, di leggere le sezioni seguenti è dovuto un avvertimento: non si aspetti di potere apprezzare appieno gli esempi che vi troverà prima di avere assimilato i concetti esposti nei capitoli successivi. Questo prologo deve essere considerato anche un epilogo da rileggere come capitolo di riorganizzazione della materia trattata in tutto il presente testo.

15.2

Morfismi.

l’aspetto più delicato del nostro tentativo di dare una rappresentazione logica del mondo fisico è racchiuso nel concetto di modello matematico. Per illustrare tale concetto (utilizziamo qui una rielaborazione di quanto esposto nel manuale Algebra della Open University [40]) dobbiamo fare ricorso alla nozione algebrica di morfismo, di seguito introdotta. Siano (X1 , X2 , X3 ) e (Y1 , Y2 , Y3 ) due terne di insiemi, per ciascuna delle quali sia definita una operazione binaria. Una tale operazione associa ad ogni coppia di elementi in X1 × X2 (risp. Y1 × Y2 ) un elemento di X3 (risp.Y3 ). Indicandole rispettivamente con i simboli ¯ e ¡ avremo: ¯ : X1 × X2 → X3 ,

(15.1)

¯ : (x1 , x2 ) ∈ X1 × X2 7→ (x1 ¯ x2 ) ∈ X3 ,

(15.2)

¡ : Y1 × Y2 → Y3 ,

¡ : (y1 , y2 ) ∈ Y1 × Y2 7→ (y1 ¡ y2 ) ∈ Y3 .

Siano inoltre fi (i = 1, 2, 3) una terna di applicazioni iniettive da Xi ad Yi : fi : Xi → Yi ,

fi : xi ∈ Xi 7→ fi (xi ) ∈ Yi .

(15.3)

Costruiamo il seguente diagramma: (x1 , x2 ) ∈ X1 × X2

− → ¯

x1 ¯ x2 ∈ X3

(f1 , f2 ) ↓ (f1 (x1 ) , f2 (x2 )) ∈ Y1 × Y2

¡ − →

f1 (x1 ) ¡ f2 (x2 ) ∈ Y3

&

f3

?=

f3 (x1 ¯ x2 )

(15.4)

A priori le due “strade” che partono dalla coppia (x1 , x2 ) non portano allo stesso risultato, ovvero in generale non vale il segno di uguale in basso a destra nel diagramma. Nel caso particolare in cui i due risultati coincidano sempre (cioè per ogni coppia (x1 , x2 )), la terna di applicazioni (fi ) è detta morfismo della struttura algebrica (X1 × X2 × X3 , ¯) nella struttura algebrica (Y1 × Y2 × Y3 , ¡) . I due esempi che seguono servono ad illustrare meglio il concetto di morfismo appena introdotto. • Il logaritmo di un numero reale positivo rappresenta un morfismo di IR munito dell’operazione prodotto in IR munito dell’operazione somma poichè log(xy) = log(x) + log(y).

(15.5)

176

CAPITOLO 15. CENNI DI TEORIA DEI MODELLI Si noti che nel caso in esame i tre insiemi Xi ed i tre insiemi Yi sono tutti copie di IR e tutte e tre le funzioni fi coincidono con log . Come già dimostrato da Archimede nel suo Arenario (si veda Boyer [8] e Lucio Russo [35]) un tale morfismo è molto utile quando si vogliano calcolare i prodotti di numeri molto grandi.

• Consideriamo a) un circuito RLC collegato in serie ad un generatore di potenziale V (t) e b) una particella materiale di massa m, in moto su una retta assegnata, soggetta ad una forza esterna assegnata F (t), una forza di richiamo elastica lineare con costante k ed una forza di attrito proporzionale alla velocità, con costante di viscosità µ. Consideriamo poi i) l’operazione che associa alla coppia circuito RLC e generatore di potenziale il segnale carica capacitiva Q(t) corrispondente ad un certo stato iniziale del circuito RLC; ii) l’operazione che associa alla coppia particella materiale e forza esterna il moto x(t) corrispondente ad un certo stato iniziale della particella; iii) le funzioni che associano le costanti RLC alle costanti µ, m, k , V (t) rispettivamente ad F (t) e Q(t) ad x(t) (tutte le grandezze considerate essendo opportunamente adimensionalizzate). L’evidenza sperimentale permette di affermare che, in una ampia gamma di situazioni, le tre funzioni (rispetto le operazioni) introdotte rappresentano un morfismo. Solitamente quando un tale morfismo fra fenomeni fisici viene osservato si dice che si è stabilita un’analogia fisica. Il concetto di analogia fisica è stato utilizzato sovente nell’insegnamento delle materie tecnico-scientifiche e nella pratica professionale perché si ritiene che grazie ad esso si ottengano interessanti suggerimenti sul comportamento dei due fenomeni così confrontati. In passato, per esempio, sono stati trovati circuiti elettrici analoghi ad alcune strutture particolarmente interessanti nelle applicazioni dell’ingegneria civile: tali circuiti sono da considerarsi come calcolatori analogici utilizzabili per la progettazione delle citate strutture. Oppure, ancora, nello studio delle travi di Saint-Venant è stato notato come, utilizzando una sorprendente analogia fisica con i fenomeni di deformazione di una membrana di uguale sezione, si possano ottenere interessanti informazioni sulla loro deformazione torsionale. L’analogia fisica fra due fenomeni è spesso giustificata solo invocando l’accertamento di una solida evidenza sperimentale. In realtà (si veda la bella discussione sviluppata in Feynman [14]) tutte le analogie fisiche sono sempre ottenute per mezzo della mediazione di due processi di modellazione matematica: i) due fenomeni fisici sono modellati per mezzo di opportuni enti matematici ed equazioni differenziali; ii) fra tali enti ed equazioni si stabilisce una corrispondenza biunivoca; iii) si dimostra infine che, note le soluzioni delle equazioni modello del primo fenomeno, sono note anche quelle relative al secondo (e viceversa); iv) infine si collegano fra di loro gli aspetti dei due fenomeni confrontati ritenuti nei modelli matematici già introdotti. Purtroppo spesso la trattazione di questo complesso procedimento viene semplificata non riportando i passi da i) a iii) ma semplicemente riferendo il risultato ottenuto in iv). Esempio 219 Consideriamo a) l’insieme Γ delle curve di classe C 1 a tratti nello spazio puntuale euclideo tridimensionale e l’insieme delle distribuzioni (nel senso di Schwartz) di forze e momenti definito sulla generica γ ∈ Γ; b) l’insieme delle forme di un corpo deformabile B e l’insieme delle possibili interazioni meccaniche di tale corpo con il mondo esterno; supponiamo inoltre che B sia snello, cioè che in presenza delle citate interazioni abbia sempre una forma in cui una dimensione sia dominante rispetto alle altre due. Consideriamo poi i) l’operazione che, per mezzo della soluzione dell’equazione differenziale della linea Elastica detta di Eulero, associa ad una curva γ 0 e ad una distribuzione di forze e momenti la curva γ; ii) l’operazione che associa alla forma indeformata e ad una interazione la forma che il corpo assume a causa di quest’ultima; iii) le funzioni che associano ad una curva γ la forma del corpo ottenuta traslando una figura piana (detta sezione) lungo la stessa γ, e ad una distribuzione di forze e momenti la corrispondente interazione meccanica. Si noti che nell’esempio in esame gli insiemi X1 e X3 , Y1 e Y3 e le funzioni f1 e f3 coincidono. L’evidenza sperimentale dimostra che in un’ampia gamma di situazioni le funzioni (rispetto alle operazioni) appena definite rappresentano un morfismo. Oggetto della teoria della trave di Bernoulli-Navier (formalizzazione delle idee di Eulero) e di una gran parte dei corsi di Scienza delle Costruzioni è la costruzione e l’analisi di tale morfismo.

15.3

Modelli Matematici di Fenomeni Fisici.

Facendo riferimento all’Esempio 219, e secondo la nomenclatura utilizzata da Aris [1], possiamo dire che gli enti descritti al punto b) sono il prototipo dell’insieme degli enti descritti al punto a), che, a causa dell’esistenza del morfismo introdotto, ne sono un modello matematico. Data una ben precisata classe di enti e di fenomeni fisici un loro modello matematico è ottenuto:

15.3. MODELLI MATEMATICI DI FENOMENI FISICI.

177

1. Scegliendo, a priori, una classe di enti matematici e di regole di identificazione fra enti matematici ed enti fisici; 2. Verificando in quali circostanze le citate regole di identificazione sono effettivamente un morfismo, facendo uso sia di ragionamenti logico-deduttivi (per investigare le relazioni fra gli enti matematici introdotti) sia del metodo sperimentale (per investigare le relazioni fra gli enti fisici considerati).

15.3.1

Una visione induttivista del concetto di modello matematico.

A seconda di quale sia l’insieme di definizione delle funzioni fi che appaiono nella definizione di morfismo data nella sezione precedente, il nostro modellista avrà una visione induttivista o deduttivista del metodo scientifico. Consideriamo il seguente diagramma di morfismo:

Insieme degli oggetti fisici

operazioni fisiche −→

modello ↓ Insieme degli oggetti matematici

risultati fisici

modello ↓ operazioni matematiche −→

(15.6)

risultati matematici

Questo diagramma riflette una visione induttivista (e ci sembra di poter dire Platonico-Newtoniana) che si basa sulla speranza di poter trovare, forse dopo una serie di tentativi ed errori, il modello: cioè il morfismo tra il mondo fisico e l’insieme degli oggetti matematici utilizzato per descriverlo. La speranza consiste nel ritenere che l’intera realtà sia rappresentabile nell’universo matematico e quindi, almeno in linea di principio, completamente prevedibile. Si vuole intendere cioè che i due mondi hanno in sostanza la stessa forma (Galilei afferma che il gran libro della natura è scritto con i caratteri della matematica e della geometria): il progresso della scienza consisterebbe, in tale visione, nell’aggiungere sempre più dettagli (cioè oggetti matematici) nella nostra descrizione del mondo. La validità universale del modello sarebbe verificata sperimentalmente in maniera indiscutibile proprio accertandosi della chiusura del diagramma, ovvero della perfetta corrispondenza tra risultati matematici e risultati fisici. A difesa della visione induttivista vengono ricordati (a nostro avviso a sproposito) i successi della meccanica Newtoniana: per esempio utilizzando il modello Newtoniano del sistema solare Gauss aveva calcolato l’effetto sull’orbita di un pianeta intorno al Sole della presenza di un altro pianeta dall’orbita più esterna. Analizzando l’orbita di Urano, fu possibile a Leverrier, nel 1846, verificare l’esistenza di Nettuno. Tale argomentazione è stata facilmente confutata da Bertrand Russell con il suo aneddoto del tacchino induttivista2 (per maggiori dettagli si veda la p.24 di Chalmers [10]).

15.3.2

Una visione deduzionista-falsificazionista del concetto di modello matematico.

Il meccanicismo scientifico Newtoniano è da considerare troppo ambizioso. Più modestamente, seguendo la visione di K.Popper, bisogna rassegnarsi a considerare, invece di (15.6) il seguente altro diagramma: 2 Un tacchino induttivista, serio sperimentatore, decide di formulare una teoria riguardo le modalità con cui il fattore nutre i suoi tacchini. D’inverno e d’estate, se piove o se è tempo sereno, in tutti i giorni della settimana, se ha litigato o meno con la moglie, ecc. ecc. il fattore alle 19 in punto nutre tutti i tacchini. Il tacchino, confortato dall’enorme mole di dati raccolti l’antivigilia di Natale enuncia solennemente la sua legge universale: Il fattore ci nutre sempre e lo fa alle 19 in punto. Alle 11 della vigilia di Natale al tacchino fu tirato il collo.

178

CAPITOLO 15. CENNI DI TEORIA DEI MODELLI

Insieme degli oggetti matematici

operazioni matematiche −→

modello↓

Insieme degli oggetti fisici

risultati matematici

modello↓

operazioni fisiche −→

(15.7)

risultati fisici

Nella visione deduzionista-falsificazionista si riconosce esplicitamente che la teoria precede l’osservazione e la dirige, e si rinuncia alla pretesa che le teorie siano accertabili come (anche probabilmente) vere in forza dell’evidenza sperimentale. Le teorie sono congetture speculative, avanzate a titolo di prova, ipotesi create nel tentativo di risolvere le incongruenze presentatesi nelle teorie precedenti e di descrivere il comportamento di alcuni aspetti della realtà. Quando tali congetture sono state formalizzate debbono essere sottoposte al vaglio del confronto con l’evidenza sperimentale: in questo modo le teorie più efficaci sono selezionate mentre quelle confutate sono scartate. Pur rinunciando ad affermare che una teoria è vera si può sostenere che è la migliore a disposizione, cioè più adatta delle precedenti. Il compito del modellista (e l’ordine è anche temporale) consiste nello 1) sviluppare teorie (in greco teoria significa visione, osservazione)3 , cioè creare sistemi di assiomi e dedurre da essi un insieme significativo di teoremi 2) stabilire corrispondenze tra gli oggetti di una data teoria e parti limitate della realtà (le funzioni fi della definizione di morfismo sono iniettive ma non suriettive!) 3) verificare che tutte le previsioni prodotte nell’ambito della teoria non siano confutate sperimentalmente (le fi sono un morfismo, limitatamente ad alcuni sottoinsiemi di fenomeni e situazioni fisiche). Caratteristica fondamentale di un dato modello è la sua falsificabilità: nell’ambito di un dato modello bisogna poter prevedere che un dato fenomeno accadrà (o non accadrà) in modo che l’evidenza sperimentale possa verificare o confutare (falsificare) il modello proposto. Questa concezione del metodo scientifico, sebbene possa sembrare limitativa, è probabilmente in grado di dare un quadro unitario e comprensibile del modo d’investigare proprio della scienza. Può essere interessante scoprire che, nel formulare la sua storica abiura, Galileo abbracciò una dottrina epistemologica molto simile a quella falsificazionista e che successivamente, nella sua prigione di Arcetri, ebbe il permesso di studiare solo la nuova Scienza della Deformabilità dei Corpi. Chi a questo punto ritenesse di voler resistere nella sua posizione induttivista dovrebbe anche ricordare che la meccanica newtoniana applicata allo studio del moto dei pianeti non può considerarsi dimostrata dalle esperienze di Leverrier: infatti più recentemente è stato possibile descrivere l’evidenza sperimentale relativa al moto di Mercurio solo grazie alla meccanica relativista.

15.4

Relazione fra Matematica, Scienza e Tecnologia.

Le tesi accennate in questa sezione sono sostanzialmente riprese dal saggio di L. Russo [35], che ci sembra illuminante ed al quale rimandiamo per un approfondimento delle questioni cui qui solamente accenniamo. Forse paradossalmente, la concezione deduzionista ipotetico-deduttiva presentata nella sezione precedente è probabilmente più antica di quella induttivista, risalendo, almeno, alla Scuola scientifico-tecnologica Ellenistica del III sec. a.C. Questo è quanto sembra si possa concludere leggendo (insieme alle altre opere della stessa Scuola che ci sono pervenute) Il Metodo di Archimede di Siracusa4 : Archimede saluta Eratostene...... Vedendo in te quello che io considero uno studioso appassionato ed un uomo eccellente in filosofia che tributa il dovuto onore alle investigazioni matematiche, quando esse risultano necessarie, io ho pensato opportuno scriverti per spiegare in dettaglio la peculiarità di un certo metodo, mediante il quale tu sarai in grado di cominciare a congetturare teoremi riguardo gli oggetti matematici per mezzo della meccanica. Io sono persuaso che questo metodo è altrettanto utile anche nella dimostrazione rigorosa (degli stessi teoremi che induce a congetturare): perchè alcune cose mi furono chiare prima per mezzo della meccanica, sebbene esse dovessero essere successivamente provate geometricamente, poichè il congetturare con questo 3 Uno studio approfondito dell’etimologia della parola teoria porterebbe il lettore a scoprire che essa ha radice comune con la parola teatro. Suggestivamente si può affermare che secondo gli inventori greco-ellenisti della parola teoria lo scienziato che ne formula una è uno spettatore del teatro dei fenomeni, ne osserva la sequenza e li sintetizza con metodi matematici. 4 L’unica copia del quale ci è pervenuta in maniera molto fortuita: nel 1906 Heiberg la scoprì fotografando un palinsesto di preghiere della Chiesa Ortodossa ottenuto grattando via l’inchiostro per una trascrizione di molte opere Archimedee.

15.4. RELAZIONE FRA MATEMATICA, SCIENZA E TECNOLOGIA.

179

metodo non significa produrre una dimostrazione. D’altra parte è, naturalmente, molto più facile fornire una dimostrazione quando una qualche conoscenza delle proprietà cercate sia stata acquisita con questo metodo piuttosto che cercarla senza una conoscenza a priori. (segue il calcolo dell’area sottesa da un arco di parabola utilizzando i risultati sull’equilibrio delle forze ottenuti da Archimede nell’altra sua opera Sull’Equilibrio). I risultati appena ottenuti non sono stati, tuttavia, dimostrati rigorosamente: abbiamo solo una indicazione del fatto che essi sono veri. Perciò noi consci che il teorema non è dimostrato ma solo sospettando che il risultato sia vero faremo ricorso ad una prova geometrica, che io stesso ho scoperta e ho già pubblicata. Con Colonnetti riteniamo Archimede un padre della fisica matematica5 e, per questo, possiamo sostenere, con Boyer, che Archimede avrebbe potuto benissimo tenere un corso teorico di architettura navale (o di Statica o di Meccanica delle Strutture o di Idraulica o di Costruzioni Idrauliche) e che, sebbene probabilmente avrebbe preferito un corso di matematica pura, non era uno scienziato da tavolino (ma si può addirittura negare che ne esistano): quando necessario era capace di mettere a frutto la sua capacità meccanica. Il ruolo che sarebbe stato appropriato nel sistema universitario moderno per uno scienziato-tecnologo come lui è chiarito dal testo tratto dal Manuale di Erone d’Alessandria riportato in quarta di copertina. In tutti i testi Archimedei (si vedano i libri Sull’Equilibrio o Idrostatica) la mossa d’apertura è l’elenco degli oggetti e dei teoremi matematici che costituiscono la prima riga dello schema (15.7) e solo successivamente ci si preoccupa di stabilire le relazioni di morfismo fi necessarie a dare una interpretazione fisica del modello. Quindi si può concludere che Archimede 1) distingueva bene il prototipo dal suo modello matematico 2) sapeva che la dimostrazione matematica nell’ambito del modello di una certa proprietà è del tutto indipendente dal fatto che la corrispondente proprietà sia verificata dal prototipo 3) accettava il metodo ipotetico-deduttivo. Per l’importanza che a questo metodo veniva data da Archimede (e da tutta la scuola Ellenistica) per lo studio di questioni tecniche si fa riferimento ancora una volta ad Erone: nella letteratura successiva l’accento sulla priorità della formulazione matematica rispetto agli altri momenti dello sviluppo del modello è malinteso. Seguendo gli empiristi alla Sesto Empirico si è ritenuto che Archimede e tutti gli scienziati Ellenistici disprezzassero le applicazioni, mentre essi ritenevano che l’approccio deduzionista fosse l’unico portatore di frutti nelle applicazioni. Riteniamo che Lucio Russo abbia ragione quando sostiene che le seguenti affermazioni, alcune delle quali sono accettate ora da una gran parte degli scienziati moderni e che facciamo nostre in toto, si sarebbero potute sentire pronunciare da Archimede in una sua lezione: 1. La grande utilità della scienza esatta consiste nel fornire modelli del mondo reale all’interno dei quali esiste un metodo garantito per distinguere le affermazioni vere da quelle false. 2. La scienza riesce a garantire la verità delle proprie affermazioni a patto di limitarle all’ambito di applicazione dei modelli. 3. Tali modelli permettono di descrivere e prevedere fenomeni naturali ed hanno la possibilità di autoestendersi con il metodo dimostrativo e quindi divengono modelli di settori di attività tecnologica: la loro predittività viene utilizzata per concepire dispositivi tecnologici nuovi. 4. La tecnologia scientifica caratterizzata dall’avvalersi di una progettazione effettuata all’interno di teorie scientifiche appare intrinsecamente legata alla stessa struttura metodologica della scienza esatta e non può che nascere da questa. 5. In nessuna società si è sviluppata una tecnologia in grado di produrre efficacemente apparati veramente nuovi senza che questa tecnologia si sviluppasse e fosse sostenuta da un insieme di teorie scientifiche: probabilmente la prima cultura in grado di sviluppare una tecnologia scientifica è stata quella ellenistica (III-II sec.A.C.). Le conoscenze tecnologiche, prive del substrato scientifico di cui erano prodotto, furono solo al più conservate in epoca romana e si dovè aspettare la seconda rivoluzione scientifica rinascimentale per vedere nuovi sviluppi della scienza e di conseguenza della tecnologia.

5 Con un uso di questa espressione, forse non da tutti condiviso, intendiamo con fisica matematica quella parte della scienza che si occupa di formulare modelli logico-deduttivi falsificabili per la descrizione di fenomeni fisici.

180

CAPITOLO 15. CENNI DI TEORIA DEI MODELLI

Capitolo 16

CINEMATICA GALILEIANA 16.1

Introduzione.

In cinematica si descrivono l’insieme degli stati in cui un sistema si può trovare e l’insieme dei moti ad esso consentiti 1 . D’altro canto la determinazione delle equazioni differenziali che permettono di prevedere il moto di un sistema dato (cioè dell’evoluzione temporale del suo stato) è oggetto della dinamica. Parafrasando Lagrange e D’Alembert: “l’evoluzione di un sistema percorre una successione di stati, che l’integrazione di un opportuno sistema di equazioni differenziali consente di definire”. La Meccanica dei Solidi e delle Strutture fornisce modelli matematici per lo studio dell’evoluzione temporale dello stato dei sistemi di corpi in risposta ad assegnate interazioni con il mondo esterno: dunque nel suo ambito giocano un ruolo rilevante considerazioni geometriche riguardo lo spazio fisico nel quale i corpi si piazzano e si muovono. Tutte le cinematiche concepibili per un dato corpo avranno in comune la necessità di descrivere la localizzazione spaziale di tutte le parti di materia che lo costituiscono: quindi la cinematica di un corpo dovrà sempre almeno includere delle funzioni piazzamento che specifichino il posto in cui sono localizzate tutte le particelle materiali che si assume lo costituiscano.

16.2

Particelle materiali ed osservatori.

Il modello di particella materiale (o sostanziale) è utilizzato per descrivere un corpo le cui dimensioni sono trascurabili rispetto i) alle distanze che percorre nel suo moto e ii) a qualsiasi altra lunghezza rilevante nei fenomeni che lo interessano. Il moto delle particelle materiali è solitamente riferito ad un osservatore. Definizione 220 Si chiama osservatore O una funzione che associa ad ogni istante t e ad ogni particella materiale P una terna rO,P (t) di numeri reali. Un osservatore è quindi in grado di localizzare in ogni istante tutte le particelle materiali al cui moto è interessato: la terna rO,P (t) caratterizza la traslazione fra l’origine2 O di O ed il posto dove si trova, all’istante t, la particella P. Quando questo non causerà possibilità di confusione denoteremo tale traslazione rP (t) tralasciando di specificare esplicitamente l’osservatore. Si noti che grazie alla definizione appena introdotta è possibile, nella formulazione del modello particella materiale, stabilire l’essenziale distinzione fra un corpo e la posizione che esso occupa. Come già notato da D’Alembert la necessità di una tale distinzione è cruciale quando si voglia correttamente descrivere il moto: purtroppo ancora oggi alcuni testi di meccanica risentono dell’influenza della scuola Cartesiana che la negava sulla base di oscure ragioni metafisiche. Più in generale un osservatore associa ad ogni evento e, che gli è dato di considerare, un istante di tempo t ed una traslazione rO,e (t), che lo localizza. Considerati i due eventi e1 ed e2 avvenuti all’istante t, l’osservatore O individuerà la traslazione rO,e1 ,e2 (t) dall’evento e1 all’evento e2 per mezzo della relazione rO,e1 ,e2 (t) = rO,e2 (t) − rO,e1 (t).

(16.1)

1 Una discussione approfondita di questi concetti chiave nella scienza e nella tecnologia si può trovare alla voce Sistema dell’Enciclopedia Einaudi 1981. 2 Si intende per origine O di un osservatore l’insieme degli eventi da lui localizzati con le coordinate (0, 0, 0).

181

182

16.3

CAPITOLO 16. CINEMATICA GALILEIANA

Cinematica galileiana.

Fissato un osservatore O chiameremo cambiamento di unità di misura una applicazione lineare non degenere ΦO : IR3 → IR3 utilizzata per trasformare la terna rO,e , che localizza il generico evento e, nella terna ΦO (rO,e ) . In generale due osservatori distinti possono usare diverse unità di misura per valutare sia le distanze spaziali fra i posti occupati dalle particelle materiali considerate che gli intervalli di tempo fra i diversi fenomeni osservati. Assioma 221 Della struttura euclidea dello spazio delle traslazioni. Ogni osservatore può scegliere le terne di numeri reali che localizzano gli eventi considerati (cambiando opportunamente il suo sistema di unità di misura) in modo che le distanze e gli angoli fra due traslazioni siano stimate utilizzando il prodotto scalare euclideo in IR3 . È concepibile che il moto relativo di due osservatori possa influenzare le loro misure della distanza spaziale e di intervalli temporali. Quando si escluda questa possibilità, si è indotti a formulare il seguente assioma, che caratterizza la cinematica galileiana: Assioma 222 Della invarianza galileiana delle distanze e degli intervalli di tempo. Si consideri una generica coppia di due osservatori. È sempre possibile che essi possano scegliere un insieme di unità di misura comune (per mezzo di opportuni cambiamenti di unità di misura) per il quale le lunghezze e gli angoli fra traslazioni corrispondenti agli stessi eventi, come da loro indipendentemente determinati, siano coincidenti. Inoltre l’insieme degli eventi contemporanei per un osservatore risultano contemporanei anche per l’altro. Si noti che, nell’enunciato dell’assioma di invarianza appena enunciato, si ammette la possibilità per ogni coppia di osservatori di stabilire quando alcuni fenomeni da loro indipendentemente osservati specifichino uno stesso evento. Nessuno che speri di descrivere e prevedere fenomeni fisici può negare tale possibilità. Per precisare come diversi osservatori misurano le lunghezze e gli angoli e stabilire come queste diverse misure sono correlate fra loro è necessario richiamare alcuni dei risultati di algebra lineare esposti precedentemente: infatti dai due enunciati assiomi, dalla proposizione 103, Parte I e dalle considerazioni svolte all’inizio della sezione 13.10 è immediato dimostrare la seguente altra: Proposizione 223 Della legge di trasformazione galileiana delle traslazioni per cambiamento di osservatore. Si assuma che i due osservatori O1 ed O2 abbiano scelto un insieme di unità di misura comune la cui esistenza è postulata nell’assioma 222. Dette r1 ed r2 le terne di numeri reali che localizzano un (O) medesimo evento e relativamente ai due osservatori O1 ed O2 e detta r12 la traslazione dall’origine di O1 all’origine di O2 come determinato da O1 all’istante t, allora esiste una matrice 3 × 3 ortogonale M12 tale che si ha: (O) r1 = M12 r2 + r12 . (16.2) Dimostrazione Consideriamo l’applicazione M12 : IR3 → IR3 ,

(16.3)

che associa la traslazione r2 dall’origine di O2 , che localizza e rispetto all’osservatore O2 , alla traslazione r1 − (O) r12 sempre dall’origine di O2 , che però localizza e rispetto all’osservatore O1 . Per l’assioma 222 l’applicazione M12 conserva il prodotto scalare euclideo. Quindi per la proposizione 103, Parte I, tale applicazione è lineare e rappresentata univocamente da una matrice ortogonale nella base naturale di IR3 (si tenga presente l’assioma (O) 221), che abbiamo denotata con il simbolo M12 . Come la traslazione r12 anche la matrice M12 può dipendere dall’istante t. La dimostrazione della seguente proposizione è banale: Proposizione 224 Nelle ipotesi della proposizione precedente e tenendo conto della definizione (16.1) si ha rO1 ,e1 ,e2 (t) = M12 (t)rO2 ,e1 ,e2 (t)

(16.4)

Dati due osservatori O1 ed O2 la matrice ortogonale M12 la cui esistenza è stata appena dimostrata è detta matrice di trasformazione delle traslazioni come misurate dall’osservatore O1 nelle traslazioni come misurate da O2 . Gli assiomi appena introdotti sono conformi ad un principio di ben più vasta portata, guida alla formulazione di ogni teoria meccanica. Ci riferiamo al principio di relatività galileiana. Tale principio stabilisce

16.4. SPAZIO ASSOLUTO DELLE POSIZIONI.

183

che le leggi della fisica devono essere formulate in modo che nessun osservatore abbia un ruolo privilegiato. Taluni, confusi dal tentativo di assiomatizzazione della meccanica dovuto a Mach,3 restringono il principio di relatività galileiana ai cosiddetti osservatori (o sistemi) inerziali: seguendo le più moderne assiomatizzazioni4 assumiamo, invece, che la sua validità sia generale. Un osservatore inerziale deve essere definito semplicemente come un osservatore per cui la forza d’inerzia di una particella materiale è uguale alla sua massa per la sua accelerazione, mentre un osservatore non inerziale osserva una forza d’inerzia in cui appaiono anche i termini correttivi di Coriolis, di accelerazione centripeta e di accelerazione complementare.

16.4

Spazio assoluto delle posizioni.

Nell’ambito della cinematica galileiana, grazie agli assiomi introdotti ed alla proposizione 223, è possibile definire lo spazio assoluto delle posizioni, concetto fondamentale in tutta la meccanica classica. Chiameremo posizione o posto assoluto la classe di equivalenza di tutte le coppie (O, rO,e ) che ad un dato istante t siano fra loro nella relazione specificata dalla (16.2). L’insieme di tutte tali posizioni, indicato con P, sarà chiamato spazio assoluto delle posizioni. Chiameremo vettore traslazione assoluta la classe di equivalenza di tutte le coppie (O, rO,e1 ,e2 ) che ad un dato istante t siano fra loro nella relazione specificata dalla (16.4). L’insieme di tutti tali vettori traslazione, indicato con T P è chiamato spazio delle traslazioni assolute. Dato un posto assoluto (risp. un vettore traslazione assoluta) e fissato un osservatore O, le corrispondenti terne rO,e (risp. rO,e1 ,e2 ) sono dette coordinate del posto (risp. del vettore traslazione) relativamente ad O. La somma di due vettori traslazione, il prodotto di un vettore di traslazione per uno scalare, il prodotto scalare fra due vettori di traslazione, il punto somma di un posto ed un vettore ed il vettore differenza fra posti sono definiti (univocamente grazie alle (16.2) e (16.4)) a partire dalle corrispondenti operazioni sulle componenti rispetto ad un osservatore. È semplice dimostrare, utilizzando le proprietà di spazio vettoriale euclideo di IR3 , la seguente: Proposizione 225 L’insieme di tutti i vettori traslazione T P è munito di struttura di spazio vettoriale. Lo spazio delle posizioni P della meccanica classica è uno spazio puntuale affine euclideo tridimensionale5 il cui spazio delle traslazioni è lo spazio vettoriale T P. Lo spazio P è il modello matematico dello spazio fisico dove si trovano e si muovono i corpi: esso è caratterizzato come un insieme di punti, detti posti, e di vettori, detti traslazioni. Una traslazione porta da un posto ad un altro ed ogni posto è raggiungibile a partire da un generico altro posto per mezzo di una traslazione. È istruttivo notare che la seguenti proposizioni sono banale conseguenza delle definizioni ed assiomi introdotti: Proposizione 226 Fissato un sistema di unità di misura che verifichi le condizioni specificate nell’assioma 222 ad ogni osservatore O può essere associata ad ogni istante t la coppia (O(t), {ei (t)}) , dove O(t)∈ P è il posto occupato all’istante t dalla sua origine ed {ei (t)} è una base ortonormale di T P , detta base di O, tale che la terna rO,e (t) rappresenta l’insieme delle componenti del vettore traslazione assoluto dall’origine di O al posto dove avviene e. Proposizione 227 Siano O1 ed O2 due osservatori le cui unità di misura verifichino le condizioni specificate 2 nell’assioma 222. Nello spazio vettoriale T P l’applicazione QO O1 che porta i vettori di base di O2 nei vettori di base di O1 è un tensore doppio ortogonale. Si ricorda che ogni operatore ortogonale conserva il prodotto scalare dei vettori cui è applicato. Quindi l’applicazione di un operatore ortogonale conserva la lunghezza e l’angolo fra i vettori. Se consideriamo una particella materiale P in moto in P, che occupa all’istante t la posizione x(t), si dice vettore posizione di P rispetto all’origine di O quel vettore che ha come componenti nella base {ei (t)} la terna rP (t). 3 Per una più dettagliata discussione sulla inconsistenza della Assiomatica di Mach rimandiamo il lettore al Capitolo 18. Notiamo esplicitamente qui che non è possibile introdurre una assiomatica per la meccanica in cui sia possibile definire il concetto di forza in termini di concetti primitivi puramente cinematici. 4 Formulate in Salençon [36] o in Noll [30]. 5 Uno studio dettagliato degli spazi puntuali affini si può trovare nel Capitolo 14.

184

16.5

CAPITOLO 16. CINEMATICA GALILEIANA

Lo spazio delle configurazioni come modello dell’insieme degli stati.

Nel formulare un modello matematico del comportamento di un dato sistema fisico si comincia sempre specificandone la cinematica. In questo modo si delimita con precisione l’ambito di applicabilità ed il grado di accuratezza del modello proposto. Questa accuratezza è determinata dalla definizione matematica dello spazio delle configurazioni che è modello dell’insieme degli stati nei quali il sistema si può trovare. Ogni stato fisico è così caratterizzato dalle proprietà che si credano rilevanti nei fenomeni da descrivere. Esempio 228 Consideriamo ad esempio l’oggetto fisico calamita di piccolo diametro e l’insieme dei suoi stati fisici. In assenza di campi magnetici ci si può limitare a caratterizzarne lo stato per mezzo delle coordinate spaziali del suo baricentro: accettando questa limitazione l’insieme spazio delle configurazioni scelto è lo spazio IR3 . Se siamo, invece, interessati a studiare il comportamento della stessa calamita anche quando essa sia immersa in un campo magnetico allora il modello di particella materiale è inadeguato e lo stato fisico della calamita deve essere descritto più dettagliatamente aggiungendo, come descrittore cinematico, l’orientazione del suo versore nord-sud (che è anche chiamato versore di spin). Infatti è impossibile descriverne (e quindi prevederne correttamente) il comportamento senza questa ulteriore specificazione: bisogna introdurre il modello matematico “particella con spin” il cui spazio delle configurazioni è IR3 × S 2 , dove S 2 è l’insieme dei possibili spin, cioè la sfera unitaria immersa in IR3 . Le considerazioni precedenti ci inducono ad affermare che forse il momento più importante nella costruzione di un modello risiede proprio nella caratterizzazione della sua cinematica, cioè nella specificazione dello spazio delle configurazioni che si vuole utilizzare nel suo ambito. Solo successivamente si introducono le equazioni di evoluzione per gli introdotti parametri cinematici, specificando la dinamica del modello. Non si pensi che questa strategia di costruzione di modelli matematici sia utile solo nella meccanica delle strutture: la teoria dei sistemi dinamici è stata sviluppata generalizzando il formalismo matematico introdotto da Lagrange per la meccanica allo studio di una più ampia classe di fenomeni fisici6 : per esempio Walras e Pareto la hanno utilizzata per descrivere il mercato e più in generale i sistemi economici, Gibbs i fenomeni termodinamici, Bertalanffy gli organismi viventi. Un medesimo ente fisico, a seconda di quale aspetto del suo comportamento si ritenga opportuno modellare, può essere descritto cinematicamente nei modi più disparati. Esempio 229 Come esempio della molteplicità di modelli matematici che possono essere utilmente introdotti per uno stesso oggetto fisico si ricorderà che la Terra è modellata come i) particella materiale, se si vuole studiare il suo moto sotto l’azione gravitazionale del Sole, ii) corpo rigido a forma di sfera schiacciata, se si vuole descrivere l’alternarsi delle stagioni e i correlati fenomeni di flusso di materia nell’atmosfera e negli oceani, iii) solido elastico deformabile, se si è interessati alla descrizione dei fenomeni di propagazione delle onde sismiche.

16.6

Spazi delle configurazioni finito od infinito dimensionali.

Passiamo ora a vedere quali sono alcune delle proprietà fondamentali dei modelli matematici utilizzati per descrivere l’insieme degli stati di un sistema. Poichè questo capitolo è dedicato allo studio della cinematica dei continui considereremo quasi esclusivamente esempi in cui un opportuno spazio delle configurazioni è introdotto per modellare l’insieme degli stati di sistemi di corpi. Lo spazio delle configurazioni è un insieme di enti matematici che viene introdotto come modello dello spazio degli stati di un dato sistema fisico. Le proprietà generali di cui deve godere uno spazio delle configurazioni sono state oggetto di profonde e fruttuose ricerche, iniziate dalle idee di Henri Poincarè. Il lettore interessato troverà in Arnold [2] una trattazione completa (ma abbastanza impegnativa) delle teorie che ne sono scaturite. In questa sezione ci limitiamo a distinguere gli spazi delle configurazioni finito-dimensionali da quelli infinito-dimensionali. Esempio 230 Il modello di particella materiale si basa sulla specificazione di uno spazio delle configurazioni finito dimensionale: tre parametri reali caratterizzano univocamente la configurazione di una particella materiale. Per introdurre un esempio di spazio delle configurazioni infinito dimensionale consideriamo il modello di D’Alembert della corda elastica. Dato un segmento (0, ) , dove rappresenta la lunghezza della corda in una configurazione di confronto, si introduce lo spazio M := C 0 (0, ) × C 0 (0, ) × C 0 (0, ) , 6 Intendiamo

quindi per sistema fisico un qualsiasi sistema che sarebbe stato descritto nella ϕυσικ` η aristotelica.

16.6. SPAZI DELLE CONFIGURAZIONI FINITO OD INFINITO DIMENSIONALI.

185

delle terne di funzioni continue definite sull’intervallo (0, ). Gli elementi di M sono i campi degli spostamenti delle particelle materiali costituenti la corda, essendo tali spostamenti rappresentati in un fissato sistema di coordinate. Quindi la configurazione di una corda è specificata da tre campi scalari.

16.6.1

Modelli finito-dimensionali: descrizioni con un numero finito di gradi di libertà.

Cominciamo con il caratterizzare una prima classe di modelli matematici: quelli in cui lo spazio delle configurazioni che modella (o caratterizza nell’ambito delle approssimazioni su cui si basa il processo di modellazione) l’insieme degli stati del sistema studiato è finito-dimensionale. Si supponga che, in un modello matematico, lo spazio delle configurazioni sia rappresentabile come l’unione di insiemi ciascuno in corrispondenza biunivoca con IRn . In questo caso si dirà che il modello è finito dimensionale ed i suoi gradi di libertà sono n. Al fine di chiarire tale affermazione, faremo riferimento ad una lista di esempi alcuni dei quali dovrebbero essere già noti al lettore. • Circuito : Lo stato del sistema circuito elettrico può caratterizzarsi specificando le correnti che scorrono attraverso i suoi rami e con le tensioni misurate ai capi di ciascun suo elemento. • Punto materiale nello spazio: Dato un sistema di riferimento, la configurazione di un punto materiale sarà definita dalle tre coordinate spaziali (x, y, z) che caratterizzano la sua posizione. Lo spazio delle configurazioni è quindi IR3 . • Gas perfetto: Lo stato di un gas perfetto in condizioni di equilibrio è caratterizzato quando siano noti la sua pressione e la sua temperatura (la sua densità risulterà allora determinata dall’equazione di stato): lo spazio delle configurazioni è quindi IR+ × IR+ . • Pendolo semplice piano: La sua configurazione è caratterizzata dall’angolo formato dalla retta passante per il baricentro ed il punto di sospensione con la verticale. Lo spazio delle configurazioni è S 1 , cioè il cerchio unitario immerso in IR2 . • Modello di Walras-Pareto di un mercato in libero scambio: Si assume caratterizzato lo stato di tale sistema economico quando siano noti i prezzi e la quantità offerta e domandata di ogni bene scambiato. Se i beni scambiati nel mercato sono n, lo spazio delle configurazioni sarà IRn+ × IR2n+ . Per maggiori dettagli il lettore interessato può consultare Arrow-Intriligator (1984). • Modello di Volterra della lotta per la vita fra predatore-preda: In questo caso la configurazione è caratterizzata dalla consistenza numerica delle popolazioni di predatori e di prede presenti in una data area geografica. Se le specie di predatori (risp. di prede) da considerare sono p (risp. q) lo spazio delle configurazioni sarà IRp+ × IRq+ . • Continuo rigido: Lo spazio delle configurazioni di tale sistema, è descritto nei prossimi paragrafi. • Struttura reticolare di travi: Tale sistema è descritto in un successivo capitolo. Il suo stato è caratterizzato dalla lunghezza di ogni trave che lo costituisce (per definizione di struttura reticolare nessuna di tali travi si può flettere). Se N è il numero di travi costituente la struttura lo spazio delle configurazioni è IRN+ . Si noti che in generale lo spazio delle configurazioni non può essere messo globalmente in corrispondenza biunivoca con IRn . Infatti gia’ nel caso del pendolo piano appena discusso lo spazio delle configurazioni è un cerchio in IR2 per il quale non esiste una corrispondenza biunivoca e bicontinua con IR1 . Il lettore interessato a maggiori dettagli riguardo la definizione matematicamente precisa degli spazi delle configurazioni finito-dimensionali potrà trovarla nel Capitolo 22.

16.6.2

Modelli infinito-dimensionali: descrizioni con infiniti gradi di libertà.

Tuttavia in molti casi i sistemi da descrivere presentano un comportamento che rende inappropriata l’introduzione di modelli finito-dimensionali. Talvolta una modellazione finito dimensionale non è sufficientemente ricca, mentre in altri casi risulta che i problemi matematici da risolvere nella descrizione di un dato sistema se si utilizza un modello infinito-dimensionale sono più semplici rispetto a quelli che si presentano se si considera un modello finito-dimensionale sufficientemente descrittivo. Questa circostanza è molto meno strana di quanto si possa immaginare: l’evoluzione temporale dello stato di una trave reticolare costituita da n aste

186

CAPITOLO 16. CINEMATICA GALILEIANA

modellata come sistema finito-dimensionale può essere studiata soltanto risolvendo un sistema di n equazioni differenziali ordinarie; tuttavia introducendo per la stessa struttura il modello di trave di Bernoulli-Navier (o al più di trave di Timoshenko), che è infinito-dimensionale, una buona conoscenza del comportamento del sistema può ottenersi risolvendo un sistema (più agevole) di tre equazioni differenziali a derivate parziali. Un modello matematico è infinito-dimensionale quando utilizza come spazio delle configurazioni uno spazio funzionale infinito-dimensionale, cioè un insieme di campi scalari, vettoriali o tensoriali (si veda la sezione 14.3). Uno stesso sistema può essere descritto, a seconda delle situazioni fisiche da considerare e delle capacità di calcolo di cui si dispone, sia con modelli infinito-dimensionali che con modelli finito-dimensionali. Conseguentemente è importante distinguere fra i concetti di sistema e insieme degli stati, che sono enti del mondo fisico, e quelli di modello e spazio delle configurazioni, che sono enti matematici. Tale distinzione sarà sottolineata usando, quando necessario, nomi diversi per gli enti fisici ed i loro modelli matematici. Tuttavia, mano a mano che svilupperemo la discussione, questa distinzione, come in un abuso di notazione, non sarà sempre rimarcata, per rendere l’esposizione meno faticosa: il lettore, a quel punto, dovrebbe essere in grado di ristabilirla, nella sua mente, quando lo ritenga necessario. Di seguito il lettore troverà una lista di esempi di sistemi infinito-dimensionali: • Trave di Bernoulli-Navier indeformabile al taglio: Nella teoria della trave di Bernoulli-Navier lo stato del sistema è caratterizzato quando siano note i) la configurazione di confronto della trave, data da una curva γ 0 di lunghezza L nello spazio euclideo tridimensionale, ii) il campo degli spostamenti che associa ad ogni particella materiale della trave il suo vettore spostamento dalla configurazione di confronto a quella attuale. Lo spazio delle configurazioni coincide con lo spazio M introdotto per la corda elastica. • Linea di trasmissione elettrica: Lo stato del sistema è caratterizzato dal campo potenziale elettrico lungo la linea. • Campi elettromagnetici in sistemi dielettrici: Lo stato di un corpo dielettrico rigido è caratterizzato quando siano noti il campo elettrico e quello di polarizzazione elettrica. • Corpo rigido conduttore di calore: Per caratterizzarne lo stato bisogna conoscerne la temperatura in ogni suo punto. • Piastra di Kirchhoff-Love: Lo stato del sistema è caratterizzato dal campo degli spostamenti dalla configurazione di confronto (che è una parte regolare di un piano) a quella attuale (che è una superficie regolare).

16.7

Continui come modelli di corpi: cinematica.

Nella Meccanica delle Strutture sono introdotti modelli per descrivere fenomeni in cui le cui dimensioni e le deformazioni dei corpi giocano un ruolo rilevante e quindi ai nostri fini il modello di particella materiale risulta inadeguato.

16.7.1

Configurazioni di un continuo.

Introduciamo ora un modello che presenti una struttura più ricca. Un continuo B è un insieme di punti sostanziali che occupa regioni regolari dello spazio assoluto delle posizioni P. A seconda della sua estensione spaziale, e cioè se la dimensione delle regioni di P che occupa è tre, due oppure uno, un continuo può essere classificato in: continuo tridimensionale, bidimensionale o monodimensionale. La regione (cfr sezione 14.3) di P occupata da B è detta forma di B. Le forme di un continuo bidimensionale sono superfici regolari a tratti immerse in P, di area non nulla. Le forme di un continuo monodimensionale sono curve regolari a tratti immerse in P, di lunghezza non nulla. Infine le forme di un continuo tridimensionale sono chiusure di aperti in P di volume non nullo, la cui frontiera è una superficie generalmente regolare, cioè dotata di un piano tangente dappertutto tranne che in un numero finito di curve regolari dette spigoli. Un dato corpo può essere modellato come continuo tridimensionale, bidimensionale o monodimensionale a seconda della accuratezza richiesta alla descrizione introdotta. Per esempio consideriamo un blocco B di materiale che in assenza di azioni del mondo esterno abbia la forma di un cilindro a sezione rettangolare: questo significa che in tale situazione l’insieme dei posti occupati dalle sue particelle materiali può riguardarsi come il prodotto cartesiano I1 × I2 × I3 di tre intervalli rispettivamente di lunghezza 1 ≤ 2 ≤ 3 . Se le azioni esterne applicate al cilindro determinano delle importanti deformazioni delle sezioni I1 ×I2 , e tali deformazioni

16.7. CONTINUI COME MODELLI DI CORPI: CINEMATICA.

187

influenzano in maniera rilevante il comportamento meccanico del blocco, allora sarà necessario modellarlo come continuo tridimensionale. Se 1 ≈ 2 2) carrelli ai punti Pi (i = 1, ..n) ciascuno con retta di scorrimento di normale ni . Sia ri la retta passante per pPT i e di direzione ni . È possibile solo una delle due alternative: i) nessun atto di moto è permesso a B (se ri = ∅), ii) sono permesse i=1,..n T ri = p). infinito ad uno rotazioni intorno al punto p (se i=1,..n

17.4.3

Vincoli interni.

I vincoli considerati fino ad ora restringono l’insieme delle configurazioni consentite ad un singolo continuo rigido. Tuttavia le strutture sono, in generale, costituite da più corpi collegati non solo al mondo esterno (il suolo, quando si considerano strutture di interesse nell’ingegneria civile, la carlinga se si considerano ali ecc.) ma anche fra di loro. Quegli apparati vincolari che determinano delle relazioni fra gli stati permessi a due o più corpi sono detti interni. La seguente definizione fornisce una caratterizzazione della classe dei vincoli interni. Consideriamo un insieme S di n continui rigidi Bi (i = 1, . . . , n) e siano qai (a = 1, . . . , 6) una scelta di coordinate Lagrangiane per ciascuno di essi. Si dice vincolo interno di molteplicità k un vincolo della forma ¡ ¢ fl qai = 0, l = 1, . . . , k, la cui matrice Jacobiana ha rango massimo e tale che ∀¯ qai permesso, ∀l,

∃ (i1 , a1 , i2 , a2 ) con i1 6= i2 →

¯ ∂fl ¯¯ 6= 0 e ∂qai11 ¯qai =¯qai

¯ ∂fl ¯¯ 6= 0. ∂qai22 ¯qai =¯qai

(17.26)

Questa condizione si può esprimere affermando che l’apparato vincolare è tale da generare dipendenza tra i gradi di libertà di almeno una coppia di continui rigidi definendo una relazione tra almeno una coppia di parametri lagrangiani riferiti ai suddetti continui. Si noti che in presenza di un vincolo interno uno stato qai (o rispettivamente un atto di moto) del generico continuo Bi può essere permesso o proibito a seconda di quale stato sia assunto da (risp. quali atti di moto stiano compiendo) gli altri continui costituenti S. Per illustrare la definizione data presentiamo alcuni esempi di vincoli interni. Cerniera interna. Si considerino due punti sostanziali P1 e P2 rispettivamente appartenenti a due continui rigidi B1 e B2 . Possiamo caratterizzare lo stato dei due continui per mezzo delle coordinate lagrangiane rP1 , rP2 , ϕ1 , θ1 , ψ 1 , ϕ2 , θ2 , ψ 2 ,

(17.27)

206

CAPITOLO 17. DEFORMATICA

che rappresentano la posizione dei punti P1 e P2 e gli angoli di Eulero che caratterizzano l’assetto di B1 e B2 . Una cerniera interna applicata ai punti P1 e P2 è un vincolo che impone la condizione rP1 = rP2 .

(17.28)

Quindi una cerniera interna, lasciando indipendenti gli assetti dei continui che collega, assicura che i due punti di contatto hanno sempre la stessa posizione: la sua molteplicità è tre. Quando, però, sia preposto il vincolo moto piano ai continui B1 e B2 la sua molteplicità si riduce a due. Se invece la cerniera interna è applicata ad n continui rigidi nei punti Pi (i = 1, ..., n) allora essa, lasciando indipendenti gli assetti di tutti i continui che collega, è rappresentata dalle equazioni rP1 = rPi ,

i = 2, ..., n,

(17.29)

e quindi la sua molteplicità è 3 (n − 1) . Di nuovo, nel caso in cui tutti i continui siano già soggetti al vincolo di moto piano, si ha che la molteplicità si riduce a 2 (n − 1) . Glifo interno piano. Consideriamo due continui rigidi B1 e B2 soggetti al vincolo moto piano relativamente ad un medesimo piano euleriano π. Siano R1 ed R2 due rette di particelle sostanziali rispettivamente di B1 e B2 , tali che le rette r(Ri ) formate dalle posizioni occupate dai punti di Ri in una data configurazione (e quindi, per il vincolo moto piano, in tutte le altre) giacciano in π. Scegliamo, infine, una direzione e in π e siano τ 1 , τ 2 rispettivamente i versori delle rette r(R1 ) ed r(R2 ). Se Pi ∈ Ri (i = 1, 2) lo stato dei due continui può essere caratterizzato dalle sei coordinate lagrangiane (si ricordi che la posizione di Pi nella situazione considerata è caratterizzata da due parametri scalari) θ1 = cos−1 (e · τ 1 ) ,

θ2 = cos−1 (e · τ 1 ) ,

rP1 ,

rP2 .

(17.30)

Chiameremo glifo interno di rette di scorrimento R1 ed R2 il vincolo dato dalle equazioni θ1 = θ2 ,

|(rP2 − rP1 ) · e| = krP2 − rP1 k cos θ1 .

(17.31)

Un glifo interno impone la sovrapposizione spaziale 3 di due rette di particelle sostanziali dei continui cui è applicato. Equivalentemente si può dire che impedisce le variazioni dell’assetto relativo dei due continui e che costringe un punto materiale del secondo continuo ad piazzarsi sempre su una retta sostanziale del primo continuo. Ovviamente la molteplicità di un glifo interno applicato a due continui già soggetti al vincolo di moto piano è due. Carrello piano collegato ad n continui. Consideriamo n continui rigidi Bi (i = 1, .., n) soggetti al vincolo di moto piano. ed n loro punti sostanziali Pi . Detta γ la sua curva (euleriana) di scorrimento (di equazione f (rP ) = 0), il vincolo carrello piano collegato ad i punti Pi è rappresentato dalle equazioni f (rP1 ) = 0,

rPi = rP1

i = 2, .., n.

(17.32)

La sua molteplicità è ovviamente 2 (n − 1) + 1.

17.4.4

Esempi di sistemi vincolati.

In questa sezione consideriamo alcuni sistemi vincolati: a seconda di quanti siano i gradi di libertà (g.d.l.) residui g (cioè quanti parametri lagrangiani sono necessari a caratterizzare lo stato del sistema risultante dall’applicazione dei vincoli) e della dimensione dello spazio vettoriale degli atti di moto permessi d distingueremo vari casi. Diremo singolari quei sistemi per cui risulta g 6= d. 3 Più

precisamente questa affermazione è espressa dall’equazione p(R1 ) = p(R2 )

∀t.

17.4. SISTEMI ARTICOLATI DI CONTINUI RIGIDI.

207

Esempio di sistema singolare. Si consideri una particella materiale P vincolata a restare su una sfera S. Tale vincolo ha molteplicità 1. Infatti esso è rappresentato dall’equazione x2 + y 2 + z 2 − R2 = 0

(17.33)

dove (x, y, z) denotano le coordinate del vettore posizione di P in un sistema di coordinate di origine il centro della sfera S di raggio R. Ad esso si aggiunga un altro vincolo di molteplicità 1 che permette tutte le posizioni appartenenti al piano π, la cui equazione, nel medesimo sistema di coordinate, è data da ax + by + cz + d = 0.

(17.34)

Insieme i due vincoli hanno molteplicità 2 quando la loro intersezione sia una conica non degenere γ. I g.d.l. residui infatti sono 1, essendo la coordinata lagrangiana ascissa curvilinea lungo γ sufficiente a caratterizzare lo stato del sistema. Inoltre gli atti di moto permessi a partire dalla posizione permessa p sono velocità parallele alla retta tangente a γ in p, che è l’intersezione del piano π con il piano tangente ad S in P . T Tuttavia se π è tangente ad S i g.d.l. residui sono 0, essendo permessa al sistema solo la posizione π S, mentre gli atti di moto permessi sono ∞2 , cioè tutte le velocità parallele a π. In questo caso il sistema è singolare perchè per esso vale la relazione: g 6= d. (17.35) L’esempio discusso ci permette di osservare che nello studio dei sistemi articolati di corpi rigidi (come in più generalmente in qualsiasi sistema lagrangiano soggetto a più vincoli) i g.d.l. residui non possono essere calcolati sottraendo ai g.d.l. di partenza del sistema la somma delle molteplicità dei vincoli applicati. La precedente affermazione è ovviamente collegata alla seguente altra di natura (apparentemente) più astratta: Dato un sistema lagrangiano ad n gradi di libertà, si applichino ad esso due vincoli di molteplicità rispettivamente k1 e k2 . L’insieme di tutte le k1 + k2 equazioni di vincolo unione degli insiemi delle equazioni di ciascuno dei due vincoli non ha necessariamente una matrice Jacobiana di rango massimo. Sistemi con gradi di libertà: macchine e meccanismi. • Manovellismo di spinta: Si considerino due aste rigide (continui rigidi estesi monodimensionalmente) Ai (i = 1, 2) già vincolate ad avere un moto piano. Denotiamo Ai e Bi i punti materiali estremi di Ai : supporremo applicati fra B1 e A2 una cerniera interna, in A1 una cerniera ed in B2 un carrello con retta di scorrimento r. Il sistema considerato ha un g.d.l. ed è il modello di un apparato che serve a trasformare un moto rettilineo alterno in moto rotatorio continuo o viceversa. Il sistema, prima dell’applicazione dei vincoli aveva 6 g.d.l, ad esso sono stati applicati vincoli di rispettivamente molteplicità 2, 2 ed 1. • Quadrilatero articolato: Si considerino quattro aste rigide Ai (i = 1, ..4) di uguale lunghezza già vincolate ad avere un moto piano. Se Ai e Bi sono gli estremi di Ai assumiamo che Bi e Ai+1 (A5 ≡ A1 ) siano collegati da una cerniera cilindrica. Il sistema prima dell’applicazione dei vincoli cerniera aveva 12 g.d.l. I vincoli applicati hanno ciascuno molteplicità 2, e quindi la somma delle molteplicità dei vincoli applicati è 8. D’altra parte il sistema quadrilatero articolato ha 4 g.d.l. Infatti il suo stato è caratterizzato per esempio dalla posizione di A1 , dall’assetto di A1 e dall’angolo formato dalle aste A1 ed A4 . Nell’esempio considerato il numero dei g.d.l. residui è uguale alla differenza fra i g.d.l. di partenza e la somma della molteplicità dei vincoli imposti. • Asta in scorrimento controllato da due glifi: Consideriamo un’asta (in moto piano) le cui estremità siano vincolate da due glifi le cui rette di scorrimento sono parallele. Dopo l’applicazione di due vincoli ciascuno di molteplicità 2 il sistema, che in partenza aveva 3 g.d.l., risulta tuttavia avere 1 g.d.l. Nel caso in esame per annullare 3 g.d.l. non sono stati sufficienti vincoli le cui molteplicità hanno somma 4 : tuttavia il numero dei g.d.l residui è uguale alla dimensione dello spazio degli atti di moto consentiti. • Doppio pendolo: Due aste sono collegate fra loro da una cerniera interna, mentre l’estremità libera di una di esse è incernierata al suolo. Fissata una retta di posti r, lo stato del sistema è caratterizzato dai due angoli α1 ed α2 formato dagli assi delle due aste con r.

208

CAPITOLO 17. DEFORMATICA

Sistemi cui è consentito un solo stato e nessun atto di moto. • Arco a tre cerniere piano: Si considerino due aste rigide Ai (i = 1, 2) già vincolate ad avere un moto piano, e siano Ai e Bi gli estremi di Ai . Supponiamo che una cerniera interna connetta A2 e B1 e che due cerniere siano applicate in A1 e B2 . Se l’angolo θ fra gli assi delle aste appartiene all’intervallo ]0, π[ allora i vincoli consentono al sistema un solo stato (g = 0) e nessun atto di moto (d = 0). Inoltre la molteplicità dei vincoli applicati è pari alla somma dei gradi di libertà dei due continui rigidi considerati. • Arco a tre cerniere spaziale degenere: Un arco a tre cerniere (cilindriche) formato da due aste di uguale lunghezza in cui θ = 0 è un sistema ad un grado di libertà per cui g = d sebbene la somma delle molteplicità dei vincoli sia 12 cioè uguale ai g.d.l. dei continui cui sono applicati. • Asta incastrata alle due estremità: È un sistema per cui g = d = 0. Tuttavia la somma delle molteplicità dei vincoli applicati è doppia rispetto ai g.d.l. del continuo cui sono applicati. Sistemi singolari. • Sistemi senza g.d.l. a cui sono permessi atti di moto: a) Si considerino due aste rigide Ai (i = 1, 2) , già vincolate ad avere un moto piano, e siano Ai e Bi gli estremi di Ai . Supponiamo che una cerniera interna connetta A2 e B1 , che un incastro sia applicato in A1 ed un carrello in B2 ,e che i due segmenti che rappresentano le posizioni delle due aste siano paralleli. Se la direzione di scorrimento del carrello in B2 è ortogonale alle aste allora il sistema non ha gradi di libertà ma i vincoli applicati permettono l’atto di moto rotazione di A2 intorno al punto pA2 = pB1 . In questo caso g = 0, d = 1. Notare che la somma della molteplicità dei vincoli applicati è pari a 6 (due volte moto piano) + 2 (cerniera interna applicata in un moto piano) + 3 (incastro applicato in un moto piano) + 1 (carrello applicato in moto piano) = 12 che è pari al numero dei gradi di libertà di due continui rigidi; b) Un arco a tre cerniere per cui θ = π è un sistema in cui g = 0, d = 1; c) Un arco a tre cerniere formato da aste di lunghezza diversa per cui θ = 0 è un sistema in cui g = 0, d = 1. • Sistema per cui il numero dei g.d.l. ( > 0) è inferiore alla dimensione dello spazio degli atti di moto: Lo stesso sistema descritto al punto a) precedente a cui si sostituisca all’incastro in A1 un glifo con direzione di scorrimento parallela a quella del carrello in B2 . Il sistema ha un grado di libertà (come coordinata lagrangiana si può scegliere, ad esempio, una ascissa lungo la retta di scorrimento del glifo) ma i vincoli applicati permettono ∞2 atti di moto.

17.5

Strutture Reticolari.

Sistemi di continui rigidi vincolati sono utilizzati spesso come modello di corpi soggetti a fenomeni di deformazione. Tuttavia non si deve credere tale modello come l’unico modo per descrivere, per mezzo di modelli finito dimensionali, strutture deformabili.

17.5.1

Barre elastiche.

In questa sezione vogliamo descrivere la cinematica delle cosiddette strutture reticolari. Tali strutture sono costituite da continui monodimensionali (detti barre) che possono assumere solo configurazioni rettilinee eventualmente variando la loro lunghezza e quindi non sono continui rigidi . La definizione che segue precisa la cinematica delle barre. Chiameremo barra elastica non flessibile e non torcibile (o più brevemente barra) un continuo monodimensionale la cui forma è sempre un segmento e la cui configurazione è caratterizzata dai sette parametri lagrangiani (r(P0 ), Q, L) ∈ IR3 × Ort(IR3 , IR3 ) × IR+ . (17.36) Il vettore numerico r(P0 ) rappresenta la posizione (rispetto ad un dato osservatore) della particella materiale P0 della barra, mentre la matrice ortogonale Q (cfr. la (13.273)) ed L ne descrivono rispettivamente l’assetto e la lunghezza. L’operatore di rotazione Q è necessario a descrivere la rotazione che porta una terna di vettori solidale all’osservatore in una terna solidale alla barra. Caratterizzare la configurazione di una barra b significa assegnare la posizione di ogni sua particella materiale P . Implicitamente nella definizione precedente si assume quindi che sia definita una applicazione

17.5. STRUTTURE RETICOLARI.

209

(detta funzione cinematica) r che associ ad ogni P ∈ b il suo vettore posizione (rispetto un dato osservatore) quando la configurazione di b sia caratterizzata da una scelta di parametri lagrangiani {r(P0 ), Q, L} ∈ IR3 × Ort(IR3 , IR3 ) × IR+ .

(17.37)

In altre parole una barra modella un corpo snello che si può deformare solo variando la sua dimensione maggiore cosicchè il suo stato possa essere completamente caratterizzato da tale dimensione, dalla posizione di una sua particella materiale e dalla sua orientazione spaziale. Si noti che è possibile caratterizzare la configurazione di confronto di una barra b per mezzo di una terna di vettori materiali (a1 , a2 , a3 ) con a3 parallelo al segmento “forma di confronto”. Di conseguenza l’assetto attuale di b si potrà determinare anche per mezzo del piazzamento attuale (χt (a1 ), χt (a2 ), χt (a3 )) (si veda la sezione 17.6.1 per la definizione della funzione piazzamento) della terna di vettori materiali (a1 , a2 , a3 ). Si noti che non è sempre necessario introdurre, per descrivere l’insieme delle configurazioni di una barra, l’intero spazio Ort(IR3 , IR3 ). Per esempio lo spazio S 2 è sufficiente a descrivere tutti i cinematismi che dobbiamo tenere in conto quando alcune barre sono vincolate fra loro per mezzo di cerniere sferiche. In questo caso sono prive di qualsiasi effetto le rotazioni di ciascuna barra intorno all’asse χt (a3 ). Una possibile funzione cinematica per una barra è specificata nel seguente esempio. Esempio 247 Barra elastica piana b uniformemente deformabile indifferente alle rotazioni intorno l’asse χt (a3 ). Sia L la lunghezza a riposo della barra considerata. La sua configurazione è fissata dalle posizioni delle sue estremità A e B. Quindi una possibile scelta delle sei necessarie coordinate lagrangiane è rappresentata dai vettori delle coordinate delle posizioni rA ed rB ¡ ¢ q = xA xB yA yB zA zB . (17.38)

L’ipotesi di uniforme deformabilità per b, considerando l’ascissa curvilinea s ∈ [0, L] lungo la direzione a3 nella configurazione di confronto (si assuma che tale ascissa abbia verso positivo dall’estremità A verso quella B) come etichetta della generica particella P materiale di b, si può tradurre in formule introducendo la seguente funzione cinematica: s rP (s) = rA + (rB − rA ) . (17.39) L

17.5.2

Strutture reticolari, ovvero sistemi di barre elastiche.

Consideriamo un insieme di barre vincolate fra loro ed al mondo esterno solo per mezzo di cerniere sferiche. Chiameremo tale insieme struttura reticolare se tutte le cerniere sono applicate solo alle particelle materiali “estremità delle barre”. Se ogni barra dell’insieme considerato è soggetta al vincolo moto piano, tutte rispetto il medesimo piano π,allora la struttura è detta piana. Ogni cerniera interna di una struttura reticolare è detta anche nodo. La proposizione seguente permette di determinare una utile scelta di parametri lagrangiani per determinare le configurazioni ed il numero di gradi di libertà di una struttura reticolare: Proposizione 248 Sia data una struttura reticolare formata da n aste bi , i = 1, ..n, e da m nodi, ciascuno di vettore posizione rj , j = 1, .., m, rispetto ad un dato osservatore. Ogni configurazione di una struttura reticolare può caratterizzarsi per mezzo di una scelta dei vettori rj . Il modello struttura reticolare ha quindi dimensione 3m, nel caso generale, e dimensione 2m nel caso piano. Dimostrazione La dimostrazione di quanto affermato è semplice. Infatti, nota la posizione di ogni nodo della struttura, risulta determinata la posizione di ogni estremità delle barre bi , dal momento che le estremità non vincolate da cerniere interne hanno posizione assegnata essendo vincolate per mezzo di cerniere al mondo esterno. Quindi risulta nota sia la lunghezza che l’assetto (come elemento di S 2 ) di ogni barra bi . Si noti che, poichè i vincoli interni sono tutte cerniere sferiche, la rotazione di ciascuna barra intorno al proprio asse χt (a3 ) è irrilevante quando si voglia descrivere il comportamento dell’intera struttura.

17.5.3

Espressione lagrangiana dell’energia cinetica per barre.

In un modello finito dimensionale ad ogni configurazione e velocità lagrangiana può associarsi una energia cinetica. In questa sottosezione vogliamo esprimere l’energia cinetica T per una barra (come introdotta nella definizione 17.36) in termini delle coordinate delle velocità lagrangiane ri ed r˙ i . Per definizione T è data dall’integrale sul corpo b dell’energia cinetica di ogni suo punto P Z 1 T = r˙ P · r˙ P dmP . (17.40) 2 b

210

CAPITOLO 17. DEFORMATICA

dove r˙ P e dmP denotano la velocità e la densità di massa in P. Siccome rP dipende dalle posizioni degli estremi r1 ed r2 come specificato dalla funzione cinematica: rP = rP (r1 (t), r2 (t)),

(17.41)

è possibile esprimere la velocità r˙ p in funzione delle velocità degli estremi r1 , r2 : r˙ P =

d ∂rP ∂rP r˙ 1 + r˙ 2 . [rP (r1 (t), r2 (t))] = dt ∂r1 ∂r2

(17.42)

Ne segue che: µ ¶ µ ¶ ∂rP ∂rP ∂rP ∂rP r˙ 1 + r˙ 2 · r˙ 1 + r˙ 2 r˙ P (t) · r˙ P (t) = ∂r1 ∂r2 ∂r1 ∂r2 "µ "µ "µ # # # ¶T ¶T ¶T ∂rP ∂rP ∂rP ∂rP ∂rP ∂rP = r˙ 1 · r˙ 1 + r˙ 2 · r˙ 2 + +2˙r1 · r˙ 2 . ∂r1 ∂r1 ∂r2 ∂r2 ∂r1 ∂r2 L’energia cinetica acquista quindi la seguente forma: "Z # µ ¶T ∂rP ∂rP T = r˙ 1 · (s) ds r˙ 1 ∂r1 ∂r1 b "Z # "Z # µ µ ¶T ¶T ∂rP ∂rP ∂rP ∂rP + r˙ 2 · (s) ds r˙ 2 + 2˙r1 · (s) ds r˙ 2 , ∂r2 ∂r2 ∂r1 ∂r2 b b

(17.43)

(17.44)

dove il campo (s) rappresenta la densità di massa per unità di linea della barra b nella configurazione di confronto. Se supponiamo ora esplicitamente l’ipotesi di uniforme deformabilità come espressa dalla (17.39), sono allora immediate seguenti relazioni (1I rappresenta il tensore identità definito nello spazio delle velocità lagrangiane): ∂rP (s) ³ s´ s ∂rP (s) = 1− = 1I. 1I, (17.45) ∂r1 L ∂r2 L Calcolando successivamente i seguenti integrali Z µ

¶T Z L³ L ∂rP s ´2 ∂rP ds = 1Ids = 1I, 1− ∂r ∂r L 3 1 1 b 0 ¶T Z L ³ ´2 Z µ L ∂rP s ∂rP 1Ids = 1Ids = 1I, ∂r2 ∂r2 L 3 0 b ¶T Z L ³ ´³ Z µ ´ ∂rP s ∂rP s L ds = 1− 1Ids = 1I, ∂r ∂r L L 6 1 2 b 0 l’energia cinetica T può in definitiva essere rappresentata per mezzo di una matrice a blocchi ⎡ ⎤ 1 ¸ ¸ ∙ ∙ L r˙ 1 ⎢ 1I 2 1I ⎥ r˙ 1 ·⎣ 1 , T = ⎦ r˙ 2 3 r˙ 2 1I 1I 2

(17.46)

(17.47)

o nelle forme esplicite:

´ L³ k˙r1 k2 + k˙r2 k2 + r˙ 1 · r˙ 2 6 Ã ! ° °2 ° 1 r ˙ + r ˙ L ° 1 2 2 ° ° + k˙r1 − r˙ 2 k . = 3 ° 2 ° 4

T =

(17.48)

La seconda delle ultime uguaglianze permette di rappresentare l’energia cinetica di una barra uniformemente deformabile in termini dell’energia cinetica legata al moto del baricentro e dell’energia cinetica dovuta alla velocità di deformazione della barra stessa.

17.6. CINEMATICA DEI CONTINUI TRIDIMENSIONALI.

17.6

211

Cinematica dei continui tridimensionali.

In questa sezione vogliamo approfondire alcune delle considerazioni e dei concetti sviluppati nella sezione 16.7.1, limitando l’attenzione ai continui estesi tridimensionalmente.

17.6.1

Funzione piazzamento per continui di Cauchy.

Sia dato un continuo esteso tridimensionalmente B, ed indichiamo con P una sua generica particella materiale. Scelta una configurazione di confronto denotiamo con XP la posizione in essa assunta da P. In generale utilizzeremo la posizione XP per identificare P e quando non ci sarà possibilità di confusione non distingueremo fra il concetto di particella materiale e quello di sua posizione nella configurazione di confronto. La funzione piazzamento χt associa ad XP la posizione xP assunta all’istante t dal punto P. L’insieme delle posizioni di tutte le particelle di B è all’istante t detta configurazione attuale. Seguendo le idee di Cauchy ci limiteremo a formulare un modello di una particolare classe di fenomeni che interessano i corpi modellati per mezzo di continui tridimensionali: non cerchiamo quindi di descrivere quelle evoluzioni in cui si producono tagli o dislocazioni nei corpi o in cui si producono brusche concentrazioni di materia. Introduciamo quindi la seguente Diremo continuo tridimensionale di Cauchy un continuo tridimensionale per il quale i) è possibile scegliere come configurazione di confronto regioni regolari dello spazio puntuale euclideo tridimensionale e ii) sono possibili solo piazzamenti che siano diffeomorfismi fra la configurazione di confronto e quella attuale. In formule χt : XP ∈ C ∗ → xP ∈ Ct , (17.49) con tale che det F > 0. (17.50) ¡ 1 2 3¢ i punti della conIntrodotto un sistema di coordinate cartesiane ortogonali X , X , X per individuare ¡ ¢ figurazione C ∗ (coordinate referenziali) e similmente un sistema di coordinate x1 , x2 , x3 per la configurazione Ct (coordinate spaziali), ed introdotte le basi associate (cfr. sezione 14.4) (O, (E1 , E2 , E3 )) ed (o, (e1 , e2 , e3 )) è possibile riguardare i vari campi scalari, vettoriali e tensoriali come funzioni delle introdotte coordinate. Indicheremo con XP − O= X =X i Ei , xP − o= x =xi ei , (17.51) F := Gradχt

i vettori posizione di una particella materiale P che occupa il posto XP in C ∗ e xP in Ct . Si indica con l’introdotto operatore Grad il gradiente rispetto alle coordinate X i del punto P nella configurazione di confronto; il campo tensoriale Gradχt si rappresenta come (cfr. (14.310)1 ) Gradχt (XP ) =

∂ χt i (XP ) (ei ⊗ Ej ) . ∂X j

(17.52)

La matrice Jacobiana relativa alla applicazione F è ovviamente data da F ij =

∂ χt i (XP ) . ∂X j

(17.53)

Si noti che tale operatore associa ad un vettore materiale in C ∗ un vettore materiale in Ct . La richiesta det F > 0, stante la proposizione 208, assicura l’esistenza dell’inversa di F in ogni intorno di XP : F−1 = gradχ−1 t ,

(17.54)

dove grad è l’operatore gradiente rispetto alle coordinate spaziali xi . La rappresentazione nei sistemi di coordinate spaziale e referenziale è data da ¢−1 ¡ (xP ) ∂ χt i −1 F (xP ) = (Ei ⊗ ej ) . (17.55) j ∂x Ricordiamo che i) una funzione è un diffeomorfismo quando essa è continua, a derivate continue e quando la sua applicazione Jacobiana è non singolare ed a determinante positivo e ii) un sottoinsieme di uno spazio puntuale affine è una regione regolare quando abbia volume non nullo, sia la chiusura di insiemi aperti e abbia come frontiera delle superfici bidimensionali regolari ad area non nulla e dotate quasi ovunque di normale. L’ipotesi di continuità della χt si può interpretare da un punto di vista meccanico affermando che ci limitiamo a considerare piazzamenti attuali del continuo B che non producono tagli o dislocazioni a partire dalla considerata configurazione di confronto. Per dare una interpretazione dell’ipotesi di differenziabilità sarà più opportuno sviluppare ulteriormente la nostra trattazione.

212

CAPITOLO 17. DEFORMATICA

Talvolta, con un abuso di notazione che può confondere (o anche far inorridire) un matematico della scuola del Bourbaki4 , si denota la applicazione Jacobiana F e la sua inversa con il simbolo F = Gradx,

F−1 = gradX,

senza indicare esplicitamente la variabile tempo e confondendo gli elementi del codominio della funzione con la funzione medesima.

17.6.2

Derivata materiale.

Sia Ψ : (X, t) ∈ C ∗ ×IR 7→ Ψ (X, t) ∈ IR,

(17.56)

un campo scalare materiale. La derivata di Ψ rispetto a t eseguita tenendo fissa la posizione X della particella materiale XP ∈ C ∗ dΨ ˙ (X, t) = ∂Ψ (X, t) , (X, t) =: Ψ (17.57) dt ∂t è detta derivata materiale di Ψ. Utilizzando il trasporto χt è possibile introdurre la rappresentazione spaziale od euleriana di Ψ: ¡ ¢ ΨS (x, t) := Ψ χ−1 (17.58) t (x) , t ,

(si noti che la velocità euleriana introdotta nella (16.8) è la rappresentazione spaziale della velocità lagrangiana introdotta nella (16.7)). Utilizzando la regola di derivazione delle funzioni composte e tenendo presente le (16.6), (16.7), (16.8), la derivata materiale di ΨS è data da i ˙ S (χt (X) , t) = ∂ΨS (x, t) + ∂ΨS (x, t) ∂χt (X) ˙ S (x, t) = Ψ Ψ i ∂t ∂x ¢ ∂t ¡ (x) , t ∂ΨS ∂ΨS (x, t) ∂ui χ−1 t = (x, t) + ∂t ∂xi ∂t µ ¶ ¢ ¡ −1 ∂ΨS ∂ΨS = (x, t) + gradΨS · vL χt (x) , t = + gradΨS · v (x, t) . ∂t ∂t

(17.59)

Analogamente, se Ψ è un campo materiale a valori vettoriali, la derivata materiale della sua rappresentazione spaziale ΨS è data da ˙ S (x, t) = ∂ΨS (x, t) + [gradΨS (v)] (x, t) . Ψ ∂t

17.6.3

(17.60)

Tensore di deformazione.

L’applicazione lineare rappresentata da F quando sia fissata una data particella materiale XP è detta tensore di deformazione in XP . Dato che un diffeomorfismo è una funzione differenziabile, possiamo rappresentare la variazione della χt con lo sviluppo di Taylor al primo ordine: χt (XP + dX) = χt (XP ) + [F(XP )] (dX) + o(dX),

(17.61)

dove dX rappresenta una variazione infinitesima di posizione nella configurazione di confronto, variazione che ci permette di considerare una particella materiale vicina alla particella P ed F è un’applicazione lineare; più precisamente essa rappresenta il differenziale di χt . Per una discussione più approfondita del concetto di differenziale di una funzione definita in uno spazio puntuale euclideo si rinvia alla sezione 14.3. 4 Nicolas Bourbaki è stato un generale francese il cui nome è stato utilizzato come pseudonimo da un gruppo di matematici francesi ed americani nella loro serie monumentale di testi di sistemazione della matematica moderna. Il loro scopo dichiarato era di fondare tutte le matematiche in maniera rigorosa, precisa ed esauriente. Sebbene questa scuola abbia influenzato enormemente il pensiero matematico contemporaneo bisogna dire che non è riuscita a portare a termine la sua opera. Infatti la teoria delle equazioni differenziali a derivate parziali ha fino ad ora resistito ad ogni tentativo di formulazione Bourbakista.

17.6. CINEMATICA DEI CONTINUI TRIDIMENSIONALI.

213

Rappresentazione coordinata del tensore di deformazione. Scegliamo due sistemi di coordinate (a priori distinti) ¡sufficienti a caratterizzare le posizioni nella configurazioni ¢ i di confronto ed attuale del continuo B. Siano quindi Y la terna di numeri reali che caratterizza la posizione ¡ ¢ XP e y i quella che caratterizza ¡la posizione . Il piazzamento χt può rappresentarsi per mezzo di una x P ¢ ¡ i¢ i funzione che associa alle coordinate Y le coordinate y ¡ . Tuttavia poichè la funzione χt è un diffeomorfismo, ¢ la funzione che associa alla posizione x¡P le¢ coordinate Y i determina anche essa un sistema di coordinate nella configurazione attuale. Il sistema Y i di coordinate è detto lagrangiano e le ¡ sue ¢ linee coordinate sono dette curve materiali. Analogamente associare alla posizione XP le coordinate y i equivale ad introdurre un sistema di coordinate attuali nella configurazione di confronto. Possiamo quindi affermare che, da un punto di vista matematico, studiare l’insieme delle deformazioni di un continuo a partire da una data configurazione di confronto equivale a studiare l’insieme dei possibili sistemi di coordinate che si possono introdurre nelle configurazioni di confronto ed attuale. Quindi da un punto di vista matematico la teoria delle deformazioni di un continuo tridimensionale può essere riguardata come una parte della geometria differenziale5 . Piazzamenti di vettori e volumi infinitesimi di particelle materiali. Si noti che, fissata una configurazione confronto di un continuo tridimensionale, mentre una particella materiale è associata ad una posizione, la variazione di particella materiale è associata ad un vettore di particelle materiali (traslazione nella configurazione di confronto). È quindi opportuno ribadire che mentre χ trasporta posizioni, F trasporta vettori: l’applicazione lineare F associa al vettore traslazione dalla particella materiale XP alla particella materiale XP + dX la traslazione dalla posizione attuale della particella XP alla posizione attuale della particella XP + dX. In formule: χt (XP + dX) − χt (XP ) ≈ [F(XP )] (dX) .

(17.62)

L’applicazione F calcolata nel punto XP permette di determinare il piazzamento attuale di vettori infinitesimi di particelle materiali aventi origine in XP . Nel seguito, ove possibile, di eviterà di esplicitare la dipendenza di F dal punto materiale XP . Consideriamo tre vettori infinitesimi ui , i = 1, 2, 3, applicati in XP . Come è noto dalla sezione 13.2, il prodotto triplo [u1 · (u2 ∧ u3 )] rappresenta il volume del parallelepipedo U di spigoli i vettori ui . Stante la (17.62) l’insieme delle particelle materiali in U si piazzerà nella configurazione attuale nel parallelepipedo di spigoli i vettori F (ui ) , il cui volume è dato dal prodotto triplo F (u1 ) · (F (u2 ) ∧ F (u3 )) = (det F) [u1 · (u2 ∧ u3 )] .

(17.63)

Nella derivazione della precedente uguaglianza si è utilizzata la definizione di determinante data nella (13.57). La relazione ottenuta con ragionamenti euristici6 suggerisce la validità della seguente Proposizione 249 Dato un diffeomorfismo f definito in un dominio D incluso in uno spazio puntuale euclideo n-dimensionale En a valori in En e detto F il suo differenziale vale la seguente formula, detta del cambiamento di variabile per il calcolo degli integrali: Z Z dV = det FdV. (17.64) f (D)

D

Ovviamente (si ricordino le considerazioni svolte nel Capitolo 15 ed il brano, ivi citato, de Il Metodo di Archimede di Siracusa) le considerazione qui svolte non sono una dimostrazione della precedente proposizione, ma ne suggeriscono l’enunciato. Una dimostrazione rigorosa può essere trovata, per esempio, nel testo di analisi [20]. La citata proposizione, quando interpretata nell’ambito della teoria dei continui tridimensionali deformabili, insieme alle considerazioni sviluppate in questa sottosezione, permette una suggestiva interpretazione del tensore di deformazione spiegando in particolare la condizione (17.50). Infatti richiedere che una data parte del continuo abbia volume positivo nella configurazione attuale se e soltanto se ha volume positivo in quella referenziale è equivalente, stante la (17.64), a richiedere che det F > 0 5 Da

∀XP ∈ C ∗ .

(17.65)

questa osservazione sono partiti Ricci e Levi-Civita nella loro risistemazione della Meccanica Classica e Relativistica. recentemente è stato possibile sviluppare una teoria matematica (chiamata Analisi Non-Standard) che permette di dimostrare rigorosamente teoremi utilizzando in maniera non contraddittoria il concetto di grandezza infinitesima. 6 Solo

214

17.6.4

CAPITOLO 17. DEFORMATICA

Il gradiente di velocità.

Cominciamo con il dimostrare la seguente: Proposizione 250 Siano f ed f campi spaziali rispettivamente a valori scalari ed a valori vettoriali, e siano fM (·, t) := f (χt (·) , t) ,

fM (·, t) := f (χt (·) , t) ,

(17.66)

le rispettive rappresentazioni materiali (vedi la (17.58)). Allora GradfM = FT (gradf ) , GradfM = [gradf ] F.

(17.67)

Dimostrazione Per definizione si ha fM = f ◦ χt ,

fM = f ◦ χt .

(17.68)

Applicando la regola di derivazione della funzione composta (14.62) si ha GradfM · v = gradf · [[Gradχt ] (v)] ,

(17.69)

per ogni vettore spaziale v. Dalle definizioni (17.50), (13.33) la precedente può essere riscritta come GradfM · v = FT (gradf ) · v,

(17.70)

da cui la (17.67)1 in virtù della arbitrarietà di v. La dimostrazione della (17.67)2 si ottiene in modo del tutto analogo applicando ancora la (14.62) per la derivazione del campo vettoriale fM . Diremo gradiente di velocità il campo euleriano definito come L := gradu˙ =gradv,

(17.71)

dove v è la velocità euleriana (cfr. sezione 16.7.2). Dalla proposizione precedente si ricava Gradu˙ = (gradu) ˙ F = LF.

(17.72)

Tenendo presente che nella configurazione di riferimento la derivata materiale e Grad commutano si ottiene la seguente relazione tra L ed F : ˙ −1 . (17.73) F˙ = LF, L = FF

17.6.5

Bilancio della massa per continui tridimensionali.

In questa sezione si vuole dedurre, utilizzando una descrizione puramente euleriana, la forma locale della legge di bilancio della massa per continui estesi tridimensionalmente (in generale deformabili): tale legge rappresenta il fondamento della loro cinematica. Si noti che tali continui possono avere infiniti gradi di libertà. Consideriamo un continuo tridimensionale B in moto e sia χt la sua funzione piazzamento, parametrizzata dal tempo t. I campi di velocità v e densità di massa (euleriani) sono (ad ogni istante t) definiti nella configurazione attuale. Consideriamo, inoltre, incluso nella configurazione attuale il volume di controllo (o euleriano) V : la legge di bilancio della massa si scrive, in forma integrale (si tenga presente che V non dipende dal tempo): Z Z ∂ dV = − v · ndA, (17.74) ∂t V ∂V dove n è la normale esterna alla superficie ∂V. Infatti il primo membro dell’uguaglianza rappresenta il tasso temporale di variazione della massa della parte di B che si trova in V, mentre a secondo membro appare il flusso di massa entrante in V (si noti il segno meno e la scelta di considerare la normale esterna a ∂V ). Una semplice applicazione del teorema di Gauss della divergenza e di quello di passaggio della derivata sotto il segno d’integrale comporta che ¶ Z µ ∂ ∂ (17.75) + div ( v) dV = 0, ∀V ⇒ + div ( v) = 0 ∀xP . ∂t ∂t V avendo fatto uso del risultato stabilito nella proposizione 213. L’ultima equazione è detta legge (euleriana) di bilancio della massa in forma locale e vale in ogni posto della configurazione attuale.

17.7. MISURE DI DEFORMAZIONE IN UN CONTINUO DI CAUCHY.

215

Si noti che se viene sostituita dalla densità di volume della carica elettrica e v dalla densità di corrente, la (17.75) diventa la legge di conservazione della carica elettrica. Ricaviamo ora la legge euleriana di bilancio della massa attraverso un approccio puramente cinematico. Sia R∗ una regione della configurazione di confronto C ∗ e sia Rt la sua immagine al tempo t sotto il trasporto χt . Se m (R∗ ) è la massa totale associata a R∗ , deve ovviamente valere la seguente m (R∗ ) = m (Rt ) .

(17.76)

Considerando il campo scalare euleriano densità di massa , e ricordando che V ∗ è indipendente da t, dalla precedente equazione si ricava Z d dV = 0. (17.77) dt Rt In virtù della proposizione 249 è possibile trasformare l’integrale in modo tale che il dominio di integrazione sia la regione R∗ . Introducendo la rappresentazione materiale della densità: M (X, t)

si ha 0=

d dt

Z

dV = Rt

d dt

Z

che ricordando la (13.69) si ottiene Z Z ³ d ∗ 0= ˙M + ( M det F) dV = R∗ dt R∗

R∗

:= (χt (X) , t) ,

∗ M det FdV =

Z

R∗

(17.78) d ( dt

Z ³ −1 ´´ ∗ ˙ det FdV = M Tr FF

M det F) dV

Rt

³



,

(17.79)

³ −1 ´´ ˙ ˙ + Tr FF dV, (17.80)

la quale, combinata con la (17.73) implica ˙ + Tr L = 0.

(17.81)

Tr L = Tr gradv =divv,

(17.82)

˙ + divv = 0,

(17.83)

Utilizzando poi le definizioni (14.304), (17.71):

si ottiene che è del tutto equivalente alla (17.75), essendo, in virtù delle (14.318) e (17.59) µ ¶ ∂ ∂ + div ( v) = + grad · v + divv = ˙ + divv. ∂t ∂t

17.7

(17.84)

Misure di Deformazione in un Continuo di Cauchy.

Il problema della determinazione di quale fosse l’ente matematico, costruito a partire dalla funzione piazzamento, che meglio si prestasse a descrivere la deformazione di B si presentò immediatamente a Cauchy: fu tuttavia Saint-Venant a risolverlo completamente. Per delle ragioni che risultano abbastanza impermeabili a considerazioni puramente scientifiche ma che sembrano piuttosto attenere alla psicologia, i primi epigoni dei fondatori della Scienza delle Costruzioni hanno stabilito una tradizione (che vogliamo qui violare) che limita lo studio delle deformazioni al solo caso di deformazioni infinitesime. Come ogni riduzione della complessità del modello matematico, la citata limitazione induce una riduzione della classe dei fenomeni meccanici descritti: tuttavia questa semplificazione presenta degli svantaggi sproporzionati rispetto ai vantaggi ottenuti. Infatti non è semplice comprendere il concetto di deformazione infinitesima se non attraverso un processo di linearizzazione a partire da deformazioni finite, che sono di più immediata intuizione fisica: la semplificazione matematica in questo caso sembra ottenibile solo al costo della perdita di una chiara comprensione dei fenomeni meccanici che si vogliono descrivere. Tale perdita è ingiustificata soprattutto quando la descrizione del modello matematico sia diretta ad allievi piuttosto interessati alle applicazioni ingegneristiche della meccanica che agli strumenti matematici che essa utilizza. Si introdurrà quindi in primo luogo il campo tensoriale di Saint-Venant definito nella configurazione di confronto come misura della deformazione cui è soggetto il continuo B. nel suo passaggio dalla configurazione di confronto a quella attuale e si determinerà solo in un secondo momento il cosiddetto tensore delle piccole deformazioni.

216

CAPITOLO 17. DEFORMATICA

17.7.1

Il tensore destro di Cauchy-Green, il tensore di deformazione di SaintVenant.

Cominciamo con il fissare la nostra attenzione su una piccola parte del continuo intorno la generica particella materiale P¯ . Il concetto di deformazione è intrinsecamente locale: un continuo deformabile ha una cinematica così ricca che bisogna saper descrivere lo stato di deformazione nell’intorno di ciascuna particella materiale che lo costituisce. Infatti anche se volessimo limitare la nostra analisi a continui dalle proprietà materiali omogenee dovremmo riconoscere che sono sempre possibili piazzamenti non omogenei, cui sono associati stati di deformazione similmente non omogenei. Si consideri una particella materiale P¯ ∈ B, la sua posizione di confronto XP¯ e la sua posizione attuale xP¯ . Si denoti con Cε l’insieme dei vettori traslazione nello spazio delle posizioni definito dalla ( ) 3 X ¯ i¯ i ¯ ¯ α Bi , α < ε, (Bi ) vettori linearmente indipendenti . (17.85) Cε := v : v := i=1

Chiameremo volume materiale ε−infinitesimo associato a P¯ l’insieme delle particelle materiali Vε definito, nella configurazione di riferimento, dalla Vε := {XP : XP − XP¯ ∈ Cε } .

(17.86)

Seguendo Cauchy7 misureremo la deformazione relativa fra la configurazione di confronto e quella attuale studiando come un volume Vε (con ε sufficientemente piccolo) viene trasformato dalla funzione piazzamento χt . A questo scopo ricordiamo la formula (17.62) che ci permette di trovare l’insieme χt (Vε ) delle posizioni nella configurazione attuale di tutte le particelle materiali in Vε . Tale insieme, a meno di infinitesimi di ordine superiore ad ε è dato dalla formula χt (Vε ) ' xP¯ + F (Cε ) . (17.87) Per determinare le proprietà geometriche dell’insieme dei vettori F (Cε ) Cauchy dimostrò la seguente proposizione, la cui dimostrazione è data nella sezione 13.12. Proposizione 251 Della decomposizione polare. Sia F un endomorfismo dello spazio delle traslazioni. Allora esiste una sola coppia di applicazioni lineari (R, U) ∈ Ort × Sym per cui vale la F = RU.

(17.88)

Possiamo quindi concludere che l’insieme χt (Vε ) è ottenuto deformando Vε per mezzo della applicazione di U ruotandolo rigidamente per mezzo di R ed infine traslando di xP¯ − XP¯ . I tensori R ed U trovati utilizzando la decomposizione polare del tensore di deformazione F sono detti rispettivamente tensori di rotazione e deformazione finita. Si noti che il teorema di decomposizione polare vale per tutte le applicazioni lineari invertibili dello spazio delle traslazioni (cfr. la sezione 13.12). In questo caso tuttavia, dalla richiesta che il determinante di F sia positivo, discende che il tensore ortogonale R ha determinante pari ad 1 per cui esso si caratterizza come una rotazione. Si considerino due generici vettori (u, v) ∈ Cε × Cε e le loro immagini sotto l’applicazione della F. L’applicazione di F lascia indeformato Vε se e soltanto se lascia invariato il prodotto scalare fra due generici vettori: in questo caso avremo U = 1I ed F ∈ Ort; ∀ (u, v) ∈ Cε × Cε u · v = F (u) · F (v) = FT F (u) · v ⇒ FT F = 1I ⇒ F ∈ Ort. Viceversa

2

2

F ∈ Ort ⇒ u · u = kuk = F (u) · F (u) = kF (u)k , F ∈ Ort ⇒ F (u) ⊥ F (v)

(17.89)

(17.90)

se u ⊥ v.

Chiameremo tensore destro di Cauchy-Green l’applicazione C := FT F = U2 .

(17.91)

Proposizione 252 C è un tensore simmetrico. Nel caso di piazzamenti rigidi si ha C = 1I. 7 Molti

nuovi concetti e metodi della analisi matematica furono introdotti da Cauchy mentre fondava la meccanica del continuo.

17.7. MISURE DI DEFORMAZIONE IN UN CONTINUO DI CAUCHY. Dimostrazione Infatti T

¡ ¢T C = FT F = FT F = CT .

217

(17.92)

−1

Inoltre se F ∈ Ort per definizione F = F . Se invece l’applicazione lineare F non lascia invariato il prodotto scalare allora l’insieme Vε risulta deformato dal piazzamento χt . Seguendo Saint-Venant introduciamo un tensore difetto di ortogonalità. Chiameremo misura locale di deformazione E di un continuo tridimensionale, il tensore detto di Saint-Venant-Green E :=

17.7.2

1 (C − 1I). 2

(17.93)

Allungamento e spostamento angolare.

Il prodotto scalare permette di valutare la lunghezza dei vettori e l’angolo fra coppie di vettori. Si ha: u · v = kuk kvk cos Θ, √ kuk = u · u, F (u) · F (v) = kF (u)k kF (v)k cos θ = u · C (v) , p p kF (u)k = F (u) · F (u) = C (u) · u.

(17.94)

Le formule precedenti mostrano come l’allungamento di un vettore materiale e lo spostamento angolare fra due vettori materiali possa essere valutato per mezzo del tensore destro di Cauchy-Green. Infatti poichè u·v cos Θ = , kuk kvk (17.95) F (u) · F (v) C (u) · v p , cos θ = =p kF (u)k kF (v)k C (u) · u C (v) · v si ha:

Allungamento:

kF (u)k − kuk = kuk

Spostamento angolare:

17.7.3

p √ C (u) · u − u · u √ , u·u

u·v C (u) · v p − cos θ − cos Θ = p . C (u) · u C (v) · v kuk kvk

(17.96)

Velocità di deformazione e velocità di rotazione.

Si consideri un continuo tridimensionale B piazzato al tempo t nella configurazione attuale Ct ⊂ E sotto il trasporto χt e sia P¯ ∈ B una sua particella materiale avente posizione XP¯ nella posizione di confronto C ∗ e posizione xP¯ = χt (XP¯ ) nella configurazione attuale considerata. Definiamo poi il volume euleriano ε−infinitesimo associato a P¯ come l’insieme delle particelle materiali Vε definito, nella configurazione Ct , dalla Vε := {P ∈ B :xP − xP¯ ∈ cε } , (17.97) dove cε è l’insieme dei vettori euleriani immagine sotto F =Gradχt dell’insieme di vettori lagrangiani: ¯ i¯ © ª ¯α ¯ < ε, (Bi ) vettori linearmente indipendenti . Cε := u : u :=αi Bi , (17.98)

Sia v un campo di velocità spaziale e sia L =gradv il suo gradiente spaziale introdotto al numero 17.6.4. Nel volume ε−infinitesimo Vε il campo di velocità è esprimibile, commettendo un errore di o (ε) per ε → 0, attraverso l’applicazione affine (vedi le sezioni 14.2, 14.3): v (xP ) = v (xP¯ ) + L (xP − xP¯ ) + o (xP − xP¯ ) .

(17.99)

Consideriamo ora la decomposizione additiva (cfr. sezione 13.11) L = D + Ω introducendo la parte simmetrica D :=symL e la parte antisimmetrica Ω :=skwL : D=

¢ 1¡ gradv+gradvT , 2

Per linearità risulta banalmente

Ω=

¢ 1¡ gradv−gradvT . 2

v (xP ) = v (xP¯ ) + D (xP − xP¯ ) + Ω (xP − xP¯ ) + o (xP − xP¯ ) ,

(17.100)

(17.101)

218

CAPITOLO 17. DEFORMATICA

il che implica che il campo di velocità v in un intorno di xP¯ si approssima attraverso la sovrapposizione di un atto di moto rigido (17.102) xP 7→ v (xP¯ ) + Ω (xP − xP¯ ) , e di un campo di velocità nella forma xP 7→ D (xP − xP¯ ) .

(17.103)

Il fatto che (17.102) sia un atto di moto rigido discende immediatamente dalla proposizione 240 quando si introduca il vettore assiale di Ω: Ω (xP − xP¯ ) = ω (xP¯ ) ∧ (xP − xP¯ ) ,

(17.104)

il quale risulta evidentemente essere la velocità angolare nel punto xP¯ (t) . Dalla proposizione 217 e dalla definizione (17.100)2 si stabilisce la seguente interessante relazione 1 ω (xP ¯ ) = rotv (xP ¯). 2 Il tensore Ω è detto velocità di rotazione e D è detto tensore velocità di deformazione. istantaneo di rotazione nel punto xP¯ (t) è il sottospazio IP¯ di V costituito dai vettori r tali che Ω (r) = 0,

(17.105) L’asse

(17.106)

dove V è lo spazio delle traslazioni dello spazio puntuale euclideo tridimensionale E. Si osservi che l’asse istantaneo di rotazione per un atto di moto rigido (vedi equazione (16.40) e definizione annessa) all’istante t è una retta di E non dipendente dal punto, mentre per un continuo deformabile tale retta all’istante t varia con il posto xP¯ (t) . La proposizione 190 permette di affermare l’esistenza dell’asse istantaneo di rotazione definito dalla (17.106). Si ha inoltre che, quando Ω 6= 0 dim IP¯ = 1,

(17.107)

e si deduce inoltre che la direzione dell’asse istantaneo di rotazione nel punto xP¯ (t) è data dal versore ω (xP¯ ) . kω (xP¯ )k La nomenclatura velocità di deformazione associata la tensore D è giustificata dalla seguente analisi. Si considerino due vettori euleriani (u, w) ∈ cε , immagine sotto F dei vettori lagrangiani (U, W) . Come stabilito al numero 17.7.2 il loro prodotto scalare si esprime attraverso il tensore destro di Cauchy-Green C come u · w = F (U) · F (W) = U·FT F (W) = U·C (W) ,

(17.108)

il quale, tenuto conto della definizione (17.93) del tensore di Saint-Venant-Green E si può scrivere come u · w = U· [1I + 2E] (W)

(17.109)

La derivata materiale (si veda la sezione 17.6.2) del prodotto scalare u · w porge

con

d (u · w) = 2U·E˙ (W) , dt

(17.110)

´ 1¡ ¢ 1 1 ³˙T E˙ = C˙ = F F + FT F˙ = GradvLT Gradχt + GradχT t GradvL . 2 2 2

(17.111)

¸ ∙ ´ ¢ 1³ 1¡ T T ˙ −1 . E˙ = FT LT F + F LF = FT L + L F = FT DF ⇒ D = F−T EF 2 2

(17.112)

˙ detto velocità di deformazione e dove vL è la velocità lagrangiana definita nella (16.7). Il tensore E, lagrangiana, è evidentemente nullo per moti rigidi ed è espressione della velocità di deformazione quando la ˙ deformazione è misurata dal tensore E. Utilizzando la (17.73) si stabilisce il legame tra D ed E:

Il tensore D è quindi la velocità di deformazione euleriana: esso esprime la velocità con la quale un continuo si deforma nel passaggio attraverso la sua configurazione attuale Ct .

17.7. MISURE DI DEFORMAZIONE IN UN CONTINUO DI CAUCHY.

17.7.4

219

I tensori di deformazione e rotazione infinitesima.

Fino a questo punto si è considerata la generica deformazione di un continuo tridimensionale. Invece qui ci si vuole limitare a considerare le deformazioni infinitesime a partire da un configurazione di confronto. Ricordiamo che data una configurazione di confronto ed una funzione piazzamento χt il campo lagrangiano degli spostamenti è definito dalla u(XP , t) := xP − XP = χt (XP ) − XP .

(17.113)

Un continuo tridimensionale B è soggetto ad una deformazione infinitesima se si può determinare un parametro adimensionale η tale che tutti i campi necessari ¡ alla ¢ descrizione del comportamento di B sono rappresentabili, commettendo un errore dell’ordine di O η 2 , come funzioni affini di η. In particolare si supporrà che il campo di spostamento sia una funzione lineare di η. La cinematica di un continuo soggetto a deformazioni infinitesime è detta linearizzata. Il lettore è invitato a non cadere in una confusione che può rendere incomprensibile la fondamentale distinzione fra deformatica finita e deformatica infinitesima: il parametro η qui introdotto non ha assolutamente nulla a che fare con il parametro ε utilizzato precedentemente per definire il volume materiale ε−infinitesimo. Il parametro ε caratterizza la parte di continuo tridimensionale la cui deformazione può essere descritta dal tensore di deformazione F calcolato in uno dei suoi punti, ovvero ε rappresenta quella dimensione caratteristica dei fenomeni deformativi studiati tale che tutte le parti del continuo di diametro inferiore od uguale ad essa sono soggette a deformazioni omogenee. Il parametro η invece misura la distanza della configurazione attuale da quella di confronto. Ovviamente queste grandezze sono tra loro indipendenti e possono non essere contemporaneamente piccole. Ha assolutamente senso studiare le grandi deformazioni (η non piccolo, quindi dipendenza dei campi da η non necessariamente lineare) di un volume ε−infinitesimo. Riscriviamo la (17.113) nella forma χt (XP ) = XP + η¯ u(XP , t).

(17.114)

Il parametro η “modula l’entità del campo degli spostamenti” la cui “forma” è data dal campo u ¯(XP , t). Indicheremo con H (detto brevemente anche gradiente di spostamento) il gradiente del campo degli spostamenti u(XP , t) rispetto alle coordinate lagrangiane X i : H (XP , t) := Gradu(XP , t).

(17.115)

¯ (XP , t) := Grad¯ u(XP , t), H

(17.116)

Analogamente, sarà ¯ per cui H = η H. Nell’ipotesi di deformazione infinitesima il tensore di deformazione F si può rappresentare nella forma F = 1I + H.

(17.117)

Decomponendo H nella sua parte simmetrica symH e nella sua parte antisimmetrica skwH si ha (vedi sezione 13.11): H = symH + skwH, (17.118) dove symH =

1 (H + HT ), 2

skwH =

1 (H − HT ). 2

(17.119)

¯ è detto tensore di rotazione infinitesima, ed il tensore symH ¯ è detto tensore di Il tensore skwH deformazione infinitesima. Queste definizioni saranno giustificate nella sottosezione successiva. Linearizzazione dei tensori di Cauchy-Green e Saint-Venant-Green. L’espressione per il tensore di deformazione F (17.117) che si assume valere nel caso di piccole deformazioni permette di ottenere una espressione approssimata del tensore di Saint-Venant-Green. Tale espressione è quella utilizzata nella gran parte delle applicazioni. Questo non significa che nelle applicazioni ingegneristiche siano di interesse solo i fenomeni di piccola deformazione, come talvolta si afferma. Semplicemente fino a qualche decennio fa la teoria dei continui deformabili non era stata sviluppata abbastanza da permettere una qualche capacità predittiva all’ingegnere che volesse studiare corpi che si deformano “molto”. Quindi, seguendo un saggio dettato di prudenza, nella pratica ingegneristica ci si è quasi sempre limitati a progettare sistemi che a priori nelle condizioni di esercizio standard non uscissero dal regime di comportamento lineare.

220

CAPITOLO 17. DEFORMATICA

Sostenere che non è importante per l’ingegnere dominare situazioni in cui i corpi siano soggetti a deformazioni finite, perchè tali deformazioni non si presentano nella pratica, è semplicemente assurdo. Infatti poichè la teoria pone, nel caso di deformazioni finite, problemi matematici non ancora trattabili ci si è rassegnati a progettare sistemi che lavorino solo in regime lineare e solo per questa ragione la pratica ingegneristica ha considerato finora solo i risultati della teoria linearizzata. Quando, e tale momento sembra essere vicino, la ricerca fondamentale metterà l’ingegnere in grado di progettare (prevedendone il comportamento) strutture soggette a deformazioni finite allora la pratica ingegneristica richiederà la conoscenza approfondita di una nuova parte della teoria dei continui deformabili, fino ad ora coltivata solo da un gruppo di studiosi relativamente piccolo. Vale la pena sottolineare qui che un importante ostacolo sembra ancora impedire la preconizzata estensione delle capacità di progettazione dell’ingegnere strutturista: la presente limitata capacità di convergenza degli schemi di integrazione numerica delle equazioni differenziali non-lineari. Proposizione 253 Sotto l’ipotesi di deformazioni infinitesime, e cioè a meno di infinitesimi di ordine superiore al primo in η, il tensore symH coincide con il tensore di deformazione di Saint-Venant-Green. Dimostrazione Calcoliamo il tensore di Cauchy-Green nell’ipotesi di deformazioni infinitesime. Si ha ¯ TH ¯ ¯ + ηH ¯ T + η2 H C = FT F = (1I + H)T (1I + H) = 1I + ηH ¯ +H ¯ T ) + O(η 2 ) = 1I + H + HT + O(η 2 ), = 1I + η(H

(17.120)

da cui C ' 1I + 2symH.

(17.121)

Quindi il tensore di Saint-Venant-Green può mettersi nella forma E=

1 (C − 1I) ' symH. 2

(17.122)

Per facilitare alcuni dei calcoli successivi sarà necessario introdurre la notazione ¯ =: η E. ¯ E ' 2ηsymH

(17.123)

Il lettore dovrà fare attenzione: in letteratura talvolta il parametro η non è introdotto esplicitamente ed i ¯ indicati con lo stesso simbolo. Un tale abuso di notazione diventa naturale, quando si cominci tensori E e E a familiarizzare con la cinematica linearizzata dei continui, ma può diventare fonte di grande confusione se la si utilizzi in ambito non lineare. Il tensore di Saint-Venant-Green non deve, in questo ambito più generale, confondersi con la parte simmetrica del gradiente di spostamento. Possiamo ora collegare i tensori symH e skwH ai tensori rotazione e deformazione finite introdotti grazie al teorema di decomposizione polare di Cauchy. Infatti dalle definizioni abbiamo ¯ C = FT F = (RU)T RU = URT RU = U2 ' 1I + 2ηsymH.

(17.124)

Nell’ambito della cinematica linearizzata possiamo esprimere il tensore di deformazione finita nella forma U ' 1I + η∆U. La seguente catena di uguaglianze ¡ ¢ ¡ ¢¡ ¢ ¡ ¢2 ¯ 2 = 1I + ηU ¯ 1I + η U ¯ = 1I + 2η U ¯ + ηU ¯ , U2 ' 1I + η U

(17.125)

(17.126)

comporta che

¯ = symH. ¯ U

(17.127)

Questa ultima relazione giustifica la definizione di tensore di deformazione infinitesima. Per giustificare invece la definizione di tensore di rotazione infinitesima, rappresentiamo il generico tensore di rotazione finita R nella forma linearizzata ¯ R ' 1I + ηR.

(17.128)

La condizione di ortogonalità di R comporta che ¡ ¢ ¡ ¢ ¯ T 1I + ηR ¯ ¯ ' 1I + ηR ¯ T + ηR, 1I = 1I + η R

(17.129)

17.7. MISURE DI DEFORMAZIONE IN UN CONTINUO DI CAUCHY.

221

da cui si deduce che ¯T + R ¯ = 0. R

(17.130)

Questo significa che una rotazione finita in cinematica linearizzata si riduce ad un tensore antisimmetrico. Inoltre dalle definizioni si ha ¡ ¢¡ ¢ ¯ = 1I + η R ¯ 1I + η U ¯ ⇒ F = RU ⇒ 1I + ηH ¯ ' ηR ¯ + ηU ¯ ⇒ skwH ¯ = R. ¯ ⇒ ηH (17.131) Linearizzazione dell’allungamento e dello spostamento angolare. Allo scopo di stabilire di quanto un vettore materiale u si allunga quando il continuo B si piazzi secondo una χt il cui tensore di Cauchy-Green sia C consideriamo la seguente catena di uguaglianze: kC (u) · uk − kuk kC (u) · uk = −1 kuk kuk s s ¯ (u) · u ¯ (u) · u E (1I + 2η E) − 1 = 1 + 2η − 1. = 2 kuk kuk2

Allungamento =

(17.132)

Sviluppando in serie di Taylor in η nell’intorno di η = 0 avremo: ¯ ¯ ¯ ¯ ¯ (u) · u ¯ 1 2E kC (u) · uk − kuk ¯ s η =0+ 2 ¯ kuk ¯ kuk E (u) · u ¯ ¯ 2 1 + 2η 2 kuk ¯η=0 =

¯ (u) · u E kuk2

(17.133)

η = allungamento linearizzato.

Possiamo quindi interpretare in termini meccanici gli elementi diagonali della matrice rappresentativa il ˜ in una base ortonormale ei . Infatti gli elementi (si noti che ei · ej = δ ij ) tensore E ¯ (ei ) · ei , ¯ii = E E

(17.134)

rappresentano gli allungamenti dei versori materiali ei . Il cubo i cui spigoli siano dati dai versori ei viene deformato allungando gli spigoli come specificato dalla (17.134). D’altro canto lo stesso cubo è soggetto anche a deformazioni di taglio, cioè a deformazioni che variano l’angolo fra due dei suoi spigoli. Per stimare una tale variazione indotta dalla variazione di piazzamento consideriamo lo spostamento angolare subito dai due vettori ei ed ej con i 6= j. Poichè ei · ej = 0 ed ei · ei = 1 e posto che θij denota l’angolo attuale fra i segmenti materiali che nella configurazione di confronto occupano le posizioni XP¯ + ei e XP¯ + ej , possiamo ottenere la seguente catena di uguaglianze: ¡ ¢ ¯ (ei ) · ej 1I + 2η E C (ei ) · ej q p =q cos θij = p ¡ ¢ ¡ ¢ ej · C (ej ) ei · C (ei ) ¯ (ej ) ei · 1I + 2η E ¯ (ei ) ej · 1I + 2ηE ¯ij ¯ (ei ) · ej 2ηE 2η E p =p . =q p ¯jj 1 + 2ηE ¯ii 1 + 2η E ¯ (ej ) · ej 1 + 2η E ¯ (ei ) · ei 1 + 2ηE

(17.135)

Sviluppando in serie l’ultimo termine dell’uguaglianza ed introducendo l’angolo γ ij difetto di ortogonalità nella configurazione attuale per mezzo della γ ij :=

π − θij , 2

(17.136)

si ha con semplici calcoli ¯ij η = 2Eij . sin γ ij ' γ ij ' 2E

(17.137)

Possiamo quindi affermare che il doppio degli elementi fuori dalla diagonale della matrice rappresentativa il tensore E in una base ortonormale sono gli angoli difetto di ortogonalità appena introdotti. Tali angoli sono più frequentemente detti angoli di scorrimento.

222

CAPITOLO 17. DEFORMATICA

Linearizzazione della variazione di volume. Si ricordi (cfr. la (13.58)) che la variazione specifica di volume tra la configurazione di confronto e quella attuale è misurata da det F per deformazioni finite. Nel caso di piccole deformazioni, dalla (17.117) ed utilizzando la (13.69) si stabilisce la seguente forma linearizzata in η per il determinante di F: ∙ ¸¯ ¡ ¢ ¡ ¢ ¡ ¢ ¯ ¯ = det 1I + η d det 1I + ηH ¯ ¯ det F = det 1I + ηH + O η2 ¯ dη η=0 " à ¡ !#¯ ¢ ¯ ¡ ¡ ¢ ¡ ¢ ¢−1 ¯¯ d 1 I + η H ¯ Tr ¯ = 1 + η det 1I + ηH + O η2 1I + ηH ¯ ¯ dη η=0 ¡ 2¢ ¡ 2¢ ¯ + O η = 1 + Tr H + O η , = 1 + η det 1I Tr H (17.138) dalla quale si evince che Tr H misura le variazioni di volume infinitesime. Infatti, dalla linearità dell’operatore traccia (proposizione 163) si ha Tr H = Tr symH + Tr skwH, (17.139)

dove le parti simmetrica ed antisimmetrica sono definite nella (17.119). Utilizzando ancora la linearità dell’operatore traccia e la (13.88): Tr skwH =

¢ 1 1¡ Tr H − Tr HT = (Tr H − Tr H) = 0, 2 2

(17.140)

da cui, essendo symH il tensore di deformazione infinitesima (cfr. (17.127)) ed utilizzando la (17.123) si può scrivere la variazione di volume come det F − 1 = Tr H = Tr E. (17.141)

Capitolo 18

EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI 18.1

Introduzione.

18.1.1

Il concetto di Forza è un concetto primitivo.

La meccanica ha assunto la veste di teoria assiomatizzata già nei trattati scientifico-tecnologici delle scuole ellenistiche del III-II secolo a.C. Si ricordano qui quelli di Aristarco di Samo, di Archimede di Siracusa e di Erone d’Alessandria: al primo può attribuirsi la fondazione della meccanica del punto materiale, al secondo almeno lo sviluppo della meccanica dei fluidi e della teoria delle macchine semplici, mentre al terzo è dovuta una raccolta delle conoscenze (già antiche per lui stesso) sui meccanismi e sulle strutture (per maggiori dettagli si rinvia il lettore al saggio di Lucio Russo [35] citato nel Capitolo 15). È anche dovuta ai primi tecnologi alessandrini la comprensione della stretta relazione fra lo sviluppo delle teorie scientifiche e la crescita delle conoscenze tecniche e tecnologiche. Una qualsiasi esposizione dei fondamenti teorici della meccanica deve prevedere una approfondita discussione del concetto di forza. Accettando, almeno in un primo momento, il punto di vista Newtoniano assumeremo il concetto di forza come primitivo e quindi ne specificheremo il significato per mezzo di un sistema di assiomi: in questo capitolo ci ispireremo alla loro versione dovuta a Noll [30] con l’aggiunta dell’assioma sulle reazioni vincolari, attribuibile a Kirchhoff.

18.1.2

Il metodo logico-deduttivo.

Il lettore dovrebbe avere familiarità con il metodo logico-deduttivo con il quale è sviluppata una qualsiasi assiomatica. Infatti in ogni sistema educativo di ogni paese e in ogni epoca (a partire dalla pubblicazione del famoso Elementi di Euclide nel III secolo a.C.) la geometria Euclidea è stata, e tuttora1 viene, insegnata a qualsiasi studente che aspiri ad una educazione superiore in qualsiasi disciplina. Euclide, seguendo il dettato della logica Aristotelica, fonda la sua assiomatizzazione della geometria distinguendo fra concetti derivati e concetti primitivi. I concetti derivati sono definiti in termini dei concetti primitivi, ma, per evitare una regressione all’infinito di definizioni e per non fare ricorso a oscuri concetti metafisici come ad esempio il mondo delle idee Platonico, i concetti primitivi sono riempiti di significato assumendo che verifichino uno specificato sistema di assiomi. Così qualsiasi cosa significhino per uno studioso i concetti di punto e linea egli dovrà adattare la sua intuizione del loro significato in modo che, per esempio, dati due punti distinti tali punti appartengano ad una retta ed una soltanto. In questo capitolo vogliamo, il più brevemente possibile, dal momento che riteniamo che il lettore dovrebbe già avere una certa familiarità con essa, esporre, utilizzando la procedura logica euclidea, una assiomatica newtoniana per il concetto di forza2 . 1 Ovviamente in Italia è attualmente in atto un tentativo mirato a rendere il nostro paese uno dei primi a sperimentare gli effetti (probabilmente devastanti) della cancellazione di fatto dai programmi della scuola media superiore della geometria Euclidea e di qualsiasi altra teoria assiomatizzata. 2 Ho tratto ispirazione nella stesura di questo capitolo, sperando di averne realmente colto lo spirito, dalle lezioni del Prof. Antonio Di Carlo.

223

224

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

18.1.3

Le ragioni per cui si debba preferire l’ assiomatica di Noll.

Poichè in passato si è tentato di sviluppare una assiomatica per la meccanica basata solo sulla cinematica, definendo le forze in termini di accelerazioni (assiomatica di Mach) riportiamo qui da “La Fisica di Feynman” [14] parte dei paragrafi “Che cos’è la forza? ” e “Significato delle equazioni dinamiche” in cui • si evidenzia l’infondatezza fisica di tali tentativi riduzionisti, distinguendo la diversa natura delle forze d’inerzia e di quelle che descrivono l’interazione fra un corpo e la parte rilevante del resto del mondo (nell’esempio considerato da Feynman il corpo è modellato come una particella materiale e la parte rilevante del resto del mondo si riduce alla terra): Per usare le leggi di Newton, dobbiamo avere qualche formula che riguarda la forza; queste leggi dicono di fare attenzione alle forze. Se un oggetto accelera, qualche agente è all’opera: troviamolo! Il nostro programma per il futuro della dinamica deve essere: trovare le leggi per la forza. Newton stesso si dette oltre alle leggi alcuni esempi. Nel caso della gravità egli dette una formula specifica per la forza. (...) Vicino alla superficie terrestre la forza nella direzione verticale dovuta alla gravità è proporzionale alla massa dell’oggetto (......) Cosi’ la legge di gravità ci dice che il peso è proporzionale alla massa; la forza è in direzione verticale (....) Il moto interessante è in direzione verticale e la seconda legge di Newton ci dice (...) g (accelerazione di gravità)

mg = m

d2 x . dt2

(18.1)

• molto incisivamente si distingue fra oggetti fisici e loro modelli matematici:

Come altro esempio, supponiamo di essere stati capaci di costruire un congegno che applica una forza proporzionale alla distanza e diretta in verso opposto: una molla. (...) Questa macchina è stata progettata accuratamente in modo che la forza sia maggiore più noi spingiamo la massa in alto, in esatta proporzione all’entità dello spostamento dalla condizione di equilibrio, e la forza diretta verso l’alto è esattamente proporzionale allo spostamento verso il basso. Se osserviamo la dinamica di questa macchina, vediamo un moto piuttosto bello (...) le equazioni di Newton descrivono correttamente questo moto? Vediamo se possiamo calcolare esattamente qual’è il moto di tale oscillazione periodica, applicando la legge di Newton f = ma, (18.2)

nel caso presente l’equazione è −kx = m

dvx . dt

(18.3)

• per chiarire la visione Newtoniana del concetto di forza come causa di accelerazioni, si esamina quale ruolo giochi in questa visione il concetto di equazione differenziale: Per procedere dobbiamo sapere che cos’è vx , ma naturalmente sappiamo che la velocità è la rapidità di variazione della posizione. (..) Supponiamo che ad un dato tempo t l’oggetto abbia una certa velocità vx ed una posizione x. Qual’è la velocità e qual’è la posizione ad un tempo di poco posteriore t + ε? Se possiamo rispondere a questo il nostro problema è risolto, perchè possiamo partire da una data situazione e calcolare quanto essa muti al primo istante, all’istante successivo, all’istante ancora dopo e cosi’ via, e in questo modo sviluppiamo gradualmente il moto. Per specificare supponiamo che al tempo t = 0 abbiamo x = 1 e vx = 0 . Perchè l’oggetto si dovrà muovere? Perchè vi è una forza che agisce su di esso (..) . Se x > 0 , quella forza è diretta verso l’alto. Quindi la velocità che è zero comincia a variare a causa della legge del moto. Una volta che la velocità comincia a crescere, l’oggetto incomincia a salire e cosi’ via. Ora ad ogni tempo t, se ε è molto piccolo, possiamo esprimere la posizione al tempo t + ε in funzione della posizione al tempo t e della velocità al tempo t, con una approssimazione molto buona, come x(t + ε) = x(t) + εvx (t), (18.4) più piccolo è ε più accurata è questa espressione,(...). Per ottenere la velocità successiva, la velocità al tempo t + ε , dobbiamo sapere come vari la velocità, cioè l’accelerazione. • infine si chiarisce la relazione tra la cinematica e la dinamica nella formulazione delle leggi del moto (si noti che per semplificare l’esposizione si è posto k/m = 1) E come troveremo l’accelerazione? Qui interviene la legge della dinamica. La legge della dinamica ci dice qual’è l’accelerazione. Dice che l’accelerazione è −x vx (t + ε) = vx (t) + εax (t) = vx (t) − εx(t)

(18.5)

18.2. FORZE.

225

la prima uguaglianza è semplicemente cinematica; essa dice che una velocità varia a causa della presenza di accelerazione. Ma la seconda uguaglianza è dinamica, poichè mette in relazione l’accelerazione con la forza; dice che con questo particolare tempo in questo particolare problema, possiamo sostituire l’accelerazione con −x(t). Quindi, se conosciamo sia x che v ad un dato tempo, conosciamo l’accelerazione che ci dà la nuova velocità, e conosciamo la nuova posizione - cioè come funziona il meccanismo. Il lettore dopo lo studio dei brani precedenti dovrebbe almeno aver accettato • la chiara distinzione fra forze d’inerzia (espresse in termini del prodotto della massa per l’accelerazione in sistemi inerziali) e le forze esterne assegnate (forza di gravità, forza di richiamo, di attrito ecc.), • che l’effetto delle forze esterne è l’accelerazione del sistema cui sono applicate, • che le forze esterne applicate ad un sistema debbono essere specificate come funzioni del suo stato e del suo atto di moto, • che le.sole forze che dipendono dall’accelerazione sono quelle d’inerzia.

18.2

Forze.

Le forze sono interazioni tra continui. Dati due continui B1 , B2 tali che B1 ∩ B2 = ∅, la forza esercitata dal continuo B1 su B2 come misurata dall’osservatore O si indica con fO [B1 , B2 ]. Si accettano gli assiomi di seguito elencati3 . 1. La forza fO [B1 , B2 ] è una grandezza vettoriale. 2. Il principio di azione e reazione: ∀B1 , B2 : fO [B1 , B2 ] = −fO [B2 , B1 ] .

(18.6)

3. La legge del parallelogramma: ∀ B1 , B2 , B3 a due a due disgiunti risulta fO [B1 ∪ B2 , B3 ] = fO [B1 , B3 ] + fO [B2 , B3 ] .

(18.7)

4. L’ assioma dell’ obiettività della potenza. 5. L’ assioma di Kirckhhof sull’esistenza delle reazioni vincolari. Per formulare questi ultimi postulati abbiamo bisogno delle alcune nozioni ausiliarie, che svilupperemo nelle prossime sottosezioni.

18.2.1

Tipi di forza applicate ad un continuo. Potenza spesa da un sistema di forze su un campo di velocità.

Per un continuo esteso tridimensionalmente, l’interazione con il mondo esterno viene modellata almeno mediante due tipi di forze: le azioni a distanza, che sono forze per unità di volume, (questa schematizzazione viene utilizzata per esempio per descrivere la forza peso) e le forze di contatto, che sono forze per unità di superficie (modello di interazioni per esempio del tipo pressione esercitata da un fluido su di un corpo). Per un continuo esteso bidimensionalmente B l’interazione con il mondo esterno è modellata, per esempio, mediante forze per unità di area (per esempio la forza peso) o mediante forze per unità di linea (azioni di contatto) applicate sul bordo della superficie piazzamento di B. Per un continuo esteso monodimensionalmente invece, l’interazione con il mondo esterno è modellata, in alcuni casi, mediante forze per unità di linea (per esempio la forza peso) e atomi di forza o δ di Dirac di forza (come per esempio le forze di contatto concentrate ossia applicate ad un punto materiale). Consideriamo un sistema di forze Σ costituito da: 1. Forze di volume:

Z

fV dV ;

V

3 Quando

sarà possibile farlo senza rischiare ambiguità ometteremo il pedice O in fO .

(18.8)

226

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

2. Forze di superficie:

Z

fS dS;

(18.9)

Z

fd ;

(18.10)

fi , (atomi di forza in Pi ).

(18.11)

S

3. Forze di linea:

4. Forza applicata sull’insieme di punti Pi : n X i=1

Si userà la seguente notazione sintetica: Z

df =

B

Z

fV dV +

V

Z

fS dA +

A

Z

fd +

n X

(18.12)

fi

i=1

Supponendo che un continuo B sia costituito da parti estese tri-, bi- o mono- dimensionalmente, che, in una sua data configurazione, su di esso siano applicate distribuzioni di forza concentrate rispettivamente nelle regioni V, S, o sui punti i dello spazio delle posizioni, e che compia un atto di moto determinato da un campo di velocità v, allora la potenza spesa dal sistema di forze Σ sull’ atto di moto è definita da: (v) ℘Σ

=

Z

fV · vdV +

V

Z

fS · vdS +

S

Z

f · vd +

n X i=1

fi · vi ,

(18.13)

ovvero, utilizzando la notazione sintetica introdotta: (v) ℘Σ

=

Z

v·df ,

(18.14)

B

che rappresenta, in termini energetici, l’energia trasferita per mezzo di Σ a B (dal mondo esterno) nell’unità di tempo. Si noti che nella definizione appena introdotta ci si riferisce ad una descrizione spaziale (euleriana) del moto del continuo B e delle forze ad esso applicate. Per alleggerire la notazione nella formula precedente abbiamo confuso il continuo B con una sua fissata configurazione attuale. L’abuso di notazione è, nel presente contesto, sopportabile, visto che si considererà una generica, ma fissata, configurazione attuale di B e sarà commesso anche nelle formule seguenti. In particolare per un continuo soggetto ad un atto di moto rigido vale la: Proposizione 254 Rappresentazione della potenza spesa in un atto di moto rigido: La potenza spesa da un generico sistema di forze Σ su di un atto di moto rigido è data dalla: Z (18.15) ℘ = v · df = RΣ · vO + MΣ,O · ω, B

dove sono state usate le definizioni RΣ : =

Z

B

df ,

MΣ,O :=

Z

(xP − xO ) ∧ df ,

(18.16)

B

per il vettore RΣ forza risultante del sistema Σ ed il vettore MΣ,O momento risultante di Σ rispetto al polo O.Tutte le volte nelle quali sarà possibile farlo senza generare confusione il pedice Σ sarà omesso. Dimostrazione La dimostrazione è banale se si ricorda la proprietà di ciclicità del prodotto triplo fra vettori (vedi sezione 13.2, eq. (13.15)) e che il campo di velocità v in un atto di moto rigido è dato dalla (16.35).

18.2. FORZE.

18.2.2

227

Momento di un sistema di Forze e sua variazione al variare del polo. Coppie.

Siano MO =

Z

(xP − xO ) ∧ df ,

MO0 =

B

Z

(xP − xO0 ) ∧ df ,

(18.17)

B

i momenti risultanti di un sistema di forze Σ, rispettivamente rispetto ai poli O e O0 . Per essi si può scrivere: Z Z MO0 = (xP − xO ) ∧ df = (xP − xO + xO − xO0 ) ∧ df ⇒ (18.18) B B R R ⇒ MO0 = (xP − xO ) ∧ df + (xO − xO0 ) ∧ df , B

B

da cui essendo (xO − x ) costante rispetto alle variabili di integrazione (effettuata sull’insieme dei posti occupati dal continuo B), segue che: O0

MO0 = MO + (xO − xO0 ) ∧ R.

(18.19)

Come conseguenza si ha: Proposizione 255 Condizione necessaria e sufficiente affinché il momento di un sistema di forze sia indipendente dalla scelta del polo, é che la risultante del sistema di forze sia nullo. La formula (18.19) ci permette di definire la coppia come un sistema di forze a risultante nulla. Si noti che il momento risultante di una coppia, che può essere non nullo, è indipendente dal polo.

18.2.3

Formulazione dell’ assioma sull’obiettività della potenza .

Assioma 256 La potenza spesa dal sistema di tutte le forze applicate ad un continuo B su un generico campo di velocità è una quantità obiettiva, cioè indipendente dall’osservatore (i diversi osservatori devono usare le stesse unità di misura e la stessa scala dei tempi). Si noti che è necessario considerare, nella formula della potenza: Z ℘ = v · df ,

(18.20)

B

il sistema di tutte le forze applicate a B ivi comprese le forze di inerzia, il cui addendo corrispondente (se il moto è descritto da un osservatore inerziale) è del tipo: Z − v · aP dm, (18.21) B

(dove dm denota la densità di massa della generica particella che costituisce il corpo). Se invece l’osservatore O rispetto al quale si descrive il moto non è inerziale allora le forze d’inerzia si esprimono nella forma Z Z Z − v · aP dm − v · [2ω ∧ vP ] dm − v · [aO + ω˙ ∧ rP + ω∧ (ω ∧ rP )] dm, (18.22) B

B

B

dove aP , vP ed rP denotano rispettivamente l’accelerazione, la velocità e la posizione della particella materiale P rispetto ad O, e dove ω e aO rappresentano rispettivamente la velocità angolare di O e l’accelerazione dell’origine di O relativamente ad un osservatore inerziale. Il lettore attento potrebbe avere delle remore a considerare le forze d’inerzia (la cui potenza sul corrispondente campo di velocità, per il teorema delle forze vive, coincide con l’opposto della variazione di energia cinetica) come una interazione fra il continuo ed il mondo esterno. Tuttavia accettare questo semplifica di molto l’assiomatizzazione della meccanica. Inoltre, come lo stesso Noll, Schwarzschild e Minkowski hanno variamente dimostrato, le forze d’inerzia, in meccanica classica, sono il limite dell’interazione gravitazionale fra un corpo ed i corpi molto lontani. Si può allora interpretare la potenza ℘ spesa dal sistema di tutte le forze applicate ad un continuo su di suo un atto di moto come la parte di energia trasmessa al continuo B dal mondo esterno nell’unità di tempo che non è trasformata in variazione di energia cinetica. Per questo motivo interpreteremo ℘ come l’energia utilizzata nell’unità di tempo per deformare (elasticamente, cioè in maniera reversibile o plasticamente, cioè in maniera irreversibile) il corpo. L’ assioma sull’obiettività della potenza va quindi accettato per coerenza col primo principio della termodinamica.

228

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

18.2.4

Conseguenze dell’obiettività della potenza.

Per le notazioni si rimanda ai capitoli 16 e 17. Consideriamo due osservatori O1 ed O2 . Si consideri un sistema di forze Σ applicato, all’istante t, al continuo B in moto. Si ha, per l’assioma dell’obiettività della potenza, che la potenza spesa da Σ sul generico atto di moto di B, come misurata dai due osservatori, deve coincidere. In formule: Z Z ℘(2) = v2 · df2 = v1 · df1 = ℘(1) . (18.23) B

B

Ricordando la legge di trasformazione delle velocità da un osservatore ad un altro, la precedente uguaglianza assume la forma: Z Z h i (O) ℘(2) = v2 · df2 = (18.24) Q12 v1 + v12 + ω 12 ∧ (rP − rO ) · df2 = ℘(1) , B

B

(O)

con v12 e ω 12 definiti come specificato nel Capitolo 16, sezione 16.9. Usando le definizioni (18.16) si ottiene la seguente catena di uguaglianze: Z Z Z ℘(2) = vO · df2 + [ω 12 ∧ (rP − rO )] · df2 + Q12 v1 · df2 = B

= vO ·

Z

B

df2 + ω 12 ·

B

Z

(rP − rO ) ∧ df2 +

B

= vO · R2,Σ + ω 12 · M2,Σ +

Z

Z

B

Q12 v1 · df2 =

B

B

Q12 v1 · df2 = Z

(18.25)

v1 · df1 = ℘(1) .

B

Si noti che, stanti le ipotesi fatte, le uguaglianze elencate valgono per ogni coppia di osservatori e per ogni campo di velocità (opportunamente regolare) v1 . Cominciamo con il supporre che v1 sia nullo. Allora la (18.25) valendo per ogni coppia di osservatori (cioè per ogni osservatore O2 e per ogni coppia di velocità di traslazione e rotazione relative vO e ω 12 ) diventa: vO · R2,Σ + ω 12 · M2,Σ = 0,

∀O2 , ∀vO e ∀ω 12 .

(18.26)

Come conseguenza della (18.26) si ha che 1. La risultante del sistema di tutte le forze agenti su B rispetto al generico osservatore deve essere nulla. Infatti scegliendo ω 12 = 0 si ha : vO · R2,Σ = 0,

∀O2 , ∀vO ,

(18.27)

che implica la: Prima equazioneZcardinale della dinamica ∀O. RO,Σ = df = 0,

(18.28)

B

2. Il momento risultante del sistema di tutte le forze agenti su B deve essere nullo. Infatti scegliendo vO = 0: Z ∀O2 , ∀ω 12 , (18.29) ω 12 · (rP − rO ) ∧ df2 = 0, B

che implica la: Seconda equazione cardinale della dinamica Z MO,O = (rP − rO ) ∧ df = 0, ∀O.

(18.30)

B

3. Infine sostituendo le equazioni (18.28) e (18.30) nella (18.25) si ottiene la seguente catena di uguaglianze, valida ∀O1 , O2 , ∀v1 , (si ricordi che Q21 ∈ Ort, cioè che Q21 QT12 = I) Z Z Z Q21 v1 · df2 = v1 · df1 ⇒ (df1 − Q12 df2 ) · v1 = 0. (18.31) B

B

B

18.2. FORZE.

229

A partire da questa ultima relazione basta scegliere come campo v1 un campo non nullo nell’intorno della generica particella materiale P di B e nullo nel resto del continuo (cioè usare la proposizione 213 del Capitolo 14) per dedurre:

La forza è una quantità obiettiva ∀O1 , O2 . df1 = Q21 df2 ,

(18.32)

Si noti infine che la relazione ℘(2) = vO · R2,Σ + ω 12 · M2,Σ +

Z

Q12 v1 · df2 ,

B

ottenuta precedentemente permette, a partire a partire dalla assunta validità delle equazioni (18.28),(18.30) e (18.32), la dimostrazione dell’obiettività della potenza. Si può così concludere che: Proposizione 257 L’assioma dell’obiettività della potenza è equivalente all’obiettività della forza ed alle due leggi cardinali della dinamica. In formule, utilizzando la simbologia precedentemente introdotta, si ha: ⎫ RO,Σ = 0 ∀O ⎬ MO,Σ = 0 ∀O ⇔ ℘(1) = ℘(2) ∀O1 , O2 . (18.33) ⎭ df1 = Q21 df2 ∀O1 , O2

La proposizione appena dimostrata ha due importanti conseguenze. La prima riguarda la possibilità di formulare un’assiomatica per le forze che, invece di partire dall’assioma dell’obiettività della potenza, si fondi sulle scelta come assiomi di base dell’obiettività della forza e delle leggi di bilancio della forza e dei momenti. La seconda riguarda invece la possibilità di determinare, dalle equazioni cardinali della dinamica, nota l’espressione delle forze d’inerzia a partire dai campi di accelerazione, le equazioni differenziali che reggono il moto di un dato sistema meccanico: la parte restante di questo capitolo sarà appunto dedicata alla deduzione di tali equazioni per un continuo di Cauchy. Si osservi esplicitamente che, secondo la nostra definizione, un moto di un continuo è una funzione (regolare) che associa ad ogni istante t una sua configurazione. Un sistema fermo, cioè un sistema la cui configurazione non varia nel tempo, ha come legge di moto una funzione costante. Seguendo le idee di d’Alembert non distingueremo mai le leggi della statica da quelle della dinamica: le equazioni della dinamica si riducono a quelle della statica quando le forze d’ inerzia sono nulle. Chiameremo forma debole (o d’Alembertiana) delle equazioni cardinali della dinamica per il sistema Σ di tutte le forze applicate ad un continuo la seguente relazione (ovviamente a loro equivalente) v · RΣ + ω · MΣ = 0

∀v, ω.

(18.34)

Seguendo la tradizione e sebbene essa possa, talvolta, provocare confusione, introduciamo la seguente definizione. Due sistemi di forza applicati ad uno stesso continuo sono detti equivalenti se hanno la stessa risultante e lo stesso momento risultante. Le considerazioni di natura fisica enunciate a seguito dell’assioma sull’obiettività della potenza, sono ora ulteriormente sostanziate dall’osservazione (che discende dalle leggi cardinali e dalla (18.15)) che la potenza spesa da tutte le forze esterne (come valutata simultaneamente da tutti gli osservatori) su di un atto di moto rigido è nulla. Questo è quanto c’era da aspettarsi, se si interpreta la potenza spesa da tutte le forze esterne come l’energia spesa (nell’unità di tempo) dal mondo esterno per deformare il continuo in moto. Inoltre, stante la (18.15), due sistemi di forza equivalenti spendono la stessa potenza solo su atti di moto rigidi: in generale due sistemi di forze equivalenti spendono potenze diverse su atti di moto non rigidi. È quindi importante, nella teoria dei continui deformabili, tenere presente che non è possibile rimpiazzare un sistema di forze con un altro equivalente (secondo la definizione precedente), anche se quest’ultimo risulti più maneggevole4 . 4 Il Prof. Antonio Di Carlo ha lucidamente illustrato questa circostanza ad un candidato durante l’esame di Scienza delle Costruzioni, chiedendogli se era disposto a farsi tirare ciascun arto da un cavallo (come nelle antiche condanne allo squartamento) visto che, in fondo, il sistema di forze da essi applicato era equivalente al sistema di forze nullo.

230

18.2.5

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

L’assioma delle reazioni vincolari.

Consideriamo un sistema di corpi opportunamente collegati fra loro per mezzo di apparati vincolari. Il comportamento di una tale struttura può essere descritto utilizzando teorie più o meno dettagliate. Introducendo dei continui come modello dei corpi si può tentare di modellare ciascuno degli apparati vincolari come un insieme di continui deformabili, la cui (piccola) deformazione provochi delle forze sufficienti a “guidare” la cinematica della struttura nella maniera desiderata, e specificata a priori dalle equazioni di vincolo che gli apparati vincolari cercano di realizzare. Ad esempio il modello particella materiale vincolata a muoversi su una sfera può essere raffinato nel modello particella materiale soggetta ad una forza di richiamo proporzionale alla distanza della posizione della particella da un sfera: quando la costante elastica tende all’infinito il secondo modello dovrebbe ridursi al primo, dal momento che piccoli spostamenti dalla sfera determinano l’applicazione di grosse forze di richiamo sulla particella. Un altro esempio è rappresentato dal modello continuo monodimensionale rigido vincolato al suolo per mezzo di una cerniera collegata alla sua particella materiale P ; tale modello si può perfezionare supponendo che il punto P del continuo monodimensionale sia collegato al suolo per mezzo di molle. Ancora una volta il secondo modello deve ridursi al primo quando le costanti elastiche delle molle introdotte tendano all’infinito. Purtroppo risulta (rimandiamo ad Arnold [2] per una discussione dettagliata di questa questione) che, quando gli apparati vincolari non sono modellati in maniera puramente cinematica, i problemi matematici da risolvere per studiare anche il più semplice sistema di corpi fra loro vincolati diventano formidabili e spesso praticamente irresolubili. Bisogna quindi apprestarsi (come lucidamente argomentato da Tolotti in [42], p.260) a considerare il ruolo semplificatore che l’adozione del concetto di vincolo cinematico (a priori concettualmente mai strettamente necessaria) può assolvere nei riguardi dell’effettiva risoluzione di moltissimi problemi di meccanica e delle sue applicazioni. Tuttavia l’ introduzione di un vincolo cinematico implica la rinuncia alla modellazione dettagliata di alcune interazioni fra corpi per mezzo di opportuni sistemi di forze, e precisamente di quelle forze che “guidano” la cinematica del corpo al rispetto del vincolo applicato. L’effetto di un vincolo cinematico, che rappresenta un tipo di interazione fra il corpo ed il mondo esterno selezionando stati ed atti di moto permessi, è assegnato a priori e non è influenzato dalle altre interazioni fra l’insieme corpi-apparati vincolari ed il mondo esterno (le forze che modellano tali azioni sono dette forze esterne attive). L’introduzione di vincoli cinematici significa quindi che le interazioni fra corpi non sono modellate solo da sistemi di forze ma anche da funzioni di vincolo. È quindi chiaro che una assiomatizzazione del concetto di forza debba mettere d’accordo queste due possibilità di modellazione delle interazioni. Pe meglio chiarire questo punto consideriamo un continuo rigido collegato ad un incastro sul quale sia applicata una azione esterna attiva. Tale azione non produce, manifestamente, alcuna accelerazione del corpo cui è applicata, dal momento si assume che il vincolo applicato permette una sola configurazione. Avendo accettato la legge di bilancio delle forze e dei momenti è evidente che deve essere introdotto un ulteriore sistema di forze, che aggiunga un necessario aspetto dinamico alla modellazione degli apparati vincolari (che fino ad ora è stata specificata solo introducendo le equazioni di vincolo): tale sistema di forze costituirà, insieme alle forze esterne attive, il sistema di tutte le forze applicate al continuo e assicurerà il verificarsi delle due equazioni cardinali della dinamica. La risultante ed il momento risultante associati all’azione dell’incastro sul corpo per bilanciare una generica azione esterna attiva sono una conseguenza di tali azioni esterne e sono dette le reazioni vincolari esercitate dall’incastro per bilanciare le azioni attive. Tali azioni sono dette anche forze esterne reattive. Più in generale consideriamo un sistema di continui vincolati. Si deve ammettere che i vincoli esercitino delle forze (anch’esse esterne a ciascuno dei continui cui sono applicati), dette reazioni vincolari, in grado a) di reagire al sistema di forze attive esterne impedendo gli atti di moto proibiti, b) di rendere verificate, sempre per ciascuno dei continui considerati ed eventualmente tenendo conto delle forze d’inerzia, le equazioni cardinali della dinamica. Questo è il significato dell’assioma di Kirchhoff (o delle reazioni vincolari), che, parafrasando Finzi [17], può formularsi, per un singolo continuo, così:

Assioma 258 Si postula che, agli effetti del moto ed in particolare dell’equilibrio, un continuo vincolato è assimilabile ad un continuo libero cui siano applicate le forze attive e delle reazioni vincolari. Le reazioni vincolari possono scegliersi in modo tale che il moto del continuo, come determinato dalle leggi cardinali della dinamica, rispetti le condizioni cinematiche di vincolo.

18.3. LE AZIONI DI CONTATTO IN UN CONTINUO DI CAUCHY.

18.3

231

Le azioni di contatto in un Continuo di Cauchy.

La cinematica e la deformatica di un continuo tridimensionale di Cauchy sono state discusse in due dei capitoli precedenti. In questa sezione si vuole completare quel modello matematico per costruire gli enti matematici atti alla descrizione dell’interazione fra una parte del corpo modellato con le altre parti del corpo stesso (sollecitazioni interne al corpo) e con il mondo esterno (azioni esterne).

18.3.1

Taglio di Cauchy.

Si consideri un continuo B, la cui distribuzione di massa sia caratterizzata da un campo di densità volumica , in una sua configurazione attuale: seguendo Cauchy, ne distinguiamo parti per mezzo di una superficie regolare (a tratti). Diremo taglio di Cauchy una superficie euleriana orientata Σ regolare a tratti che abbia intersezione non nulla con l’insieme dei posti occupati da B nella configurazione attuale Ct e che ne determini una partizione in due regioni non vuote, ciascuna di volume non nullo. Denoteremo con n il campo delle normali a Σ: tale campo è definito ovunque su Σ tranne che in un insieme finito di curve {γ i : γ i ⊂ Σ} su ciascuna delle quali il campo delle normali è soggetto a salti. Considerato un punto p ∈ Σ diremo positiva (risp. negativa) la parte di Ct che giace, rispetto a Σ nella direzione n(p) (risp. −n(p)). Denoteremo la parte positiva e quella negativa di Ct rispetto a Σ rispettivamente Ct+ e Ct− . Il modello continuo di Cauchy si limita a descrivere soltanto alcuni tipi di fenomeni di interazioni fra le parti dei corpi considerati. Più specificamente, nel suo ambito si considerano solo interazioni di contatto che possano essere modellate da campi di forze che verificano le seguenti ipotesi (che insieme costituiscono il cosiddetto postulato di Cauchy5 ): Per ogni taglio di Cauchy Σ è possibile scegliere un campo vettoriale tΣ definito in ogni punto di Σ, tale che l’interazione di contatto fra Ct+ e Ct− è localizzata sulla superficie Σ : in altre parole la forza f (Ct+ , Ct− ) è data dalla: Z f (Ct+ , Ct− ) =

tΣ dA.

(18.35)

Σ

Inoltre, date due superfici Σ1 e Σ2 passanti per un punto p di Ct e aventi in quel punto la stessa normale m, si ha: tΣ1 (p) = tΣ2 (p) = t(m) (p). (18.36) Un continuo tridimensionale la cui cinematica è caratterizzata attraverso le funzioni piazzamento introdotte nel Capitolo 16 e le cui interazioni di contatto sono modellate come specificato dal postulato di Cauchy è detto continuo di Cauchy. Si noti che, stante la (18.35), si può affermare che per un continuo di Cauchy, l’azione di contatto attraverso la superficie Σ si può modellare per mezzo di un campo vettoriale definito su Σ stessa. Il valore tΣ (p) di tale campo in un punto p ∈ Σ è detto vettore della tensione di Cauchy in p. Poichè, inoltre, vale la (18.36) possiamo affermare che in un dato posto p della configurazione attuale di un continuo B, attraverso ogni taglio di Cauchy che sia tangente ad un fissato piano di normale m agisce lo stesso vettore della tensione t(m) (p) : talvolta si riformula questa affermazione dicendo che il vettore della tensione dipende dalla superficie taglio di Cauchy solo attraverso la sua normale. Si vuole qui rimarcare che il postulato di Cauchy limita l’ambito di applicabilità del modello continuo di Cauchy a quei corpi nei quali le azioni di contatto sono a corto raggio di azione. Per i continui che modellano tali corpi si può affermare che, dopo aver operato un taglio di Cauchy Σ ed aver rimosso idealmente la parte che nella configurazione attuale si piazza in Ct+ , è sempre possibile trovare un sistema di forze di superficie applicate su Σ le quali fanno si che, rispetto alla situazione nella quale la rimozione non sia stata effettuata, la dinamica di Ct− rimanga inalterata. Conseguentemente si potranno formulare le leggi cardinali per Ct− utilizzando, per tenere conto delle sue interazioni con Ct+ , il campo dei vettori della tensione di Cauchy. Si noterà che in generale un vettore della tensione non è ortogonale al taglio di Cauchy cui è relativo. La componente del vettore della tensione t(m) nel piano ortogonale ad m è detto sforzo di taglio, mentre ¡ (m) ¢ t · m è detta componente di pressione. Si noterà, che fissato un punto P nella configurazione attuale Ct di un continuo di Cauchy B, risulta definita l’applicazione TP che associa ad ogni m ∈ S 2 (la sfera dei versori applicati in P ) il vettore della 5 Non osiamo violare la tradizione che si riferisce alla ipotesi che segue chiamandola postulato. Tuttavia il suo status logico non è quello di assioma fondante la meccanica o una sua parte: piuttosto essa caratterizza una classe di corpi e di fenomeni. Più precisamente il postulato di Cauchy caratterizza un insieme di modelli matematici che risultano applicabili ad una particolare classe di corpi ed una particolare classe di fenomeni che occorrono a tali corpi. E’ quindi opportuno affermare che esso determina una classe di relazioni costitutive (quella studiata nei successivi Capitoli sulle relazioni costitutive e sui criteri di resistenza).

232

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

tensione t(m) (P ). Questa applicazione gioca un ruolo fondamentale in tutta la teoria dei continui di Cauchy ed in particolare nelle teorie dell’elasticità e della plasticità . È utile considerare la sua seguente estensione. Consideriamo un generico vettore m nello spazio delle traslazioni V dello spazio puntuale euclideo tridimensionale E, la cui norma non sia unitaria. Allora si ha banalmente che m=

m kmk , kmk

con

m ∈ S2. kmk

L’applicazione TP viene estesa da S 2 in tutto V per mezzo della posizione µ ¶ m TP (m) = kmk TP . kmk La funzione TP : V → V così definita è detta tensore degli sforzi o di Cauchy. Supporremo che la funzione TP dipenda con continuità dal punto P e dal vettore m6 . Lo studioso lettore, potrebbe chiedersi perché mai la funzione appena introdotta sia stata chiamata tensore: nulla ci fa supporre a questo punto che tale applicazione sia lineare mentre nella prima parte di questo testo sono state chiamate tensori delle applicazioni multilineari. Il fatto è che uno dei contributi più importanti di Cauchy alla fisica matematica consiste nella dimostrazione del fatto che la funzione appena definita è una funzione lineare simmetrica. Questa affermazione è il contenuto del celebrato teorema detto del tetraedro di Cauchy. Quindi l’applicazione tensore degli sforzi è stata introdotta per descrivere lo stato di tensione (o sollecitazione interna) in un continuo di Cauchy. Successivamente Cauchy ha dimostrato che tale applicazione è lineare ed infine in letteratura il termine tensore ha assunto il significato molto più generale di applicazione multilineare fra spazi vettoriali. Il teorema del tetraedro ha permesso lo sviluppo, tra l’altro, della moderna meccanica dei solidi (ed in particolare della teoria dell’ elasticità e della teoria della plasticità) e della teoria di Stokes-Navier dei fluidi viscosi. Anche l’elettromagnetismo ha avuto un grande impulso grazie a questo risultato: Maxwell ha formulato, infatti, le sue celebri equazioni in termini di un tensore che porta il suo nome e che nelle sue intenzioni doveva descrivere le azioni di contatto nell’etere luminifero, il supposto supporto meccanico alla propagazione delle onde elettromagnetiche. La dimostrazione del teorema del tetraedro di Cauchy si articola in tre passi e parte dalla ipotizzata validità delle equazioni cardinali della dinamica per ogni parte del continuo di Cauchy in considerazione: nel primo si dimostra che per i vettori degli sforzi sussiste il principio di azione e reazione, nel secondo si vede che il tensore degli sforzi risulta essere lineare, nel terzo, infine, si prova che tale applicazione lineare è simmetrica. Vale la pena, prima di cominciare ad esporre la dimostrazione, notare che per gli integrali dei campi vettoriali non vale il teorema della media. Più esplicitamente sia dato un campo vettoriale continuo definito su una ipersuperficie immersa in IRn o in un aperto di IRn , allora non si può affermare che l’integrale di questo campo è uguale al valore assunto dal campo in un punto del suo dominio per la misura del dominio stesso. Ci si può rendere conto di quanto affermato quando si consideri il seguente semplice controesempio.

18.3.2

Controesempio.

Si ricordi che la funzione reale di variabile reale

è definita per mezzo della

signum : IR → {0, 1} ,

(18.37)

( z se z 6= 0 |z| signum (z) = . 0 se z = 0

(18.38)

Si consideri il campo vettoriale ⎛

µ

1 − signum (y − x) 2



(x − y) ⎜ 6 ⎜ v(x, y) = ⎜ µ ¶ ⎝ 1 − signum (x − y) 6 (y − x) 2



⎟ ⎟ ⎟, ⎠

(18.39)

definito nel rettangolo (0, 1)×(0, 1) ⊂ IR2 . Manifestamente questo campo vettoriale è continuo nel suo dominio di definizione ed è nullo sulla retta x = y. Si ha ovviamente che kv(x, y)k = kv(y, x)k e che se y > x allora 6 In realtà un elegante teorema dovuto a Noll (si veda ad esempio il trattato di Truesdell) permette di dimostrare che questa proprietà della funzione TP può anch’essa essere dimostrata dalle equazioni cardinali della dinamica. Il teorema di Noll si basa su delicati risultati di teoria della misura e travalica i limiti che sono stati posti alla presente trattazione.

18.3. LE AZIONI DI CONTATTO IN UN CONTINUO DI CAUCHY.

233

v(x, y) è parallelo all’asse delle y mentre se x > y allora v(x, y) è parallelo all’asse delle x. Come conseguenza valgono le seguenti relazioni: ° ° ° ° ° ZZ ° ° ZZ ° ZZ ZZ ° ° ° ° ° ° ° kv(x, y)k dxdy = ° v(x, y)dxdy ° = ° v(x, y)dxdy ° = kv(x, y)k dxdy, ° ° ° ° ° 1>x>y>0

1>x>y>0

ZZ

kv(x, y)k dxdy =

1>x>y>0

Z

1 0

Z

1>y>x>0

ZZ

1>x>y>0

1

v(x, y)dxdy = 0

ZZ

1>y>x>0

⎞ ⎛ Z1 Zx 6 (x − y) dxdy = ⎝ 6 (x − y) dy ⎠ dx = 1, 0

v(x, y)dxdy +

1>x>y>0

ZZ

0

v(x, y)dxdy =

1>y>x>0

µ

1 1



.

(18.40) Si può quindi concludere che non esiste nessun punto nel rettangolo (0, 1) × (0, 1) nel quale il campo v(x, y) assume un valore pari al suo integrale (si noti che l’area del rettangolo (0, 1) × (0, 1) è pari ad 1). A causa del controesempio appena discusso non sarà opportuno utilizzare nelle dimostrazioni che seguono le equazioni cardinali della dinamica, per ogni sottocorpo del continuo B, nella loro forma vettoriale. Piuttosto sarà più utile assumere la loro equivalente forma debole che può anche essere formulata affermando che la potenza spesa dalle forze esterne applicate ad ogni sottocorpo di B sul suo generico atto di moto rigido è nullo. Infatti tale potenza è data dall’integrale di una funzione scalare continua, cui può applicarsi il teorema della media.

18.3.3

Lemma di Cauchy: ovvero il principio di azione e reazione per i vettori degli sforzi.

Proposizione 259 detta lemma di Cauchy. Per i vettori degli sforzi vale il principio di azione e reazione. In formule TP (−n) = −TP (n). Dimostrazione Ai fini della dimostrazione si introduca la cosiddetta pasticca di Cauchy nell’intorno del punto P˜ . Scelta una normale n applicata nel punto P˜ si considerino il disco Dεn di centro P˜ , di normale n e di raggio ε, ed i dischi Dεn+ := Dεn + ε2 n, Dεn− := Dεn − ε2 n ottenuti traslando Dεn lungo la normale n di una quantità pari ad ±ε2 . Il cilindro così ottenuto avrà una altezza di lunghezza 2ε2 : la pasticca Vε è formata da tutte le particelle materiali del continuo B che nella configurazione attuale considerata giacciono in tale cilindro. La superficie ∂Vε che separa Vε dalla parte restante di B può essere riguardata come un taglio di Cauchy attraverso il quale si esplicano azioni di contatto: essa è formata dal mantello laterale Mε , dal disco Dεn+ e dal disco Dεn− . Supponiamo che il sottocorpo Vε trasli rigidamente con velocità u : indicando con ℘ext u (V ) la potenza dissipata dalle forze esterne sulla considerata traslazione rigida, la forma debole delle equazioni cardinali della dinamica comporta ℘ext u (V ) = 0. Denotata con b(P ) la forza per unità di volume applicata dal mondo esterno nel punto P del continuo B, le azioni di contatto applicate su Vε dalla parte restante di B, completano l’insieme delle azioni esercitate su Vε dal mondo esterno. Tali azioni, per il postulato di Cauchy, possono rappresentarsi in termini dei vettori t(n) , t(−n) e t(m) , cioè i vettori della tensione di Cauchy relativi alle direzioni n, −n ed m ⊥ Mε . Si noti esplicitamente che, mentre per i dischi Dεn− e Dεn+ la normale esterna è la medesima in tutti i punti, sul mantello laterale Mε la normale esterna dipende dal punto. Si ha quindi R R (n) R (−n) R (m) ℘ext b(P ) · udVP + t (P ) · udAP + t (P ) · udAP + t (P ) · udAP = 0. u (V ) = Vε

Dεn+

Dεn−



Dividendo per ε2 , applicando il teorema della media e calcolando il limite per ε tendente a zero si ottiene: i 1 h lim 2 V (Vε )b(P V ) · u + A(Dεn+ )t(n) (P n ) · u + A(Dεn− )t(−n) (P −n ) · u + A(Mε )t(m) (P m ) · u = 0, ε→0 ε (18.41) dove i punti P V , P n , P −n e P m sono, rispettivamente, un punto interno a Vε , su Dεn+ , su Dεn− e sul mantello Mε .

234

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

Ora è semplice verificare che V (Vε ) = O(ε4 ),

A(Dεn+ ) = A(Dεn− ) = O(ε2 ),

A(Mε ) = O(ε3 ),

cosicchè la (18.41) si riduce alla i 1 h (n) n (−n) n− (P )A(D ) + t (P )A(D ) · u = 0. t n −n ε ε ε→0 ε2 lim

Stante la supposta dipendenza continua dei vettori della tensione dal punto P , stante l’arbitrarietà del vettore u e poichè per ε → 0 i punti P n e P −n tendono al punto P˜ si ha infine: t(n) (P˜ ) + t(−n) (P˜ ) = 0 =⇒ t(n) (P˜ ) = −t(−n) (P˜ ).

18.3.4

Il teorema del tetraedro di Cauchy: ovvero della dipendenza lineare del vettore degli sforzi dalla normale.

A base della dimostrazione è la costruzione di una famiglia (parametrizzata da un parametro ε, che sarà fatto tendere a zero) di sottocorpi di B a forma di tetraedro per cui sarà assunta valida, ancora una volta, la forma debole delle equazioni cardinali della dinamica. È interessante osservare come la dipendenza lineare del vettore degli sforzi dalla normale del corrispondente taglio di Cauchy discenda da una notevole proprietà geometrica dello spazio euclideo tridimensionale: esiste (ed è proprio il tetraedro) una parte limitata di tale spazio la cui frontiera è formata esattamente da quattro triangoli piani. Ovviamente il campo delle normali esterne ad un tetraedro è costante a tratti sulla sua frontiera. Proposizione 260 detta del tetraedro di Cauchy. La funzione tensore degli sforzi, TP : V → V lineare.

è

Dimostrazione Si consideri un punto materiale P appartenente al continuo B e si scelga una terna (e1 , e2 , e3 ) ortonormale di versori applicati in P. Sia n un versore applicato in P : senza perdita di generalità si potrà assumere che le proiezioni di n sui versori ei siano tutte positive e cioè che n sia diretto nel primo ottante del sistema di coordinate determinato dalla base {ei } . Si consideri, poi, il piano π ε ortogonale ad n (n) che dista ε dal punto P e si denoti τ ε il tetraedro che ha come vertici il punto P ed i tre punti intersezione (n) di π ε con le tre rette passanti per P la cui direzione è data dai tre versori ei . La frontiera di τ ε è formata (ei ) da quattro facce triangolari piane: si indicherà con σ ε ciascuna delle facce giacenti sui piani coordinati (la (e ) (n) (n) cui normale esterna è data dal vettore −ei , di area Aε i e con σ ε la faccia inclinata di area Aε e avente normale n. In formule 1) 2) 3) ∂τ (n) = σε(n) ∪ σ(e ∪ σ(e ∪ σ(e . (18.42) ε ε ε ε (n)

Manifestamente la distanza tra l’origine degli assi e la faccia obliqua σ ε sarà pari ad ε.Supponiamo infine che (n) le particelle materiali che, nella configurazione euleriana considerata, formano il tetraedro τ ε siano soggette ad una traslazione rigida con campo di velocità costante v0 .La forma debole delle equazioni cardinali della dinamica comporta (si usino le stesse notazioni della sottosezione precedente) la seguente relazione: (n) ℘ext v0 (τ ε )

=

Z

b(P ) · v0 dV +

(n)

Z

(n)

τε

σε

(n)

t

(P ) · v0 dA +

3 Z X i=1

t(−ei ) (P ) · v0 dA = 0.

(ei )

σε

Dividendo per ε2 e calcolando il limite per ε → 0 otteniamo: ⎡ ⎤ Z Z 3 Z X 1 ⎢ ⎥ b(P ) · v0 dVp + t(n) (P ) · v0 dA + t(−ei ) (P ) · v0 dA⎦ = 0. lim ⎣ ε→0 ε2 i=1 (n)

τε

(n)

σε

(ei )

σε

Applicando ancora una volta il teorema della media per gli integrali di funzioni scalari all’equazione precedente si ottiene la seguente relazione: ∙ ¸ 3 P 1 (n) (ei ) (−ei ) lim 2 Vε(n) b(P V,ε ) · v0 + A(n) t (P ) · v + A t (P ) · v =0 (18.43) n,ε 0 e ,ε 0 i ε ε ε→0 ε i=1

18.3. LE AZIONI DI CONTATTO IN UN CONTINUO DI CAUCHY. (n)

(n)

235

(e )

dove i punti P V,ε ∈ τ ε , P n,ε ∈ σ ε e P ei ,ε ∈ σε i possono essere determinati per la supposta continuità (n) (n) delle funzioni integrande ed è stato introdotto il volume Vε misura di τ ε . È inoltre semplice verificare che Vε(n) = O(ε3 );

A(n) = O(ε2 ); ε

i) A(e = O(ε2 ), ε

cosicchè la (18.43) comporta: " # 3 X 1 (n) (n) (ei ) (−ei ) Aε t (P ei ,ε ) · v0 = 0. Aε t (P n,ε ) · v0 + lim ε→0 ε2 i=1 (e )

(n)

Successivamente, poichè il triangolo σε i è la proiezione ortogonale lungo la direzione ei del triangolo σ ε , è (e ) (n) possibile esprimere Aε i in funzione di Aε come segue i) = (ei · n)A(n) A(e ε ε ,

per cui, sostituendo nel precedente limite, si ottiene " # 3 (n) X Aε (n) (−ei ) t (P n,ε ) · v0 + (ei · n) t (P ei ,ε ) · v0 = 0. lim ε→0 ε2 i=1 (n)

Ricordando ancora che Aε P , si ottiene infine:

= O(ε2 ), e poichè evidentemente per ε → 0 i punti P n,ε e P ei ,ε tendono al punto "

t(n) (P ) +

3 X i=1

Data l’arbitrarietà di v0 si ricava:

#

(ei · n) t(−ei ) (P ) · v0 = 0.

t(n) (P ) = −

3 X i=1

t(−ei ) (P )(ei · n),

che per il Lemma di Cauchy precedentemente dimostrato diventa t(n) (P ) =

3 X i=1

t(ei ) (P )(ei · n).

La relazione dimostrata esprime manifestamente che il vettore degli sforzi dipende linearmente dalla normale n.Esprimendo i vettori n e t(ei ) in funzione delle loro componenti nella base {ei } : n=

3 X (ei · n)ei ,

t(ei ) =

i=1

3 X

T ij ej ,

j=1

e ricordando la definizione di prodotto tensore (13.6) si ottiene la seguente suggestiva formula di rappresentazione: X X t(n) = T ij ej (ei · n) = T ij [ej ⊗ ei ] (n), ij

ij

che ci permette di concludere con la formula TP =

X ij

T ij (ej ⊗ ei ) ,

oppure quella equivalente TP = t(ei ) ⊗ ei .

(18.44)

Il teorema appena dimostrato permette di affermare che, nell’ambito del modello matematico continuo di Cauchy, l’insieme delle azioni di contatto esercitate nell’intorno di un dato punto P ∈ E è rappresentato da una applicazione lineare dello spazio delle traslazioni V in sè. Questa affermazione è spesso riformulata dicendo che lo stato di tensione è modellato da una applicazione lineare. Fu immediatamente evidente allo stesso Cauchy che questo suo teorema richiedeva lo sviluppo di una nuova parte dell’algebra lineare: infatti mentre era già da tempo chiaro il fatto che alcune grandezze fisiche

236

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

(ad esempio le forze) richiedevano di essere modellate per mezzo di elementi di uno spazio vettoriale è per la prima volta con l’introduzione del tensore degli sforzi che si presenta la necessità di introdurre un’applicazione lineare come modello di una particolare grandezza fisica. Cauchy cominciò immediatamente a studiare le proprietà delle applicazioni lineari definite in spazi vettoriali ed ottenne facilmente le leggi di variazione delle loro componenti per cambiamento di base, già studiate nel Capitolo 10 alla sezione 10.8. Tuttavia si dovette aspettare lo sviluppo del moderno calcolo assoluto (elaborato da Ricci e Levi-Civita) per arrivare ad una visione compiuta dell’apparato matematico necessario a formulare le moderne teorie fisico-matematiche. Si noti che nella definizione data precedentemente il tensore degli sforzi è la funzione che associa alle normali ai tagli di Cauchy i corrispondenti vettori degli sforzi e che solo successivamente, a partire dalle equazioni cardinali della dinamica, si è dimostrato che tale funzione è lineare: questa circostanza ha portato naturalmente a chiamare tensore o grandezza tensoriale una qualsiasi funzione vettoriale di variabile vettoriale che sia lineare. In altre parole l’uso ha portato a chiamare tensore, estendendo una nomenclatura inizialmente relativa ad un caso molto specifico, una qualsiasi applicazione lineare che sia modello di una qualche grandezza fisica, anche quando questa non abbia nulla a che fare con lo stato di tensione in un continuo di Cauchy. La grande importanza nelle applicazioni del concetto di tensore ha richiesto lo sviluppo di quella teoria che è stata esposta nei capitoli precedenti. Lo studio della dimostrazione precedente dovrebbe inoltre far notare al lettore quanto risulti utile poter utilizzare, insieme ai concetti e metodi dell’algebra lineare e tensoriale, anche quelli dell’analisi matematica. Cauchy è considerato uno dei fondatori dell’analisi matematica moderna: a Lui sono dovuti, in particolare, la definizione rigorosa di limite e la conseguente dimostrazione di tutti i teoremi sugli infinitesimi che sono stati (e saranno) utilizzati in questo capitolo. Cauchy (come ogni scienziato creativo) non si è mai sentito obbligato ad usare soltanto metodi specifici di una data parte della matematica nella formulazione dei modelli da Lui ricercati: la artificiale (e probabilmente del tutto arbitraria, oltreché logicamente fuorviante) suddivisione della matematica in discipline particolari non ha alcuna sicura base scientifica e culturale e talvolta sembra essere stata concepita da gruppi di potere accademici unicamente per assicurare la sopravvivenza di una data ortodossia di pensiero.

18.3.5

Simmetria del tensore degli sforzi.

Si intende, a questo punto, dimostrare che il tensore degli sforzi è simmetrico. Consideriamo, anche in questa sottosezione, una famiglia ad un parametro di parti del continuo B nell’intorno di un suo punto materiale P˜ . Una volta scelta una base (e1 , e2 , e3 ) dello spazio delle traslazioni si considereranno la famiglia {C } di cubi centrati in P di lato di lunghezza ε con facce a due a due rispettivamente ortogonali ai versori ei . Sempre utilizzando la forma debole delle equazioni cardinali della dinamica (18.34) si passa a dimostrare ora la Proposizione 261 della simmetria del tensore degli sforzi. Il tensore degli sforzi è una applicazione lineare simmetrica. Quindi lo stato di tensione in un punto di un continuo di Cauchy è caratterizzato, in una data base, per mezzo di sei componenti scalari. Dimostrazione Si assuma che il cubo Cε sia soggetto ad un atto di moto rigido rotatorio ∀P ∈ Cε → vP = ω ∧ (rP − rP˜ ). Dalla forma debole delle equazioni cardinali, ed usando le notazioni introdotte nelle precedenti sottosezioni, si ha, per ogni ω, R b(P )· [ω ∧ (rP − rP˜ )] dV (18.45) C

ε ⎧ 3 ⎨ X R + t(rP , ei ) · [ω ∧ (rP − rP˜ )] dA + ⎩ (ei )+

i=1

σε

⎫ ⎬ t(rP , −ei ) · [ω ∧ (rP − rP˜ )] dA = 0 ⎭ (ei )− R

σε

dove per successivi usi è stata introdotta la notazione t(rP , n) ≡ t(n) (P ) per il vettore degli sforzi nel punto (e )+ P attraverso superfici di normale n e dove sono state denotate con σε i le facce di Cε aventi la normale (e )− orientata nella stessa direzione dell’i-esimo versore degli assi coordinati ei e con σ ε i le facce di Cε aventi la normale orientata secondo la direzione opposta −ei . Per stimare gli integrali di superficie nella (18.45) è necessario rappresentare i vettori rP − rP˜ quando (e )+ (e )− il punto materiale P appartiene alle facce σ ε i ed σ ε i in termini dei vettori della base (e1 , e2 , e3 ) e del

18.3. LE AZIONI DI CONTATTO IN UN CONTINUO DI CAUCHY.

237

parametro ε per mezzo delle relazioni i )+ ∀P + ∈ σ (e ε

∀P − ∈ σ ε(ei )−

2 X ¡ ¢ h ε εi h ε εi ε ∃ α1 , α 2 ∈ − , αλ bλ + ei , × − , : rP − rP˜ = 2 2 2 2 2

¡ ¢ h ε εi h ε εi ∃ α1 , α2 ∈ − , × − , : rP − rP˜ = 2 2 2 2

λ=1 2 X

λ=1

ε αλ bλ − ei . 2

(18.46)

(18.47)

dove la coppia di versori (b1 , b2 ) si ottiene dalla terna (e1 , e2 , e3 ) rimuovendo da quest’ ultima il versore ei quando sia data una determinazione all’indice i. Adotteremo nel seguito la convenzione di Einstein (vedi sezione 10.7) rimuovendo la sommatoria e ricordando che l’ indice greco λ ha come insieme di variabilità {1, 2} . Le due relazioni appena introdotte consentono di riscrivere la somma degli integrali di superficie relativi alle (e )+ (e )− coppie di facce σ ε i ed σ ε i della (18.45) come segue: Z 2ε Z ε2 ³ ´ h ³ ε ε ´i t rP + αλ bλ + ei , ei · ω ∧ αλ bλ + ei dα1 dα2 2 2 − 2ε − ε2 Z ε2 Z ε2 ³ ´ h ³ ε ε ´i + t rP + αλ bλ − ei , ei · ω ∧ αλ bλ − ei dα1 dα2 . (18.48) 2 2 − ε2 − ε2 (e )+

(e )−

La giudiziosa rappresentazione parametrica scelta per le due superfici σ ε i ed σ ε i , insieme al lemma di Cauchy, comportano che la citata somma si può mettere nella forma Z ε2 Z ε2 ³ ´ h ³ ε ε ´i t rP + αλ bλ + ei , ei · ω ∧ αλ bλ + ei 2 2 − ε2 − ε2 ³ ´ h ³ ´i ε ε − t rP + αλ bλ − ei , ei · ω∧ αλ bλ − ei dα1 dα2 , (18.49) 2 2 che, con semplici passaggi algebrici, si trasforma nella seguente espressione: Z 2ε Z ε2 nh ³ ´ ³ ´i ¡ ¢o ε ε (18.50) t rP + αλ bλ + ei , ei − t rP + αλ bλ − ei , ei · ω ∧ αλ bλ dα1 dα2 2 2 − 2ε − ε2 Z ε2 Z ε2 nh ³ ´ ³ ´i ³ ε ε ε ´o + (18.51) t rP + αλ bλ + ei , ei + t rP + αλ bλ − ei , ei · ω ∧ ei dα1 dα2 . 2 2 2 − ε2 − ε2 In conclusione si riconosce facilmente che nella (18.45) il primo addendo è un infinitesimo di ordine 4 nel parametro ε, mentre ciascuno dei successivi tre addendi, stante la supposta dipendenza continua del vettore degli sforzi t(rP , n) dalla variabile rP , è somma di un termine (che compare nella (18.50)) anch’esso infinitesimo di ordine 4 nel parametro ε in quanto l’integrazione rispetto ad αλ fa comparire tale parametro al quadrato, e di un termine (che compare nella (18.51)) infinitesimo di ordine 3 nel parametro ε. Di conseguenza dividendo la (18.45) per ε3 , utilizzando la supposta continuità della funzione t(rP , n), il teorema della media e calcolando il limite dell’espressione ottenuta per ε£ → 0 otteniamo la catena di relazioni (dove i valori α ¯ λ dei parametri ¤ ε ε λ α possono essere scelti nell’intervallo − 2 , 2 ), valida per ogni ω : (Z ε Z ε ) 3 ´ ³ ´i ³ 2 2 h ³ ε ´ 1 2 ε ε 1 X λ λ 0 = lim 3 t rP + α bλ + ei , ei + t rP + α bλ − ei , ei · ω ∧ ei dα dα ε→0 ε 2 2 2 − ε2 − ε2 i=1 ¾ ½ 3 ´ ³ ´i X ε ε 1h ³ ¯ λ bλ + ei , ei + t rP + α ¯ λ bλ − ei , ei · (ω ∧ ei ) = lim t rP + α ε→0 2 2 2 i=1 =

3 X i=1

[t (rP , ei ) · (ω ∧ ei )] .

(18.52)

Uguagliando il primo e l’ultimo membro della precedente catena di relazioni rappresentando il prodotto vettoriale ej ∧ ei per mezzo dell’indicatore di Levi-Civita (vedi equazione (13.28)) ed utilizzando il risultato stabilito nella proposizione 260 si ottiene l’implicazione: 3 X i=1

t (rP , ei ) ∧ ei = =

3 X i=1

3 X i=1

TP (ei ) ∧ ei = T jk δ ki ej ∧ ei =

3 n o X £ ¤ T jk ej ⊗ ek (ei ) ∧ ei i=1 3 X

j,k=1

T jk εjkh eh = 0,

∀h,

(18.53)

238

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

da cui discende la simmetria del tensore degli sforzi (vedi sezione 13.8). Nella precedente deduzione si è fatto uso della (13.3)3 e della definizione di prodotto tensore data nella (13.6). La dimostrazione della proposizione precedente è dovuta pure a Cauchy: si noti come ancora una volta il risultato, di grande importanza nelle applicazioni ingegneristiche, sia ottenuto per mezzo di un sapiente e ripetuto cambio di registro, che permette l’utilizzo, in rapida sequenza, di metodi tipici dell’algebra vettoriale e dell’analisi matematica. In alcuni manuali la dimostrazione precedente è semplificata 7 venendo amputata della delicata analisi riguardo l’ordine di grandezza degli infinitesimi in gioco: essa viene ridotta all’applicazione della seconda equazione cardinale ad un cubetto infinitesimo. Il lettore dotato di un sano senso critico, quando si appresti allo studio di tale versione semplificata, viene assalito da notevoli dubbi: perchè certe grandezze infinitamente vicine allo zero sono prese in considerazione e certe altre, invece, possono essere trascurate? La sensazione complessiva che si ricava è che il risultato sia del tutto aleatoriamente dipendente da una miriade di trucchi e tecnicismi dalla dubbia validità. In particolar modo si perde di vista la parte più interessante del risultato ottenuto che può essere così riassunto: accettato il postulato di Cauchy, le sole equazioni cardinali, assunte valide per ogni parte a forma di cilindro, tetraedro e cubo del continuo considerato, implicano che lo stato di tensione è rappresentabile, in ogni punto dello stesso continuo, per mezzo di una applicazione lineare simmetrica.

18.4

Il Teorema di Cauchy - Poisson.

18.4.1

Rappresentazione dello stato di tensione in un continuo di cauchy. Tensioni principali.

Nelle sezioni precedenti sono stati ottenuti degli importanti risultati: infatti si è visto come, nell’ambito della teoria del continuo di Cauchy, sia possibile introdurre un ente matematico (il campo dei tensori degli sforzi) per descrivere le modalità di interazione di parti di un corpo separate da una superficie di contatto. Nel formulare un modello matematico bisogna sempre trovare un ragionevole compromesso fra la ricchezza della descrizione dei fenomeni studiati e la possibilità di risolvere, utilizzando il modello stesso, un numero sufficiente di esercizi che permettano di prevedere il comportamento di sistemi fisici di rilevante interesse. Il modello continuo di Cauchy è molto ricco dal punto di vista di capacità descrittiva dei fenomeni di deformazione dei corpi reali: così ricco da essere sovente confuso in letteratura con lo stesso corpo reale. Tale confusione è pericolosissima, specialmente quando la pratica ingegneristica si trovi ad affrontare fenomeni non descritti dal modello che si confonde con la realtà. Infatti, di fronte a questa circostanza, come i nostri predecessori della scuola Pitagorica8 si potrebbe arrivare a negare ad esempio l’esistenza dei corpi porosi imbibiti di fluido o dei cristalli liquidi dal momento che in essi avvengono dei fenomeni non previsti dal modello continuo di Cauchy. Le ipotesi che sono state formulate nel costruire tale modello, estesamente descritte nei capitoli 16, 17 e nelle sezioni precedenti, possono essere riassunte così: 1. la configurazione del sistema è data da una funzione regolare definita in una regione dello spazio Euclideo tridimensionale E; 2. le traiettorie di tutte le particelle materiali del continuo sono almeno di classe C 2 ; 3. le azioni di contatto verificano le condizioni specificate nel postulato di Cauchy; 4. le equazioni cardinali della dinamica valgono per ogni parte del continuo che sia anch’essa una regione. Tali ipotesi, in virtù dei risultati ottenuti nelle sezioni precedenti, ci permettono di descrivere le interazioni fra le parti del continuo separate da tagli di Cauchy per mezzo di una applicazione lineare: il tensore degli sforzi. Si noti che, in generale, il vettore degli sforzi non è parallelo alla normale del taglio di Cauchy. Diremo componente di trazione o compressione (rispettivamente componente di taglio) attraverso un taglio di Cauchy di normale n lo scalare (rispettivamente il vettore) dato nella seguente formula σ := t(n) · n,

τ := t(n) − σn.

(18.54)

7 Il lettore è invitato a rileggere l’introduzione al capitolo 15 qualora non ricordi l’opinione di Menecmo riguardo l’utilità di tali semplificazioni. 8 Si ricordi l’orrore dei Pitagorici nei confronti della radice di 2 : poichè essi confondevano l’insieme dei razionali con l’insieme delle lunghezze dei segmenti piani arrivarono a credere che la realtà presentasse degli aspetti paradossali piuttosto che ammettere che esistessero dei numeri non razionali.

18.4. IL TEOREMA DI CAUCHY - POISSON.

239

Si noti che, ovviamente, l’applicazione lineare T che associa ad ogni normale al taglio di Cauchy il vettore forza di contatto per unità di area varia al variare del punto materiale in cui è considerata. In termini matematici questa circostanza è affermata dicendo che lo stato di tensione di un continuo è caratterizzato da un campo di tensori definito nella sua configurazione attuale. Scelta una base dello spazio delle traslazioni questo campo può essere caratterizzato da un insieme di sei campi scalari, ciascuno rappresentando punto per punto le componenti del tensore degli sforzi (si ricordi che le componenti strette di un tensore simmetrico sono appunto sei; per una dimostrazione rigorosa si veda la proposizione 178). Da qui la regola “pratica” tramandata da generazioni di manuali: lo stato di tensione è un insieme di campi scalari la cui interpretazione fisica è data considerando il prodotto righe per colonne della matrice simmetrica costruita con tali componenti per le componenti di un versore. Molto spesso in tali manuali il teorema del tetraedro non viene dimostrato, cosa in sè non molto grave: tuttavia, e qui la cosa diventa pericolosa, la costruzione del tetraedro viene rievocata per trovare il senso fisico del tensore degli sforzi 9 . Le fonti della teoria del continuo di Cauchy ed in particolare della sua parte che studia lo stato di tensione sono rappresentate fondamentalmente da vari manuali dovuti a Cauchy, a Navier e a Voigt. Questi autori hanno usato diverse notazioni per i predetti campi scalari, sotto l’influenza dello sviluppo storico del modello e dei vari tentativi fatti per sistemarlo. Gli epigoni dei fondatori e sistematori del modello non hanno osato, di solito, cambiare le notazioni, temendo di cambiare, con esse, anche il contenuto concettuale del modello: conseguentemente, in letteratura, la notazione (introdotta da Levi-Civita negli anni venti del novecento e ripresa da Einstein) che partendo dalla scelta di una base (e1 , e2 , e3 ) rappresenta il tensore degli sforzi per mezzo della combinazione lineare T=Tij ei ⊗ ej , (18.55) oppure per mezzo della sua matrice rappresentativa ⎛ T11 T12 ⎝ T21 T22 T31 T32

⎞ T13 T23 ⎠ , T33

(18.56)

è purtroppo poco utilizzata. Il lettore troverà ancora le seguenti notazioni per la matrice rappresentativa lo stato di tensione in un fissato sistema di riferimento triortogonale (x, y, z) : ⎞ ⎛ ⎞ ⎛ σ xx τ xy τ xz σ x τ xy τ xz ⎝ τ yx σ y τ yz ⎠ oppure ⎝ τ yx σ yy τ yz ⎠ (18.57) τ zx τ zy σ z τ zx τ zy σ zz detta notazione ingegneristica, che rappresenta una riformulazione delle notazioni di Poisson e Lamé, ⎛

txx ⎝ tyx tzx

txy tyy tzy

⎞ ⎛ τ xx txz tyz ⎠ oppure ⎝ τ yx tzz τ zx

τ xy τ yy τ zy

⎞ ⎛ pxx τ xz τ yz ⎠ oppure ⎝ pyx τ zz pzx

pxy pyy pzy

⎞ pxz pyz ⎠ pzz

detta notazione di Cauchy, Saint-Venant,Maxwell e Voigt. Purtroppo in molti manuali pagine e pagine sono dedicate alla poco appassionante discussione riguardo quale di queste notazioni sia più appropriata: un autore anglosassone taglia la testa al toro introducendo la seguente (molto poco agevole) rappresentazione del tensore degli sforzi: ⎛ ⎞ A F E ⎝ F B D ⎠, (18.58) E D C

ritenuta la più pratica (semplicemente è la prima notazione usata da Cauchy e da Lamè e rifletteva alcune antiche convenzioni sulla rappresentazione in geometria cartesiana delle superfici di secondo grado10 ). Quest’ultima rappresentazione rende quasi impossibile lo studio delle regole di variazione delle componenti del tensore per cambiamento di base e rende assolutamente impossibile il riconoscimento di molte interessanti proprietà formali nelle equazioni che coinvolgono il tensore degli sforzi. Sicuramente i pregevoli lavori di Ricci 9 Questo modo di procedere ricorda molto quello utilizzato da Plutarco quando rievoca le teorie meccaniche di Ipparco che sono per lui, digiuno del metodo logico-deduttivo, oramai incomprensibili perchè troppo matematizzate (per una discussione di queste questioni si consulti il citato saggio di Lucio Russo). 1 0 Maggiori dettagli sull’uso dei metodi geometrici nella descrizione dello stato di tensione saranno dati alla fine di questa sottosezione.

240

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

e Levi-Civita dimostrano quale sia il modo migliore di studiare ed utilizzare grandezze tensoriali: utilissime teorie fisico-matematiche moderne sono state rese così applicabili allo studio di situazioni fisiche di grande interesse. Si citerà qui, unicamente, la relatività generale: senza l’apparato formale del calcolo tensoriale assoluto, per esplicita ammissione del suo inventore, non avrebbe neppure potuto vedere la luce. Sono misteriose le ragioni per le quali la notazione (18.57) è detta ingegneristica, mentre quella di Voigt e Saint-Venant (detta talvolta fisica), sebbene sia tollerata, è guardata con ostilità, perchè troppo matematica: la notazione di Levi-Civita, che non differisce sostanzialmente da queste ultime, quando non sia completamente ignorata, è ritenuta inutilmente complicata. Si noti esplicitamente che la ragione per la quale si utilizza un simbolo diverso per gli elementi della diagonale principale della matrice rappresentativa del tensore degli sforzi è collegata alla nomenclatura (basata su una utile distinzione fra le componenti dell’azione di contatto) introdotta nella formula (18.54). Infatti per calcolare l’azione di contatto attraverso la normale diretta come l’asse x (ragionamenti del tutto analoghi valgono quando tale normale sia diretta come l’asse y oppure z ) bisogna considerare le equazioni (si noti l’abuso di notazione che confonde un vettore con le sue componenti in una data base): ⎞⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ 1 σx 1 σ x τ xy τ xz t(n) = ⎝ τ yx σ y τ yz ⎠ ⎝ 0 ⎠ = ⎝ τ yx ⎠ dove n = ⎝ 0 ⎠ , 0 0 τ zx τ zy σ z τ zx

che mostrano ovviamente che le sigma rappresentano le componenti di trazione o compressione e le tau le componenti di taglio. Come il lettore può verificare personalmente utilizzando i risultati dei precedenti Capitoli 10 e 11, qualora si cambi la base rispetto alla quale rappresentare il tensore degli sforzi, le nuove sigma dipendono sia dalle sigma che dalle tau utilizzate nella base di partenza. Questa circostanza, espressa chiaramente da Cauchy anche nella prima versione del manuale tratto dalle sue lezioni, non è apparsa a molti, però, abbastanza significativa da impedire la scelta discutibile di assegnare un nome distinto alle componenti di trazione (o compressione) e taglio. Mentre la notazione (chiaramente dovuta ad un compromesso) ingegneristica non si discosta nettamente da quella originaria di Cauchy, si deve riconoscere che la notazione di Saint-Venant e Voigt ha esattamente le proprietà formali di quella di Levi-Civita. Un’altra discussione sulla quale è stato versato molto inchiostro riguarda il significato fisico o ingegneristico del campo dei tensori degli sforzi e l’utilizzo che un ingegnere deve fare di tale concetto: come al solito si è tentato di dare concretezza ad un ente matematico confondendolo con oggetti reali. Vale la pena affermare che non c’è nessuna interpretazione fisica diretta del tensore degli sforzi: le feroci discussioni fra eruditi riguardo l’utilità immediata (pratica? ) di tale concetto sono oziose. L’intero modello matematico continuo di Cauchy deve essere utilizzato, in blocco, per prevedere il comportamento di un corpo reale: probabilmente dell’intero insieme di enti matematici utilizzato da questa teoria l’unico ad avere una solida interpretazione fisica è il campo degli spostamenti introdotto nel Capitolo 16. Se utilizzando, in una data classe di situazioni, il modello continuo di Cauchy si riesce a prevedere in maniera sufficientemente accurata quale sia la forma del corpo studiato allora si potrà affermare che esso è appropriatamente applicato: non è un caso che i moderni programmi di calcolo (fra tutti spicca VisualNastran) offrono all’utente soprattutto e principalmente una visualizzazione e dettagliate tabelle numeriche proprio del campo degli spostamenti. Concludiamo, infine, con la seguente definizione. Si chiamano direzioni principali di tensione gli autovettori (di modulo unitario) del tensore degli sforzi. Gli autovalori corrispondenti sono detti tensioni principali. Si indichi con T © ª la matrice rappresentativa del tensore degli sforzi in una data base: la superficie ST := x ∈ IR3 : x · Tx = 1 è detta quadrica indicatrice dello stato di tensione. La definizione appena introdotta fa riferimento a due ulteriori modi di rappresentare lo stato di tensione in un dato punto di un continuo di Cauchy, modi, ovviamente, equivalenti a quelli già introdotti. Le motivazioni di tali definizioni sono molteplici e sono sostanzialmente collegate a questioni tecniche di calcolo che si sono presentate in momenti storici diversi. Come più diffusamente discusso nel già citato saggio di Lucio Russo [35], solo recentemente i metodi di calcolo algebrico hanno preso decisamente il sopravvento: per lungo tempo sono stati prevalentemente utilizzati quelli geometrici. Molte regole della pratica ingegneristica sono formulate in termini di complesse costruzioni geometriche perchè per un lungo periodo la riga ed il compasso sono stati gli unici strumenti di calcolo disponibili (insieme alle corde, utilizzate per sommare vettori grazie alla costruzione detta poligono funicolare). In particolare le proprietà di una applicazione lineare, rappresentata dalla matrice ªA, in una data base sono state studiate ed espresse per mezzo della © superficie SA = x ∈ IR3 : x · Ax = 1 che appartiene all’insieme delle superfici algebriche (cioè rappresentate da equazioni polinomiali). Nel caso specifico l’equazione polinomiale è omogenea di secondo grado e la superficie è detta (per ovvie ragioni) quadrica. Le autodirezioni della applicazione lineare rappresentata da A sono le direzioni degli assi principali della superficie ed ovviamente gli autovalori rappresentano l’inverso della lunghezza di tali assi.

18.4. IL TEOREMA DI CAUCHY - POISSON.

241

La citata corrispondenza fra quadriche ed applicazioni lineari rappresenta un caso particolare della corrispondenza più generale stabilita fra enti geometrici ed enti algebrici per mezzo dei metodi della geometria analitica cartesiana: grazie a tali metodi problemi geometrici possono essere, a seconda della particolare convenienza, trasformati in problemi algebrici (e viceversa). A titolo di esempio dell’utilità di tale approccio si ricordi che, utilizzando la formula risolutiva delle equazioni di secondo grado, si può facilmente dimostrare come sia costituito l’insieme dei punti intersezione di una retta e di una circonferenza, e che tale dimostrazione era stata ricercata invano esclusivamente con i metodi della geometria euclidea. Ora, fino all’avvento dei moderni strumenti di calcolo digitale, il professionista era costretto, per progettare e dimensionare strutture, ad utilizzare rappresentazioni grafiche degli enti matematici utilizzati nel modellarle. In particolare lo stato di tensione in un punto di un dato continuo era rappresentato dalla sua quadrica indicatrice o equivalentemente per mezzo delle direzioni e lunghezze dei suoi assi principali. Per dare un esempio di come si sia utilizzata la quadrica indicatrice ST come strumento di calcolo grafico si noti che per calcolare il vettore degli sforzi nel punto P rispetto ad un taglio di Cauchy nella direzione n è sufficiente: 1. tracciare la retta r parallela ad n che passa per P , 2. determinare il punto Pn di intersezione fra ST ed r, 3. tracciare la retta rn ortogonale ad ST in Pn , 4. staccare lungo rn un segmento che abbia proiezione pari ad 1 lungo la direzione P P n . Che tale algoritmo di calcolo grafico determini effettivamente il vettore applicato rappresentativo il vettore degli sforzi può essere dimostrato, usando metodi algebrici e l’interpretazione geometrica dei risultati ottenuti, dal lettore molto facilmente quando noti che: ∇ (x · Tx) = 2Tx ⇒ ∀x ∈ ST → Tx ⊥ ST , x · Tx = 1.

(18.59)

Si noti che, poichè è sempre possibile determinare per una applicazione lineare simmetrica in uno spazio Euclideo tridimensionale una terna ortonormale di autovettori, per caratterizzare la quadrica rappresentativa dello stato di tensione bastano sei parametri scalari: i tre angoli di Eulero della terna triortogonale degli autovettori (rispetto ad una base B) e i tre corrispondenti autovalori. Questi parametri scalari possono, se questo risulti utile, essere utilizzati invece delle sei componenti strette del tensore degli sforzi rispetto la stessa base B. Le due rappresentazioni sono ugualmente legittime ed utili in circostanze diverse: la prima è stata popolare fino al moderno sviluppo del calcolatore digitale, risultando più adatta al calcolo basato su metodi grafici. Si lascia intuire al lettore quali siano le considerazioni che debbono spingere a sacrificare, in un manuale scritto nell’epoca del predominio del calcolatore digitale, lo studio approfondito dei metodi grafici di rappresentazione delle applicazioni lineari: evidentemente quelli che continuano a dolersi di questo sacrificio appartengono ad altre epoche11 .

18.4.2

Equazione di equilibrio indefinito.

Lo stato di tensione in un continuo di Cauchy B è rappresentato da un campo tensoriale definito sulla sua configurazione attuale Ct . Chiameremo sottocorpo di B l’insieme delle particelle materiali che all’istante t occupa una regione R ⊂ Ct separata dalla parte Ct /R dal taglio di Cauchy ∂R. Si vuole determinare in questa sottosezione l’equazione differenziale a derivate parziali (e le corrispondenti condizioni al contorno) di cui il citato campo tensoriale è soluzione quando si assuma che l’insieme delle forze applicate ad ogni sottocorpo del continuo B sia bilanciato. Vale infatti la seguente: Proposizione 262 Si assuma la validità della prima equazione cardinale della dinamica (18.28) per ogni sottocorpo del continuo B. Si assuma che l’insieme delle forze esterne applicate a B sia costituito da un 1 1 A questo proposito si vuole qui ricordare che è possibile acquistare un curioso programma di calcolo (che utilizza il sistema c ) che costruisce (e permette perfino di stampare) un poligono funicolare quando sia assegnato un insieme operativo Windows° di forze. Se si ricorda che è facilissimo reperire programmi di calcolo in grado di compiere la più generale operazione di somma fra vettori (ovviamente usando le loro componenti in una data base), è come se gli autori avessero costruito un braccio robotico guidato da un sofisticato calcolatore per utilizzare un antico regolo calcolatore (le cui funzioni sono ampiamente incluse in quelle del calcolatore utilizzato).

242

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

campo di forza distribuita per unità di volume b definita in Ct e da un campo di forza per unità di superficie f definita in ∂Ct . Si assuma che il campo dei tensori degli sforzi sia differenziabile con continuità in Ct . Allora valgono la seguente equazione (detta equazione di equilibrio indefinito di Cauchy)12 o

divTP + b(P ) = 0

∀P ∈Ct ,

(18.60)

e le seguenti condizioni al bordo (dette condizioni di carico superficiale) TP (n) = f

∀P ∈∂Ct .

(18.61)

Dimostrazione Stanti le ipotesi enunciate l’insieme delle forze applicate ad ogni sottocorpo del continuo B è bilanciato. Quindi Z Z b(P ) · v0 dV + TP (n) ·v0 dA = 0 ∀v0 . (18.62) R

∂R

Usando la simmetria di TP , applicando il teorema della divergenza (vedi proposizione 214) e ricordando la (13.33), poichè il campo v0 è costante, si ha: Z Z Z T b(P ) · v0 dV + n·TP (v0 ) dA = 0 ⇒ (b(P ) + divTP ) ·v0 dV = 0, ∀v0 . R

R

∂R

Poichè l’insieme delle regioni occupate nella configurazione attuale dai sottocorpi include l’ insieme di tutti i cubi inclusi in Ct , per la proposizione 213 si ha la (18.60). La dimostrazione così ottenuta si basa sull’uso del teorema di Gauss e della definizione collegata dell’operatore divergenza. Per guadagnare una migliore comprensione della (18.60) e ripercorrere i passi che hanno condotto Cauchy ad ottenerla, si può partire dalla (18.62) applicata alla famiglia di cubi {Cε } (centrata intorno al punto P nella configurazione Ct ) introdotta nella sottosezione 18.3.5. Si supporrà che ciascuno dei cubi Cε sia soggetto ad un atto di moto rigido traslatorio ∀P ∈ Cε → vP = v0 . Dalla forma debole delle equazioni cardinali, ed usando le notazioni introdotte nelle precedenti sottosezioni, si ha, per ogni v0 , ⎡ ⎤ Z Z 3 X R ⎢ ⎥ b(P ) · v0 dV + TP (ei ) · v0 dA − TP (ei ) · v0 dA⎦ = 0, (18.63) ⎣ Cε

i=1

(ei )+

σε

(ei )−

σε

dove si è usata la medesima notazione utilizzata nella proposizione 261. Per stimare gli integrali di superficie nella (18.63) è necessario rappresentare i vettori rP quando il punto (e )+ (e )− materiale P appartiene alle facce σ ε i ed σ ε i in termini dei vettori della base (e1 , e2 , e3 ) e del parametro ε per mezzo delle relazioni (18.46) e (18.47): Z

ε



ε

3 Z2 Z2 h ³ ´ ³ ´ i X ε ε b(P ) · v0 dV + t rP + αλ bλ + ei , ei − t rP + αλ bλ − ei , ei · v0 dα1 dα2 = 0, (18.64) 2 2 i=1 − 2ε − ε2

cosicchè applicando il teorema della media si ottiene ε3 b(P¯ε ) · v0 + ε2

3 h ³ ´ ³ ´i X ε ε ¯ λε bλ + ei , ei − t rP + α ¯ λε bλ − ei , ei · v0 = 0, t rP + α 2 2 i=1

£ ¤ £ ¤ con P¯ε ∈ Cε ed α ¯ λε ∈ − 2ε , 2ε × − 2ε , 2ε . Dividendo per ε3 e calcolando il limite per ε → 0 si ottiene ´ ³ ´i ε ε 1 Xh ³ ¯ λε bλ + ei , ei − t rP + α ¯ λε bλ − ei , ei · v0 = 0, t rP + α ε→0 ε 2 2 i=1 3

b(P ) · v0 + lim o 12 C t

denota la parte interna di Ct .

(18.65)

18.4. IL TEOREMA DI CAUCHY - POISSON.

243

da cui, stante l’ipotesi di continua differenziabilità del campo dei tensori degli sforzi, utilizzando il teorema degli incrementi primi di Lagrange e l’arbitrarietà di v0 , si deduce b(P ) +

¸ 3 ∙ X ∂ t (rP , ei ) = 0. ∂xi i=1

(18.66)

Ricordando la definizione di divergenza di un tensore (14.311) l’equazione appena dimostrata coincide con la (18.60). Il lettore noterà che la linea di ragionamento appena sviluppata non fa uso del teorema di Gauss: infatti ne riproduce una parte della dimostrazione. I passi fatti per arrivare alla (18.66) possono essere considerati come una motivazione alla definizione stessa dell’operatore divergenza. Resta da dimostrare la (18.61). A questo fine il lettore consideri un punto P ∈ ∂Ct , la normale n alla superficie ∂Ct in P e costruisca una pasticca come nel lemma di Cauchy. La dimostrazione discenderà da un passaggio al limite del tutto analogo a quelli considerati in tutto questo capitolo.

244

CAPITOLO 18. EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI

Capitolo 19

POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF 19.1

Il metodo delle potenze virtuali.

Come più volte messo in rilievo nei precedenti capitoli, nel momento in cui ci si accinge a sviluppare una teoria assiomatizzata, la scelta degli assiomi non è univoca, anche se, comunque, scelte differenti debbono condurre a risultati coerenti. Nel Capitolo 18, assumendo il concetto di forza come primitivo, sono stati enunciati gli assiomi attraverso i quali è stato possibile modellare matematicamente le interazioni tra corpi. In particolare, è risultato fondamentale l’assioma di Noll sulla obiettività della potenza, attraverso il quale è stato possibile collegare la cinematica galileiana, sviluppata nel Capitolo 16, con il modello proposto per le interazioni di un dato corpo con il mondo esterno. In tale contesto, per lo spazio vettoriale delle velocità si determina uno spazio duale, quello dei vettori forze applicate. A partire dalla definizione della cinematica di un continuo B, ovvero dell’insieme delle configurazioni e degli atti di moto ad esso consentiti, si è introdotto attraverso la (18.20) il funzionale Z ℘ (v) =

v (P ) ·df (P ) ,

(19.1)

B

ovvero la potenza spesa da tutte le forze agenti su B su un atto di moto v. Il funzionale ℘ è l’analogo infinitodimensionale dei covettori introdotti nella sezione 10.2: esso è infatti una applicazione lineare che si trova nello spazio duale dello spazio vettoriale degli atti di moto permessi al sistema, ed il suo valore è lo scalare ℘ (v) ∈ IR. D’altro canto, la densità di forza df (P ) applicata alla particella materiale P può riguardarsi come un covettore dello spazio duale allo spazio delle velocità di P : Z ℘ (v) = hdf , vi . (19.2) B

Nel capitolo precedente, seguendo il percorso segnato dalle idee di Cauchy, per dedurre le equazioni (18.60), (18.61) si sono assunte assiomaticamente valide le equazioni cardinali della dinamica, utilizzando tuttavia la loro forma debole o dualizzata (18.34) nelle dimostrazioni dei teoremi che ad esse hanno condotto. Sfruttando l’idea di dualità, è possibile introdurre una assiomatica alternativa, basata sul concetto di velocità virtuale, attraverso la quale si possono dedurre le equazioni di equilibrio, i dati al bordo e la rappresentazione dei campi di forza postulando un bilancio della potenza ed opportune equazioni costitutive per le forme lineari del tipo (19.1) che appaiono in tale bilancio1 . Più precisamente, il metodo delle potenze virtuali si può schematizzare come segue: • Si procede alla definizione geometrica del sistema meccanico M (che non deve essere necessariamente un continuo deformabile, ma può essere ad esempio una particella materiale od un sistema di particelle materiali) e dell’insieme S dei sottosistemi ad esso associati, passando successivamente alla definizione della cinematica nella configurazione euleriana; • Si sceglie lo spazio vettoriale dei moti virtuali, successivamente utilizzati nella modellazione. Tale spazio vettoriale deve contenere i moti “reali” del sistema specificati attraverso la cinematica, ed in 1 Il metodo delle potenze virtuali nella modellazione degli sforzi e la deduzione delle equazioni di campo in meccanica è particolarmente caro alla scuola francese. Si può trovare una conferma di quanto detto ed una trattazione esaustiva di tale metodo nei testi di J. Salençon utilizzati all’Ecole Polytechnique.

245

246

CAPITOLO 19. POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF particolare i moti rigidi. La restrizione dei moti virtuali del sistema ad un suo sottosistema definisce i moti virtuali del sottosistema stesso;

• si introduce l’assioma delle potenze virtuali così enunciato: Assioma 263 Sia M un sistema meccanico ed M0 ∈ S un suo sottosistema. La potenza spesa da e del sistema M uguaglia la potenza spesa dalle forze tutte le forze esterne su un atto di moto virtuale v e . Per ogni sottosistema M0 , la potenza spesa interne sul campo di deformazioni virtuali congruente a v 0 0 e , restrizione di v e ad M , uguaglia la potenza che le forze esterne agenti su M0 dalle forze interne su v 0 e spendono su v . In formule (e)

(i)

v) = ℘˜M (e v) , ℘˜M (e

∀M0 ⊂ M :

(e) ℘˜M0

(e v0 ) =

(i) ℘˜M0

∀e v di M,

(e v0 ) = 0,

∀e v0 di M0 ,

(19.3)

(19.4)

dove ℘˜(e) è la potenza virtuale delle forze esterne, e ℘˜(i) è la potenza virtuale delle forze interne. In e è un atto di moto rigido: particolare, se v (i)

v0 ) = 0, ∀M0 ⊂ M : ℘˜M0 (e

∀e v0 atto di moto rigido di M0 .

(19.5)

Il termine ℘˜(e) può convenientemente essere riscritto come ℘˜(e) (e v) = ℘˜(e,F) (e v) + ℘˜(e,I) (e v) ,

(19.6)

avendo esplicitato il contributo dato dalle forze di inerzia. Il cofattore di ℘, ˜ ovvero il covettore che opera sulle velocità virtuali, è la “quantità di accelerazione” del sistema. Rispetto ad un osservatore inerziale (vedi sezione 18.2.3) la potenza virtuale spesa dalle forze di inerzia è data da Z (e,I) ℘˜ (e v) = (− a) ·e vdV, (19.7) M

mentre rispetto ad un osservatore non inerziale O è data da Z ℘˜(e,I) (e v) = [− (a+2ω ∧ v + aO + ω ˙ ∧ r + ω∧ (ω ∧ r))] ·e vdV,

(19.8)

M

avendo introdotto i campi a, v ed r che denotano rispettivamente l’accelerazione, la velocità e la posizione rispetto ad O, mentre ω ed aO rappresentano rispettivamente la velocità angolare e l’accelerazione dell’origine dell’osservatore O relativamente ad un osservatore inerziale. Si noti che la (19.5) esprime il fatto che la potenza spesa per modificare le mutue distanze tra le parti costituenti un sistema meccanico M (cioè deformare) in un atto di moto rigido è nulla; • si postulano le espressioni delle forme lineari continue ℘˜(e,F) e ℘˜(i) . I cofattori introdotti in tali forme rappresentano rispettivamente le forze esterne e le forze interne agenti sul sistema. Si evince da quanto esposto nei punti precedenti che l’essenza del metodo della potenza sta nella scelta delle espressioni delle forme lineari ℘˜(e,F) (e v) e ℘˜(i) (e v) in quanto i cofattori del funzionale ℘˜(e,I) (e v) sono noti a partire dalla cinematica. In particolare, quando si accetti la cinematica galileiana, la quantità di accelerazione (e,F) (e,F) è specificata come nelle ((19.7), (19.8)). Esiste una differenza fondamentale tra ℘˜M e ℘˜M0 . Infatti, mentre (e,F) in ℘˜M appaiono le forze esterne assegnate al sistema M, le forze esterne agenti sul sottosistema M0 che ¡ ¢ (e,F) appaiono in ℘˜M0 sono a priori incognite, perché tali sono le interazioni fra M ed M − M0 . La scrittura (i) (i) (e,F) (e,F) delle forme ℘˜M e ℘˜M0 si basa coerentemente alle ipotesi che portano a postulare le ℘˜M e ℘˜M0 . Nella sezione successiva mostreremo le espressioni che si utilizzano nel caso l’oggetto sia un continuo tridimensionale.

19.2

Deduzione della legge euleriana di bilancio della forza.

19.2.1

Definizione dei moti virtuali e potenza virtuale delle forze di inerzia.

Si consideri un continuo tridimensionale B piazzato al tempo t nella configurazione attuale Ct ⊂ E, regione dello spazio puntuale euclideo E. Nella successiva modellazione considereremo i movimenti virtuali di B

19.2. DEDUZIONE DELLA LEGGE EULERIANA DI BILANCIO DELLA FORZA.

247

e definiti in Ct , ai quali si richiede di essere di classe C 1 (Ct ) nel loro definiti dai campi di velocità virtuali v dominio di definizione. L’ultima condizione è necessaria qualora, come nel presente caso, si vogliano derivare le equazioni di bilancio della forza in forma locale. Nelle applicazioni in cui si utilizza la forma debole, è possibile considerare campi virtuali meno regolari2 . Si assuma che il campo di velocità reali cui è sottoposto B sia di classe C 1 (Ct ) . Assumendo il moto descritto in un riferimento inerziale, diremo inerzia dell’elemento di massa dm = (x, t) dV la grandezza a (x, t) dm = (x, t) a (x, t) dV,

(19.9)

avendo denotato con x il vettore posizione di una particella materiale P ∈ Ct e con dV l’elemento di volume euleriano, ed avendo introdotto il campo scalare euleriano densità di massa (x, t) ed il campo delle accelerazioni a (x, t) = v˙ (x, t) , dove il punto indica la derivata materiale introdotta nella sezione 17.6.2. In conformità alla discussione svolta al numero 18.2.3, la potenza delle forze di inerzia per il sistema Ct è data da: Z (e,I)

℘˜Ct

(e v) = −

Ct

e (x, t) dV, (x, t) a (x, t) · v

(19.10)

ed analogamente per una parte Rt ⊂ C t con l’integrazione ovviamente ristretta ad Rt .

19.2.2

Potenza virtuale delle forze esterne.

L’espressione della forma lineare esprimente la potenza delle forze esterne dipende strettamente dalle ipotesi fatte sulla natura delle azioni agenti sul continuo. Nella fattispecie, volendo modellare un continuo di Cauchy, si rimanda alla sezione 18.3, nella quale si discute il postulato di Cauchy e si limita l’attenzione ad una particolare classe di corpi per i quali le azioni di contatto agenti attraverso un taglio di Cauchy sono azioni di tipo forza nell’unità di superficie. Per tale classe di corpi (continui di Cauchy) la potenza virtuale delle forze esterne agenti su tutto il sistema è data da: Z Z (e,F) ¯ e (x, t) dV + e (x, t) dA, ℘˜Ct (e t(n) (x,t) · v v) = (x, t) b (x, t) · v (19.11) Ct

∂Ct

dove b (x, t) è la densità di massa delle forze a lungo raggio agenti su B, e ¯ t(n) (x,t) è il vettore delle trazioni imposte, modello delle forze esterne nell’unità di superficie assegnate sulla frontiera ∂Ct . Si consideri ora una parte Rt ⊂ Ct . Assumiamo che le forze esterne agenti su Rt siano della stessa natura di quelle agenti su Ct . In particolare, per le forze a lungo raggio si assume che la loro densità di massa b (x, t) sia indipendente dalla scelta di Rt , il che implica il fatto che si sta modellando una classe di corpi per i quali le interazioni interne a distanza sono trascurabili rispetto alle interazioni di contatto. La potenza delle forze esterne agenti su Rt è data da Z Z (e,F) e (x, t) dV + e (x, t) dA, v) = (x, t) b (x, t) · v t(n) (x,t) · v (19.12) ℘˜Rt (e Rt

∂Rt

dove t(n) (x,t) è il vettore delle azioni di contatto sulla frontiera ∂Rt , modello delle azioni a corto raggio esercitate dal mondo esterno su Rt , ivi compresa la parte (Ct − Rt ). Si suppone che tale vettore dipenda in modo continuo dal posto e da n, la normale uscente a ∂Rt . Vale la pena precisare nuovamente la differenza tra i due termini Z Z (n) ¯ e (x, t) dA, e (x, t) dA, t (x,t) · v t(n) (x,t) · v (19.13) ∂Ct

∂Rt

che esprimono la potenza virtuale delle forze esterne di contatto rispettivamente per tutto il sistema Ct e per una sua parte Rt . Nel primo caso infatti la densità ¯ t(n) (x,t) è una forza esterna assegnata, mentre nel secondo (n) caso t (x,t) è una incognita la cui dipendenza da n e dal posto sono determinate attraverso le assunzioni che caratterizzano il modello introdotto. 2 Ad esempio nel metodo numerico degli elementi finiti, quando si tratta un continuo tridimensionale di Cauchy, è sufficiente richiedere che le velocità virtuali siano continue e che la loro derivata prima sia a quadrato sommabile, ovvero che sia continua eccetto in un numero finito di regioni di volume nullo. In tali regioni le velocità virtuali possono esibire discontinuità di salto.

248

CAPITOLO 19. POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF

19.2.3

Potenza virtuale delle forze interne. (i)

Si ipotizza che la forma lineare ℘˜Rt (e v) che esprime la potenza spesa dalle forze interne su un atto di moto e per una parte Rt di Ct possa esprimersi attraverso l’integrale di una densità volumetrica p˜(i) (e v) virtuale v e e dai suoi gradienti: indipendente da Rt e funzione lineare dei valori assunti localmente dal campo v k

k

e (x) , grade v (x) , . . . v v (x) , . . . , grade

(19.14)

e+τ ·e p˜(i) (e v) = ϕ · v L,

(19.15)

e L:=grade v,

(19.16)

e rispetto alle coordinate spaziali3 . Poiché si sta considerando dove grade v (x) indica il k −esimo gradiente di v una cinematica di primo gradiente (si veda la sezione 17.6 ed in particolare l’equazione (17.61)), assumeremo e e dal suo primo gradiente che la densità p˜(i) (e v) sia una funzione lineare dei valori locali assunti dal campo v grade v (x) . La forma più generale che può assumere tale campo scalare è e ed il campo tensoriale τ di ordine totale 2, cofattore avendo introdotto il campo vettoriale ϕ cofattore di v del campo gradiente di velocità virtuale analogo del gradiente di velocità definito nella sezione 17.6.4. Introduciamo ora i tensori velocità di dee e velocità di rotazione virtuale Ω, e rispettivamente parte simmetrica e parte formazione virtuale D e antisimmetrica di L : ´ ´ ³ ³ e := 1 e e := 1 e D (19.17) L+e LT , Ω L−e LT , 2 2

attraverso i quali è possibile esprimere la densità p˜(i) (e v) come

e + W · Ω, e e+T·D v) = ϕ · v p˜(i) (e T := symτ , Ω := skwτ .

(19.18)

Nella precedente si è tenuto conto della ortogonalità degli spazi Sym e Skw rispetto al prodotto scalare definito in Hom (si veda la (13.282)). Al fine di caratterizzare ulteriormente la precedente espressione, si consideri la (19.5) la quale impone che la potenza virtuale spesa dalle forze interne su un atto di moto rigido sia nulla. A tal fine, si consideri l’atto di moto rigido e (r) , r = rP − rO . eP = v eO + Ω v (19.19)

Dalle equazioni (19.5), (19.18) si ha quindi

e: ∀Rt ⊂ Ct , ∀e vO , ∀Ω Z Z Z (i) e (r) dV + Ω e · WdV. eO · ϕdV + ϕ·Ω vP ) = 0 = v ℘˜Rt (e Rt

Rt

(19.20)

Rt

Data una base ortonormale (e1 , e2 , e3 ) di V, spazio delle traslazioni di E, utilizzando la definizione (13.163) e ricordando la rappresentazione per componenti del prodotto tensore (13.7) si stabilisce l’identità h ¡ ¢¡ ¢i e (r) = ϕi ei · Ω e jh ej ⊗ eh rk ek ϕ·Ω £¡ ¢ ¤ e jh rk ei · eh · ek ej = Ω e jh ϕi rk δ hk δ j = ϕi Ω i j h e e = Ωjh ϕ r = Ω · (r ⊗ ϕ) , (19.21) 3 Questa

ipotesi si basa su un elegante teorema dovuto a Schwartz [39]:

Teorema 264 Dato un funzionale lineare e continuo definito sull’insieme delle funzioni C ∞ (D) a supporto compatto, allora esiste un intero N al quale è associato l’insieme di covettori fi , i = 1, 2, ..., N continui quasi ovunque tali che N ]  [ i fi ,gradv dV. ℘ (v) = i=0 D

Infatti è naturale ipotizzare che la potenza spesa da un qualsiasi sistema di forze dipende linearmente e con continuità dall’atto di moto. È possibile approfondire l’argomento consultando il pionieristico lavoro di L. Schwartz [39].

19.2. DEDUZIONE DELLA LEGGE EULERIANA DI BILANCIO DELLA FORZA. da cui eO · v

Z

Rt

e· ϕdV + Ω

Z

[(r ⊗ ϕ) + W] dV = 0,

Rt

eO implica che L’arbitrarietà di v

Z

∀Rt ,

e ∀Rt ⊂ Ct , ∀e vO , Ω.

ϕdV = 0,

249

(19.22)

(19.23)

Rt

e implica che ovvero, dalla proposizione 213, ϕ = 0. Conseguentemente, l’arbitrarietà di Ω ∀Rt ,

Z

WdV = 0 ⇒ W = 0,

(19.24)

Rt

e ed e ovvero la simmetria del tensore τ . L’espressione per p˜(i) come forma lineare di v L dettata dall’assioma delle potenze virtuali è quindi e p˜(i) (e v) = T · D, (19.25) dove T è un campo tensoriale di ordine 2 simmetrico, modello matematico delle forze di contatto. Si noti che in questo modo, pur non avendo ancora stabilito le equazioni del moto, si è ottenuto il risultato della proposizione 261.

19.2.4

Equazioni locali di bilancio della forza e dati al bordo.

Andiamo ora ad ottenere le equazioni indefinite di equilibrio. L’assioma delle potenze virtuali (19.4) detta Z

Rt

e dV + (b − a) · v

v: ∀Rt ⊂ Ct , ∀e Z e edA = T · DdV, t(n) · v

Z

(19.26)

Rt

∂Rt

avendo omesso la dipendenza dal posto e dal tempo dei campi coinvolti. Supponendo che il campo T sia e e T sono continuo in Rt ed ivi differenziabile a tratti, dalle (13.163), (14.317) e tenendo presente che D simmetrici si ha Z Z Z ³ ´ e e dV = (divT (e e · divT) dV, T · DdV = Tr TD v) − v (19.27) Rt

Rt

Rt

da cui, utilizzando il teorema della divergenza (equazione (14.324)) si ottiene Z

Rt

v: ∀Rt ⊂ Ct , ∀e Z ³ ´ e dV + e dA = 0, ( (b − a) + divT) · v t(n) − T (n) · v

(19.28)

∂Rt

e ed utilizzando la proposizione 213 ovvero, data l’arbitrarietà di v

˚t : (b − a) + divT = 0, ∀x∈R (n)

(19.29)

= T (n) ,

(19.30)

t(n) = T (n) . ∀x∈∂Ct : ¯

(19.31)

∀x∈∂Rt : t ed analogamente per Ct , con il dato al bordo

Quelle stabilite sono le equazioni del moto per un continuo tridimensionale nel quale gli sforzi sono modellati da un tensore simmetrico del secondo ordine. Il tensore T è il tensore degli sforzi di Cauchy. Si noti come le equazioni ottenute siano le stesse derivate nella proposizione 262, alla quale si rimanda per una analisi dettagliata dei termini che in esse compaiono.

250

19.2.5

CAPITOLO 19. POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF

Forma debole della legge euleriana di bilancio della forza.

L’assioma delle potenze virtuali (19.26) fornisce la forma debole, “dualizzata”, delle ((19.29), (19.30)) (nel senso specificato nella sezione 19.1) della legge di bilancio della forza. Infatti è facile vedere che la analisi precedentemente svolta conduce alla seguente: Proposizione 265 Sia T un campo tensoriale simmetrico di ordine totale 2 continuo in C˚t ed ivi differenziabile a tratti. Tale campo soddisfa l’equazione indefinita di equilibrio (19.29) ed il dato al bordo (19.30) se e di classe C 1 si ha e solo se, per ogni campo v Z Z Z e e dV + edA = T · DdV. (b − a) · v t(n) · v (19.32) Ct

Ct

∂Ct

La proposizione precedente implica che, almeno per la teoria del continuo di Cauchy, il metodo delle potenze virtuali è equivalente all’assiomatica di Noll, Nell’ambito della quale la (19.26) si dimostra come teorema. È per questa ragione che spesso si legge della “dimostrazione del principio dei lavori virtuali”, espressione apparentemente paradossale.

19.3

Forma debole della legge lagrangiana di bilancio della forza.

Le analisi svolte nelle precedenti sezioni fanno uso della descrizione euleriana del moto, essendo i campi coinvolti definiti sulla configurazione attuale Ct . Ci proponiamo ora di esaminare lo stato di tensione utilizzando campi tensoriali lagrangiani. Tale approccio risulta molte volte necessario soprattutto in meccanica dei solidi in quanto l’integrazione delle equazioni di campo sul dominio C ∗ , che è indipendente dal tempo, comporta notevoli agevolazioni.

19.3.1

Potenza virtuale delle forze interne: espressione lagrangiana.

e un campo di velocità virtuali definito nella configurazione attuale Ct di un continuo tridimensionale in Sia v moto sotto il trasporto χt . La potenza virtuale delle forze interne in tale configurazione è data da Z (i) e v : ℘˜ (e v) = T · DdV. (19.33) ∀Rt ⊂ Ct , ∀e Rt

Rt

Ci proponiamo, utilizzando la proposizione 249, di trasportare questa integrazione nella configurazione attuale utilizzando il trasporto χt . L’elemento di volume euleriano dV può esprimersi nei termini delle’elemento di volume lagrangiano dV ∗ come (si veda eq. (17.63)) dV = JdV ∗ ,

J = det F,

F = Gradχt .

(19.34)

e nei termini Utilizzando la (17.112) è inoltre possibile esprimere la velocità di deformazione virtuale euleriana D . e definita dalla (17.111) per un campo di velocità reale: della velocità di deformazione virtuale lagrangiana E .

e −1 . e = F−T EF D

L’espressione lagrangiana per la potenza delle forze interne è quindi data da µ ¶ Z . (i) −T e −1 vL ) = J TM · F EF dV ∗ , ∀R∗ ⊂ C ∗ , ℘˜R∗ (e

(19.35)

(19.36)

R∗

dove TM (X,t) = T (χt (X)) ,

(19.37)

è la rappresentazione materiale del tensore degli sforzi di Cauchy ¡ T, ¢ con la dipendenza dalle coordinate materiali X i data attraverso il cambiamento di variabili xi = χit µX j . Dalla¶ definizione di prodotto scalare . e −1 si stabilisce la seguente catena tra tensori doppi (13.163), dalla (13.89) e notando la simmetria di F−T EF

19.3. FORMA DEBOLE DELLA LEGGE LAGRANGIANA DI BILANCIO DELLA FORZA.

251

di uguaglianze: µ ¶ ∙ µ ¶¸ ∙ ¶¸ µ . . ¡ ¢ . −1 −T e −1 −T e −1 −T e TM · F EF = Tr TM F EF = Tr TM F EF ∙µ . ¶ ¸ ¸ ∙. ¡ ¢ ¢ ¡ −1 −1 −T −T T e e = Tr EF TM F = Tr E F TM F " # ¡ ¡ ¢ .T ¢ . e = F−1 TM F−T · E, e = Tr F−1 TM F−T E

da cui si deriva la espressione lagrangiana per la potenza delle forze interne: Z ¡ −1 ¢ . (i) e ∗ , ∀R∗ ⊂ C ∗ . vL ) = J F TM F−T · EdV ℘˜R∗ (e

(19.38)

(19.39)

R∗

Con la analisi appena effettuata si è determinato l’elemento duale della velocità di deformazione virtuale . e E nella espressione lagrangiana della potenza delle forze interne. Si vuole. ora determinare una espressione e =Grade vL , gradiente materiale per la potenza virtuale delle forze interne nella quale compaia il termine F eL , e dedurre di conseguenza la forma del suo termine duale. A tal fine si della velocità virtuale lagrangiana v consideri la (19.33) che, tenuto conto della simmetria del tensore T e facendo uso della (17.73) può riscriversi come µ. ¶ Z Z (i) −1 e e ∀Rt ⊂ Ct , ∀e v : ℘˜Rt (e v) = T · LdV = T · FF dV, (19.40) Rt

Rt

e . Utilizzando nuovamente la definizione dove e L =grade v è il gradiente euleriano della velocità spaziale v (13.163) e la (13.89) si stabilisce che " # " µ µ. ¶ ¶T # . ³ ³ ´ .T ´ . −T e −1 −1 e e e T · FF = Tr TF = Tr T FF F = TF−T · F. (19.41)

¡ ¢ Operando poi il cambiamento di variabili xi = χit X j dettato dal trasporto si ha Z ¡ ¢ . (i) e ∗. ℘˜R∗ (e vL ) = J TM F−T · FdV

(19.42)

R∗

19.3.2

Potenza virtuale delle forze esterne: espressione lagrangiana.

Siano bM (X, t) := b (χt (X)) ,

aM (X, t) := a (χt (X)) = v˙ L (X,t) = u ¨ (X,t) ,

(19.43)

le rappresentazioni materiali della densità delle forze di massa e della accelerazione di un continuo, dove l’espressione di quest’ultima in termini della derivata materiale seconda del campo degli spostamenti introdotto nella (16.6) scaturisce direttamente dalla definizione di derivata materiale data nella sezione 17.6.2. La rappresentazione materiale del vettore delle tensioni di Cauchy t(n) (x,t) richiede qualche cautela. Tale vettore è infatti una densità superficiale e non volumica e quindi, a differenza degli altri campi coinvolti, il suo trasporto nella configurazione di riferimento richiede che sia specificata la dipendenza ¡ ¢ dalla giacitura ndA, ovvero di come questa si trasformi con il cambiamento di coordinate xi = χit X j . Si consideri a tal fine l’integrale sulla superficie orientata σ Z ndA, (19.44) σ

frontiera della parte Rt ⊂ Ct . La proposizione 169 afferma l’esistenza dei vettori u, w tali che n = u ∧ w. Detti U, W i vettori preimmagine di u e w sotto la trasformazione Jacobiana F associata al cambiamento di coordinate χt , si ha n = u ∧ w =F (U) ∧ F (W) = FA (U ∧ W) = FA (N) , (19.45) avendo introdotto il tensore aggiunto di F, FA , in base alla definizione (13.103). Denotando con Σ la super∗ ficie materiale di normale N frontiera di R∗ = χ−1 t (Rt ) ⊂ C , preimmagine sotto F di Rt , si stabilisce la uguaglianza Z Z FA (N) dA∗ ,

ndA =

σ

Σ

(19.46)

252

CAPITOLO 19. POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF

essendo dA∗ l’elemento d’area nella configurazione di riferimento. Utilizzando infine il risultato della proposizione 172, possiamo legare il tensore FA ad F ed al suo determinante ottenendo Z Z ndA = det F F−T (N) dA∗ . (19.47) σ

Σ

Poiché nella espressione euleriana della potenza delle forze esterne la normale alla frontiera ∂Rt appare come argomento del vettore delle tensioni, la sua rappresentazione materiale si definisce come Z Z −T (N) eL (X, t) dA∗ := e (χt (X)) dA, ∀Rt . tM (X,t) · v t(J F (N)) (χt (X)) · v (19.48) ∂R∗

∂Rt

Tenendo presente la (19.34) le espressioni delle potenze virtuali delle forze esterne agenti sul continuo divengono (e,F)

v : ℘˜Rt (e v) = ∀RZt ⊂ Ct , ∀e R (n) e (x, t) dV + e (x, t) dA = (x, t) b (x, t) · v t (x,t) · v ∂Rt

Rt

=

Z

eL (X, t) dV ∗ + 0 (X) bM (X, t) · v

R∗

(e,F)

= ℘˜R∗ (e vL ) ,

R

∂R∗

∀R∗ ⊂ C ∗ , ∀e vL ,

(19.49)

(N)

eL (X, t) dA∗ tM (X,t) · v

con 0

Nella precedente, la densità di massa

0

(X) = J

M

(X, t) = J (x, t) .

(19.50)

m (Bε (X)) , (Bε (X))

(19.51)

è definita 0

(X) := lim

ε→0 V

avendo indicato con Bε (X) ⊂ C ∗ la sfera aperta raggio ε centrata in X e con m (Bε (X)) ∈ IR+ , V (Bε (X)) ∈ IR+ rispettivamente la massa ed il volume ad essa associati. La potenza virtuale delle forze di inerzia4 è infine banalmente data da Z (e,I) e (x, t) dV ⊂ C , ∀e v : ℘ ˜ (e v ) = − (x, t) a (x, t) · v ∀Rt t Rt =−

19.3.3

Rt

Z

0

R∗

(19.52)



eL (X, t) dV = (X) u ¨ (X, t) · v

(e,I) ℘˜R∗



(e vL ) ,



∀R ⊂ C , ∀e vL .

Assioma delle potenze virtuali in forma lagrangiana.

Le analisi svolte nelle precedenti sezioni forniscono tutti gli ingredienti per scrivere l’espressione dell’assioma delle potenze virtuali in forma lagrangiana per un continuo tridimensionale. Sia C ∗ la configurazione di confronto, regione dello spazio puntuale euclideo E. Per una parte qualunque R∗ l’assioma delle potenze virtuali (e,I) (e,F) (i) ℘˜R∗ +℘˜R∗ = ℘˜R∗ , (19.53) si scrive, in virtù di quanto detto al numero 19.3.1 ed omettendo la dipendenza dal posto e dal tempo, nelle due forme equivalenti Z

R∗

Z

R∗ 4 Si

0

eL dV ∗ + (bM − u ¨) · v

eL dV ∗ + ¨) · v 0 (bM − u

Z

∂R∗

Z

∂R∗

ricordi che si sta considerando un osservatore inerziale.

∀R∗ ⊂ C ∗ , ∀e vL : Z . (N) e ∗, eL dA∗ = tM · v S · EdV R∗

(N)

eL dA∗ = tM · v

Z

R∗

(19.54)

.

e ∗. P · FdV

(19.55)

19.4. FORMA FORTE DELLA LEGGE DI BILANCIO LAGRANGIANA DELLA FORZA.

253

Nelle (19.54), (19.55) si sono introdotti i campi tensoriali di ordine totale due S := J F−1 TM F−T , P := J TM F−T ,

(19.56) .

e nella (19.54) e del gradiente di velocità cofattori rispettivamente della velocità di deformazione lagrangiana E . e che compare nella (19.55). Per lo studio dei due tensori appena definiti si rimanda alla prossima lagrangiana F vL : sezione. Per l’intera regione C ∗ si ha, ∀e Z Z Z . (N) ∗ ∗ e ∗, ¯ e e t (b − u ¨ ) · v dV + · v dA = S · (19.57) EdV M L L 0 M C∗

Z

C∗

C∗

∂C ∗

eL dV ∗ + ¨) · v 0 (bM − u

Z

∂C ∗

(N) ¯ eL dA∗ = tM · v

Z

C∗

.

e ∗, P · FdV

(19.58)

(N) dove anche in questo caso la densità di forza su ∂C ∗ , ¯ tM (X,t) è una funzione assegnata a priori, mentre per ∗ la parte di frontiera ∂R ad intersezione nulla con ∂C ∗ essa è una incognita la cui dipendenza dal posto e dalla normale sono determinati dalle scelte modellistiche. Le (19.54), (19.55) sono le forme deboli delle equazioni locali lagrangiane di bilancio della forza, le quali verranno ricavate nel prossimo numero.

19.4

Forma forte della legge di bilancio lagrangiana della forza.

19.4.1

Tensori di Piola-Kirchooff.

Andiamo ora a considerare, per il continuo di cui alla sezione precedente, la potenza spesa dalle forze interne su un atto di moto reale del sistema, appartenente (cfr. sezione 19.1) allo spazio delle velocità virtuali. Diremo secondo tensore degli sforzi di Piola-Kirchhoff 5 il campo tensoriale di ordine due puramente lagrangiano: (19.59) S := J F−1 TM F−T , per cui la potenza delle forze interne può scriversi come Z (i) ∗ ˙ ℘R∗ (vL ) = S · EdV .

(19.60)

R∗

(i)

Stante la simmetria di T ne deriva immediatamente che S = ST . L’espressione per ℘R∗ mette in evidenza che il secondo tensore di Piola-Kirchhoff è il duale materiale del tasso di deformazione lagrangiana E˙ e dunque omologo del tensore T, cofattore della velocità di deformazione D nella espressione euleriana della potenza delle forze interne. Si definisce primo tensore degli sforzi di Piola-Kirchhoff 6 il campo tensoriale di ordine totale due definito come (19.61) P := J TM F−T . Tale ente opera in dualità con il gradiente materiale della velocità lagrangiana F˙ nella espressione Z (i) ∗ ˙ ℘R∗ (vL ) = P · FdV .

(19.62)

R∗

Discende immediatamente dalla definizione che il tensore P non è simmetrico, e che sussiste la relazione P = FS.

(19.63)

Basandosi sul concetto di vettore delle tensioni di Cauchy è possibile dare la seguente interpretazione fisica del primo tensore di Piola-Kirchhoff. Si consideri una parte Rt ⊂ Ct e sia ∂Rt la sua frontiera dotata di 5 La

scuola francese utilizza per esso la nomenclatura tensore degli sforzi di Piola-Kirchhoff. alcuni testi, ed in particolare quelli della scuola francese, viene usata la nomenclatura tensore degli sforzi di PiolaLagrange. 6 In

254

CAPITOLO 19. POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF

campo delle normali uscenti n. La forza esercitata su tale superficie è, per il postulato di Eulero-Cauchy ed utilizzando il risultato del teorema di Cauchy: Z Z f= t(n) dA = T (n) dA. (19.64) ∂Rt

∂Rt

Introducendo la rappresentazione materiale (19.37) del tensore di Cauchy e tenendo presente la (19.47) si stabilisce la catena di uguaglianze Z Z Z £ ¤ −T ∗ T (n) dA = P (N) dA∗ . (19.65) f= J TM F (N) dA = ∂R∗

∂Rt

∂R∗

essendo dA∗ l’elemento d’area nella configurazione attuale. La quantità P (N) è quindi la forza nell’unità di superficie misurata nell’unità di area della configurazione di riferimento C ∗ . Per tale motivo si dice che il primo tensore di Piola-Kirchhoff corrisponde al trasporto parallelo della forza su un elemento di superficie orientata. ¡ ¢ ora il sistema di coordinate referenziali X 1 , X 2 , X 3 ed il sistema di coordinate spaziali ¡ 1 Si 2considerino ¢ x , x , x3 entrambi cartesiani ortogonali e siano (O, (E1 , E2 , E3 )) ed (o, (e1 , e2 , e3 )) le basi associate (cfr. sezione 14.4). Il primo tensore di Piola-Kirchhoff si rappresenta in tali basi come P = J TM F−T = J T ij (ei ⊗ ej ) = J Tik

H ∂X H T ij ∂X (E ⊗ e ) = J T δ jk (ei ⊗ EH ) H k ∂xk ∂xk

∂X H (ei ⊗ EH ) = P iH (ei ⊗ EH ) , ∂xk

(19.66)

avendo utilizzato la (17.55) ed il risultato stabilito nella proposizione 159. La componente PiH = ei · P (EH ) è dunque la componente lungo l’asse ei della forza di contatto agente su un elemento di superficie materiale avente normale uscente EH in C ∗ . La relazione (19.67) S (N) = F−1 (P (N)) . mostra come la forza P (N) sia trattata da S alla stregua di un vettore materiale, ovvero trasportata in C ∗ dall’applicazione del tensore F−1 . Tale tensore non ammette dunque una interpretazione diretta del tipo di quelle date per T e P nei termini di forze di contatto. Nelle basi precedentemente introdotte S si rappresenta come S = J Tik

∂X J ∂X H ∂X J ∂X H (E ⊗ e ) (e ⊗ E ) = J T (EJ ⊗ EH ) = S JH (EJ ⊗ EH ) , J j i H jk ∂xj ∂xk ∂xj ∂xk

(19.68)

ed è, come si può notare, puramente lagrangiano.

19.4.2

Equazioni indefinite di equilibrio lagrangiane.

Al fine di ottenere le equazioni di campo in forma lagrangiana partiremo dalla forma debole (19.55) la quale ci permette di utilizzare il teorema della divergenza come enunciato nella proposizione 215, ed in particolare la equazione (14.331). Supponendo che il campo T sia continuo in Rt ed ivi differenziabile a tratti, tale proprietà è trasferita . ∗ e al campo P in R attraverso la (19.61). Dalle (13.163), (13.88), (14.317) e ricordando che F =Grade vL , è possibile trasformare l’espressione della potenza interna come: µ. ¶ Z Z Z . ¢ ¡ ∗ T ∗ e e eL · DivP dV ∗ , P · FdV = Tr FP vL ) − v (19.69) dV = DivPT (e R∗

R∗

R∗

da cui, utilizzando il teorema della divergenza (equazione (14.324)) e la definizione di trasposto (13.33) si ottiene Z

R∗

∀R∗ ⊂ C ∗ , ∀e vL : Z ³ ´ (N) eL dV ∗ + eL dA∗ = 0, ( 0 (bM − u ¨) + DivP) · v tM − P (N) · v ∂R∗

(19.70)

19.4. FORMA FORTE DELLA LEGGE DI BILANCIO LAGRANGIANA DELLA FORZA.

255

eL ed utilizzando la proposizione 213 si dove N è il campo delle normali uscenti a ∂R∗ . Data l’arbitrarietà di v ottiene l’equazione indefinita di bilancio delle forze in forma lagrangiana ed il dato al bordo: ˚∗ : ∀X∈R

∀X∈∂R∗ :

0

(bM − u ¨) + DivP = 0,

(N) tM

= P (N) ,

(19.71)

(19.72)

mentre per l’intero corpo nella configurazione di riferimento il dato al bordo si tramuta nella condizione di (N) carico superficiale nei termini delle forze esterne ¯ tM assegnate sulla frontiera ∂C ∗ : (N)

∀X ∈ ∂C ∗ : ¯ tM = P (N) .

(19.73)

L’equazione di bilancio euleriana dei momenti, asserente la simmetria del tensore degli sforzi di Cauchy, si tramuta invece nella forma lagrangiana S = ST , (19.74) derivante dalla definizione (19.59), ovvero, nei termini del primo tensore di Piola-Kirchhoff: PFT = FPT .

(19.75)

256

CAPITOLO 19. POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF

Capitolo 20

MATERIALI ELASTICI Quando per i corpi deformabili si introduce il modello Continuo di Cauchy è necessario caratterizzare i diversi materiali di cui tali corpi possono essere costituiti per mezzo di opportune relazioni, dette costitutive, fra lo stato di deformazione e quello di tensione dei continui introdotti. Tali relazioni rappresentano il modello matematico atto a descrivere il comportamento dei citati materiali. I parametri che specificano, nell’ambito di una data classe di relazioni, le proprietà di un dato materiale, debbono ottenersi per mezzo di opportune campagne di misure, progettate a partire dal modello continuo di Cauchy completato dalle relazioni costitutive assunte valide nell’ambito dei fenomeni considerati. Un esempio di una tale procedura è dato dalla Teoria del Cilindro di Saint-Venant: assumendo che il corpo deformabile considerato sia omogeneo ed isotropo, che la sua forma sia cilindrica nella configurazione di confronto e che per esso sia valido il modello Continuo di Cauchy, Saint-Venant dimostra che i moduli di Young e di Poisson per il materiale che costituisce il corpo considerato si possono determinare per mezzo di due misure di deformazione. Per maggiori dettagli su queste questioni si rinvia il lettore ad un qualsiasi testo di Scienza delle Costruzioni1 .

20.1

Modellazione delle proprietà materiali.

20.1.1

Assunzioni costitutive.

Il principio di bilancio della quantità di moto (18.28) e del momento della quantità di moto (18.30) sono comuni per tutti i corpi modellabili nell’ambito della meccanica galileiana del continuo. È tuttavia evidente che corpi costituiti da materiali diversi rispondono in modo diverso alle stesse forze esterne. Pertanto la conoscenza delle equazioni del moto e delle forze esterne assegnate non sono in generale sufficienti a caratterizzare l’evoluzione del sistema. Nell’ambito della teoria dei continui di Cauchy, ciò appare evidente considerando le tre equazioni scalari (18.60), tenuto conto della simmetria del tensore degli sforzi e della continuità della massa in forma lagrangiana (20.1) 0 =J , compaiono nove funzioni scalari incognite, componenti dei campi x(X, t),

T(X, t).

(20.2)

Al fine di ottenere le ulteriori equazioni necessarie a chiudere il sistema si formulano ipotesi aggiuntive, dette assunzioni costitutive, atte a caratterizzare la risposta del materiale. Nel contesto della meccanica classica dei continui si considerano generalmente tre tipi di assunzioni costitutive. 1. Vincoli sulle deformazioni permesse al corpo2 . Uno degli esempi ricadenti in questa classe è quello del vincolo di moto rigido (16.20), ampiamente esposto nel Capitolo 16. L’introduzione di tale legame permette la completa determinazione dell’evoluzione del sistema a partire dalle sei equazioni (18.28) e (18.30), essendo il corpo continuo ridotto ad un sistema a sei gradi di libertà (si veda sezione 16.8.2). Un altro esempio di vincolo di questo tipo è l’incompressibilità, molto comune in meccanica dei fluidi dove si utilizza per modellare liquidi come l’acqua in condizioni di flusso normale o gas come l’aria in 1 Il contenuto di questo Capitolo, in misura maggiore di quello di tutti gli altri, è grandemente influenzato dalle lezioni del prof. Antonio Romano, a cui va la mia riconoscenza per aver dedicato molto del suo tempo alla mia formazione. 2 Questo tipo di legami costitutivi sono anche detti vincoli interni.

257

258

CAPITOLO 20. MATERIALI ELASTICI moto con velocità non troppo elevate, ed in meccanica dei solidi quando si modellano materiali quali ad esempio gomme (rubber-like materials). Sotto tale vincolo sono permesse solo deformazioni isocore, ovvero deformazioni nelle quali il volume di ogni porzione si conserva durante il moto: Z d ∀Rt ⊂ Ct : dV = 0, (20.3) dt Rt

la quale, stante la (17.64) può riscriversi come ∀R∗ ⊂ C ∗ :

d dt

Z

det FdV ∗ = 0,

(20.4)

R∗

dove R∗ è la preimmagine sotto il trasporto χt della regione Rt ed F =Gradχt . Dalla proposizione 213 la precedente equivale alla forma indefinita d (det F) = 0, dt

(20.5)

la quale caratterizza lagrangianamente la deformazione isocora, ovvero, utilizzando le (13.69), (17.73), (14.304), (17.50): ³ −1 ´ d ˙ = (det F) Tr L = (det F) Tr gradv = (det F) = (det F) Tr FF dt = (det F) divv =0 ⇒ divv =0

(20.6)

forma euleriana del vincolo di isocoricità. 2. Assunzioni sulla forma assunta dal tensore degli sforzi. L’assunzione più comune ricadente in questa classe è quella asserente che gli sforzi sono descritti durante il moto dal tensore sferico T (x, t) = −p (x, t) 1I,

(20.7)

dove p (x, t) è il campo euleriano delle pressioni. Tale assunzione è utilizzata per modellare i fluidi ideali, per i quali gli effetti dissipativi sono trascurabili. 3. Equazioni costitutive, ovvero legami tra gli sforzi e le deformazioni o, più in generale, relazioni tra la dinamica e la cinematica. Un esempio classico è fornito dall’equazione di stato dei gas perfetti p = Rϑ, che lega la pressione p alla densità

(20.8)

ed alla temperatura assoluta ϑ (R è la costante universale dei gas).

La prima parte del presente capitolo sarà dedicata allo studio di una classe di equazioni costitutive che sembra sufficiente alla descrizione della gran parte dei materiali incontrati nella pratica ingegneristica. Successivamente, lo studio sarà focalizzato sulla famiglia di equazioni che caratterizza i materiali elastici.

20.1.2

Assiomi costitutivi.

In generale le equazioni costitutive non possono assegnarsi ad arbitrio ma devono sottostare ad una serie di principi formalizzati attraverso gli assiomi costitutivi. Prima di enunciare gli assiomi costitutivi, introduciamo qualche nozione preliminare. Un moto di B è un diffeomorfismo χ : C ∗ × IR → E, (20.9) tale che, per ogni t, χt è una funzione piazzamento (cfr. la sezione 17.6.1) per B. Diremo processo dinamico per un continuo B una coppia (χ,T) dove χ è un moto di B, T è un campo tensoriale di ordine 2 simmetrico definito in Ct , T (x, t) è una funzione regolare di x in Ct .

(20.10)

Siano inoltre e v rispettivamente il campo di densità euleriano ed il campo di velocità spaziale relativi al moto χ. La terna ( , v,T) è detta flusso. In virtù del teorema di Cauchy (proposizione 260), ogni sistema di

20.1. MODELLAZIONE DELLE PROPRIETÀ MATERIALI.

259

forze esterne (b, f ) è bilanciato da un campo tensoriale simmetrico T (cioè da un campo che verifica le (18.60), (18.61)) e viceversa, il sistema di forze esterne (b, f ) è completamente determinato dal tensore degli sforzi T e dal moto χ nel modo seguente f =T (n) , b = v−divT, ˙ (20.11) dove è calcolata usando la (19.50). Alla luce di tale considerazione e supponendo che il modello di Cauchy possa completarsi con opportune relazioni costitutive in modo che il problema dell’evoluzione della sua configurazione sia ben posto, possiamo affermare che ad ogni sistema di forze esterne corrisponde uno ed un solo processo dinamico (o, equivalentemente, un flusso) consistente con le equazioni (18.60), (18.61) e viceversa. Si intende per corpo materiale B un corpo B dotato di una densità di massa 0 ed al quale è associata una famiglia C di processi dinamici, detta classe costitutiva del corpo. Tutti i processi dinamici appartenenti a C sono consistenti con le assunzioni costitutive su B. Così, ad esempio, un corpo è incompressibile se ogni processo dinamico (χt ,T) appartenente alla sua classe costitutiva è isocoro (si vedano le (20.5), (20.6)). Denoteremo con (20.12) χt−τ (Y) , (Y, τ ) ∈ C ∗ × [0, ∞) , la storia del moto χ fino all’istante t nel punto Y. L’istante t è detto tempo presente, mentre τ rappresenta l’intervallo intercorso dal tempo passato t − τ al tempo presente t. La risposta del materiale nel punto x al tempo t, espressa dal campo T (x,t) attraverso il suo legame con il moto del corpo, si assume dipendente dalla storia del moto stesso, nonché globalmente dalla configurazione di confronto e dal punto materiale nella configurazione di confronto. Tale dipendenza viene regolata dagli assiomi costitutivi. Principio del determinismo (Noll). Assioma 266 Ad ogni istante t, il valore del tensore degli sforzi di Cauchy nel punto x = χt (X) , X ∈ C ∗ , è determinato dalla intera storia del moto χ fino all’istante t. La classe costitutiva C di un corpo materiale all’istante t si assume dunque costituita dai processi dinamici (x, T) con la risposta del materiale nel punto x dettata da una applicazione Ψ a valori in Sym tale che ¡ ¢ T (xP , t) = Ψ χt−τ (XP ) , P, C ∗ , (XP ,τ ) ∈ C ∗ × [0, ∞) . (20.13)

Chiameremo Ψ funzionale di risposta del materiale. L’equazione (20.13) definisce la classe costitutiva di un corpo materiale esprimendo un legame tra gli elementi (χ, T) dei processi dinamici di C. Per per tale ragione essa è detta equazione costitutiva. La notazione scelta vuole esprimere la dipendenza di Ψ dalla storia χt−τ (XP ), dalla particella materiale P e dalla configurazione di riferimento C ∗ . Nel caso particolare in cui Ψ non dipende dai valori passati di χ, si dice che il materiale non ha memoria. Principio dell’azione locale (Noll). (1)

(2)

Due storie χt−τ (X) , χt−τ (X) relative ai moti χ(1) e χ(2) sono localmente equivalenti nel punto X se esiste almeno un intorno di X nel quale esse coincidono. Diremo locale un funzionale di risposta Ψ se considerato (1) (1) un aperto (cfr. sezione 14.3) R∗ ⊂ C ∗ e due storie χt−τ , χt−τ equivalenti in R∗ si ha ´ ³ ´ ³ (1) (1) (20.14) Ψ χt−τ (XP ) , P, C ∗ = Ψ χt−τ (XP ) , P, C ∗ , (XP ,τ ) ∈ R∗ × [0, ∞) . Assioma 267 Le funzioni costitutive di un continuo di Cauchy si assumono essere locali.

In virtù dell’assioma dell’azione locale, la risposta di un materiale in un punto X è determinata soltanto dalla classe di equivalenza delle storie localmente equivalenti in un intorno di tale punto. In questo modo si escludono le azioni a distanza tra le cause che possono determinare l’azione di contatto descritta da T. Se il valore di Ψ in X dipende soltanto dai valori in X di χt−τ e delle sue derivate fino all’ordine k, allora Ψ è detto differenziale di grado k ed è locale in virtù del fatto che la conoscenza di una applicazione in un aperto implica la conoscenza di tutte le sue derivate nello stesso aperto. Considerando moti sufficientemente regolari, è dunque possibile considerare per le loro storie lo sviluppo in serie di Taylor centrato in X, per cui la risposta del materiale Ψ può esprimersi come una funzione di χt−τ e delle sue derivate spaziali fino all’ordine k valutate in X. Un materiale è detto di grado k se k è l’ordine massimo delle derivate che compaiono come argomento del suo funzionale di risposta. Considereremo nel seguito soltanto una classe di equazioni costitutive, introdotta da Noll ([28], [29]). L’autore chiama materiali semplici i materiali il cui comportamento può essere descritto da tale classe di

260

CAPITOLO 20. MATERIALI ELASTICI

equazioni costitutive. In particolare, i materiali semplici sono differenziali3 di grado 1, per cui la loro risposta è data da T (x,t) = Ψ (F (XP ,t − τ ) , P ,C ∗ ) , (XP ,τ ) ∈ C ∗ × [0, ∞) , (20.15) avendo tenuto conto dell’assioma dell’azione locale e della (17.62). Nella precedente, F (XP ,t − τ ) = Gradχt−τ (XP ) ,

(20.16)

è la storia del gradiente di deformazione fino al tempo t. Principio di obiettività. Assioma 268 L’equazione costitutiva (20.15) è invariante rispetto a cambiamenti di osservatore galileiano (cfr. Capitolo 16). La classe costitutiva del relativo corpo materiale ha quindi la seguente proprietà: se un processo dinamico (χ, T) appartiene a C, allora ogni altro processo dinamico che si ottiene da (χ, T) per cambiamento di osservatore galileiano appartiene a C. Una equazione costitutiva che rappresenti la risposta di un materiale rispetto ad un dato osservatore, deve dunque avere la stessa forma rispetto ad ogni osservatore nella classe di equivalenza degli osservatori galileiani, ovvero rispetto ad ogni osservatore ottenibile dal primo attraverso la relazione di equivalenza cambiamento di osservatore galileiano (si veda la sezione 16.4 del Capitolo 16). La seguente formalizzazione dell’assioma di obiettività è dovuta a Noll nell’ambito dei materiali la cui risposta è descritta dall’equazione (20.15): il funzionale della risposta Ψ deve soddisfare la condizione Ψ (Q (τ ) F (t − τ )) = Q (0) Ψ (F (t − τ )) QT (0) ,

∀Q (τ ) ∈ Q

(20.17)

Nella precedente, si è omessa per brevità la dipendenza da P e C ∗ , e si è indicato con Q l’insieme delle storie delle rotazioni: Q = {Q (τ ) , τ ∈ [0, ∞)} , (20.18) dove per rotazione si intende un tensore ortogonale proprio (cfr. sezione 13.10). La forma (20.17) data all’assioma di obiettività è giustificabile osservando innanzitutto che, avendo i cambiamenti di osservatore galileiano ed i piazzamenti rigidi la stessa struttura matematica4 , essi sono in corrispondenza biunivoca. Dal punto di vista della trasformazione rigida, si consideri un moto χ ¯ che differisce dal moto χ di un piazzamento rigido. Definendo il piazzamento rigido χR t (·) := q (t) + [Q (t)] (·) ,

(20.19)

con q (t) ∈ E, allora χ ¯ e χ sono legati dalla relazione χ ¯ t (·) = χR t (·) ◦ χt (·) ,

(20.20)

avendo indicato con “◦” l’operazione di composizione tra funzioni. La precedente esprime semplicemente il fatto che la deformazione χ ¯ t (·) è data dalla deformazione χt (·) seguita dalla trasformazione rigida χR t (·) . Riscritta esplicitamente diviene χ ¯ t (X) − q (t) = [Q (t)] (χt (X) − χt (O)) .

(20.21)

avendo indicato con O la posizione del punto O ∈ E. Operando l’identificazione q (t) = χ ¯ t (O) , e ricordando ¯ (t − τ ) ed F (t − τ ) sono legate dalla la (17.62) si ha che le storie dei gradienti del moto F ¯ (t − τ ) = Q (τ ) F (t − τ ) , F

∀Q (τ ) ∈ Q.

(20.22)

Dal punto di vista del cambiamento di osservatore, χ e χ ¯ possono riguardarsi invece come lo stesso moto osservato da due osservatori galileiani O ed O. La (20.22) discende immediatamente dalla proposizione 227, ¯ (t − τ ) , Q (τ ) F (t − τ ) altro non sono che le storie delle deformazioni dello stesso moto viste osservando che F da due osservatori diversi. 3 Nel

senso specificato sopra. veda a tal proposito la proposizione 231. Si osservi esplicitamente che, come un osservatore Galileiano non deforma i vettori traslazione (nel senso specificato nel capitolo 16), così un piazzamento rigido trasporta i vettori materiali nei corrispondenti vettori spaziali semplicemente attraverso traslazioni e rotazioni. 4 Si

20.1. MODELLAZIONE DELLE PROPRIETÀ MATERIALI.

261

Alla luce delle precedenti considerazioni, siano ¯ t(¯n) e t(n) i vettori delle azioni di contatto relativi ad O ed O. La obiettività della forza (18.32) insieme al teorema di Cauchy porgono ¯ (¯ ¯ t(¯n) = Q (0) t(n) ⇒ T n) = Q (0) T (n) ,

(20.23)

con n ¯ = [Q (0)] (n). Utilizzando la ortogonalità di Q nella forma (13.228) si giunge alla h i ¯ (¯ ¯ − Q (0) TQT (0) (¯ 0=T n) − Q (0) T (n) = T n) ,

(20.24)

da cui, tenendo conto delle (20.15), (20.22) e della arbitrarietà di n ¯ si ottiene la (20.17). Per la corrispondenza mostrata tra osservatori galileiani e piazzamenti rigidi, è giustificata la dizione “rotazione” in riferimento al tensore Q che compare nella (20.17). Il lettore attento avrà notato che i due tensori T ed F hanno diverse leggi di trasformazione per cambiamento di osservatore. Questa circostanza, pienamente giustificata dai ragionamenti precedentemente esposti, può essere ulteriormente precisata notando che F è una applicazione lineare che porta vettori materiali in vettori traslazione, che T invece porta vettori traslazione in vettori traslazione e che un cambiamento di osservatore cambia le coordinate dei soli vettori traslazione. Come si vedrà nel seguito, sarà importante far cambiare le componenti dei vettori materiali quando si vogliano studiare materiali che godano di particolari proprietà di simmetria (si veda la seguente sezione 20.1.3). Teorema di rappresentazione di Noll. Il seguente risultato, dovuto a Noll, fornisce la rappresentazione del funzionale della risposta Ψ che compare nella (20.15) nei termini della decomposizione polare di F quando Ψ sottosta alla condizione di invarianza (20.17). Proposizione 269 Sia F (t − τ ) la storia del gradiente del moto e F (t − τ ) = R (t − τ ) U (t − τ ) ,

τ ∈ [0, ∞) ,

(20.25)

la sua decomposizione polare destra (17.88) nei termini delle storie dei tensori di rotazione finita e deformazione finita R (t − τ ) e U (t − τ ) . Il funzionale Ψ soddisfa la condizione di invarianza (20.17) se e solo se per esso vale la rappresentazione Ψ (F (t − τ )) = R (t) Ψ (U (t − τ )) R (t)T ,

(20.26)

dove la restrizione di Ψ alle storie simmetriche definite positive, Ψ (U (t − τ )) , è arbitraria. Dimostrazione La condizione necessaria si dimostra sostituendo la (20.25) nel primo membro della (20.26) ed utilizzando la condizione (20.17): Ψ (F (t − τ )) = Ψ (R (t − τ ) U (t − τ )) = R (t) Ψ (U (t − τ )) R (t)T ,

(20.27)

essendo R (t − τ ) una rotazione. La condizione sufficiente si dimostra assumendo che Ψ sia data dalla (20.26). Ricordando che la composizione di rotazioni è ancora una rotazione (proposizione 193), il termine Ψ (Q (τ ) F (t − τ )) può esprimersi come T

Ψ (Q (τ ) F (t − τ )) = [Q (0) R (t)] Ψ (U (t − τ )) [Q (0) R (t)] h i T T = Q (0) R (t) Ψ (U (t − τ )) R (t) Q (0) T

= Q (0) Ψ (F (t − τ )) Q (0) ,

(20.28)

essendo la decomposizione polare di Q (τ ) F (t − τ ) data da Q (τ ) F (t − τ ) = [Q (τ ) R (t − τ )] U (t − τ ) .

(20.29)

In virtù del precedente teorema di rappresentazione, si può affermare che Ψ è completamente indipendente dalla storia delle rotazioni R (t − τ ) , τ ∈ [0, ∞), dipendendo unicamente dal loro valore presente R (t) nel modo dettato dalla (20.26). La dipendenza di Ψ dalla storia delle deformazione U (t − τ ) non è invece affetta dalla condizione di invarianza (20.17).

262

CAPITOLO 20. MATERIALI ELASTICI

20.1.3

Il gruppo di simmetria.

La risposta del materiale descritta attraverso Ψ dipende dalla scelta della configurazione di riferimento come esplicitamente si osserva dalla (20.15). In generale, considerando una diversa configurazione di riferimento, a parità di deformazione la risposta del materiale sarà diversa. Molti materiali posseggono tuttavia alcune simmetrie materiali nel senso che esistono particolari cambiamenti di configurazione di riferimento che lasciano inalterata la loro risposta. Si parla in questo caso di configurazioni costitutivamente indistinguibili. La classe di tutte le configurazioni indistinguibili per un corpo materiale ne determina le proprietà di simmetria. Formalizziamo ora il concetto di simmetria materiale. Si consideri il cambiamento di configurazione di riferimento C ∗ → C¯∗ , e siano ¯ = κ (X) ∈ C¯∗ , κ : X ∈C ∗ 7→ X

K (X) = Gradκ (X) ,

(20.30)

rispettivamente l’associato cambiamento di coordinate referenziali ed il suo gradiente. Il funzionale della risposta nel cambiamento di configurazione di riferimento evidentemente gode della seguente proprietà: ¢ ¢ ¡ ¡ ¯ X ¯ P ,t − τ , P ,C¯∗ = Ψ (F (XP ,t − τ ) , P ,C ∗ ) , (20.31) Ψ F ¢ ¡ ¯ X ¯ P ,t − τ ed F (XP ,t − τ ) le storie dei gradienti di deformazione associati rispettivamente a C¯∗ e essendo F ∗ C e relativi allo stesso moto. Dalla regola di derivazione della funzione composta, i due gradienti sono legati nel seguente modo ¡ ¢ ¯ X ¯ P ,t − τ K (XP ) , F (XP ,t − τ ) = F (20.32) per cui si ottiene la legge di trasformazione del funzionale della risposta: ¢ ¢ ¢ ¡ ¡ ¢ ¡ ¡ ¯ X ¯ X ¯ P ,t − τ K (XP ) , P ,C ∗ . ¯ P ,t − τ , P ,C¯∗ = Ψ F Ψ F

(20.33)

Il tensore degli sforzi T (x, t) nella configurazione attuale può ottenersi equivalentemente utilizzando uno dei due membri della (20.33). Consideriamo ora le due configurazioni di riferimento C ∗ e C¯∗ legate da un cambiamento di coordinate come specificato dalla (20.30). Diremo che tali configurazioni sono materialmente isomorfe rispetto alla particella materiale P ∈ B se: ¡ ¢ Ψ (F (t − τ ) , P ,C ∗ ) = Ψ F (t − τ ) , P ,C¯∗ , ∀F (t − τ ) . (20.34)

La condizione di isomorfia materiale5 (20.34) è esprimibile relativamente ad una sola configurazione di riferimento. Utilizzando infatti la legge di trasformazione (20.33) possiamo riscrivere il secondo membro della (20.34) come ¡ ¢ Ψ F (t − τ ) , P ,C¯∗ = Ψ (F (t − τ ) K (XP ) , P ,C ∗ ) , (20.35) da cui la (20.34) può essere riformulata nel seguente modo

Ψ (F (XP ,t − τ ) , P ,C ∗ ) = Ψ (F (XP ,t − τ ) K (XP ) , P ,C ∗ ) ,

(20.36)

nei termini della sola configurazione C ∗ . Il gradiente K del cambiamento di coordinate da C ∗ a C¯∗ è detto un automorfismo materiale di P relativo alla configurazione di riferimento C ∗ . Proposizione 270 L’insieme G di tutti gli automorfismi materiali di P relativi alla configurazione di riferimento C ∗ forma un gruppo6 sotto l’operazione di composizione tra applicazioni lineari. Dimostrazione La (17.50) afferma che ogni elemento K ∈ G è dotato di inverso, per cui occorre dimostrare che G è un sottogruppo delle applicazioni lineari invertibili di Hom aventi determinante positivo7 , essendo costituito dalle applicazioni lineari invertibili che soddisfano la (20.36). Perché G sia un sottogruppo, occorre che esso verifichi le condizioni della proposizione 306 in appendice A.2. Il fatto che G 6= ∅ è ovvio, dovendo contenere almeno l’identità: infatti quando C ∗ ≡ C¯∗ la (20.36) è verificata. Se K, L, sono elementi di G, allora lo è anche KL essendo, dalla (20.36) Ψ (F (XP ,t − τ ) [KL] (XP ) , P ,C ∗ ) = Ψ (F (XP ,t − τ ) K (XP ) , P ,C ∗ ) = Ψ (F (XP ,t − τ ) , P ,C ∗ ) ,

(20.37)

5 Si

dice che tale condizione caratterizza due configurazioni di confronto indistinguibili rispetto a P. veda la sezione A.2 in Appendice A per la definizione della struttura algebrica gruppo. 7 Detto L il gruppo delle applicazioni lineari invertibili, l’insieme 6 Si

{A ∈ Hom : det A > 0} , forma evidentemente un sottogruppo proprio (cfr appendice A.2) di L sotto l’operazione di composizione di applicazioni lineari.

20.1. MODELLAZIONE DELLE PROPRIETÀ MATERIALI.

263

per cui la seconda condizione della proposizione 306 è verificata. Per completare la dimostrazione occorre stabilire che l’inverso K−1 di ogni elemento K ∈¡G è anch’esso un ¢ ¯ P in luogo di elemento G. Ciò deriva immediatamente dalla (20.36) quando si consideri F (XP ,t − τ ) K−1 X F (XP ,t − τ ) nel primo membro della stessa: ¡ ¡ ¢ ¢ ¡ ¡ ¢ ¢ ¯ P , P ,C ∗ = Ψ F (XP ,t − τ ) K−1 X ¯ P K (XP ) , P ,C ∗ Ψ F (XP ,t − τ ) K−1 X (20.38) ∗ = Ψ (F (XP ,t − τ ) , P ,C ) , (20.39) la quale mostra che K−1 è un automorfismo materiale di P relativo a C ∗ , ovvero che K−1 ∈ G. Il gruppo G di cui alla proposizione precedente è detto gruppo di simmetria della particella materiale P relativo alla configurazione di confronto C ∗ . Il risultato stabilito nella seguente proposizione è dovuto ancora a Noll. Esso stabilisce il legame tra i gruppi di simmetria della particella materiale P relativi a due diverse configurazioni di riferimento. Proposizione 271 Regola di Noll. Se G è il gruppo di simmetria relativo alla configurazione di confronto C ∗ , il gruppo di simmetria G¯ relativo alla configurazione di confronto C¯∗ è dato da G¯ = KGK−1 ,

(20.40)

dove K è il gradiente di deformazione associato al cambiamento di configurazione di riferimento C ∗ → C¯∗ . Dimostrazione Si consideri H ∈ G tale che Ψ (F (t − τ ) H, P ,C ∗ ) = Ψ (F (t − τ ) , P ,C ∗ ) , ∀F (t − τ ) invertibile. Ricordando la (20.32), dalla (20.33) si stabilisce la catena di uguaglianze ¡ ¢ ¡ ¢ Ψ F (t − τ ) KHK−1 , P ,C¯∗ = Ψ F (t − τ ) KHK−1 K, P ,C ∗ = Ψ (F (t − τ ) KH, P ,C ∗ ) = Ψ (F (t − τ ) K, P ,C ∗ ) ¡ ¢ = Ψ F (t − τ ) , P ,C¯∗ ,

(20.41)

(20.42)

dalla quale deriva che

¯∗



¯ KGK−1 ⊂ G.

(20.43)

Invertendo poi i ruoli di C e C si stabilisce con procedimento del tutto analogo che ¯ ⊂ G. K−1 GK

(20.44)

Le due inclusioni insieme implicano la (20.40). I risultati di questa sezione si possono riassumere per mezzo della proposizione seguente, detta della condizione di simmetria del materiale. Proposizione 272 Per ogni funzionale di risposta Ψ è possibile trovare un sottogruppo G ⊂ Hom per il quale vale la condizione di invarianza Ψ (F (t − τ )) = Ψ (F (t − τ ) K) ,

∀K ∈ G.

(20.45)

Il gruppo G è detto gruppo di simmetria materiale del funzionale Ψ. Come conseguenza della precedente proposizione, è possibile caratterizzare classi di materiali per mezzo della scelta di un corrispondente gruppo di simmetria materiale.

20.1.4

Caratterizzazione dei fluidi e dei solidi in base al gruppo di simmetria.

La presente sezione sarà dedicata allo studio di particolari gruppi di simmetria ed alla conseguente definizione di alcune classi di materiali. Sia U ni ⊂ Hom, (20.46) l’insieme delle applicazioni lineari definito dalla condizione U ni := {A ∈ Hom : |det A| = 1} .

(20.47)

264

CAPITOLO 20. MATERIALI ELASTICI

Gli elementi di U ni sono detti tensori unimodulari. Tale classe è evidentemente un sottogruppo proprio, che denoteremo con U, del gruppo dei tensori invertibili8 . Considereremo nelle successive applicazioni il suo sottogruppo proprio U + dei tensori unimodulari propri, il cui insieme sottostante è definito da U ni+ := {A ∈ Hom : det A = 1} .

(20.48)

Si noti che per ogni tensore invertibile A definito in uno spazio tridimensionale (tutti i tensori considerati in questo capitolo sono così definiti, salvo esplicita affermazione contraria), vale la decomposizione moltiplicativa in un tensore sferico ed un tensore unimodulare proprio: ³ ´³ ´ 1 1 A = (det A)− 3 A (det A) 3 1I , (20.49) ´ ³ −1 dove (det A) 3 A è unimodulare proprio in quanto, dalla (13.65):

³ ´ 1 det (det A)− 3 A = (det A)−1 det A = 1.

(20.50)

K ∈ G =⇒ det (F (t) K) = det (F (t)) ,

(20.51)

Poiché il tensore degli sforzi assume in generale valori diversi relativamente a configurazioni di confronto aventi densità di massa diversa, discende che al fine di rispettare l’assioma di invarianza (20.45), deve essere

per cui il gruppo di simmetria del materiale deve essere contenuto in U + . Inoltre, dalla equazione di continuità della massa ∗ = (det K) ¯∗ si evince che la densità rimane inalterata se al cambiamento di configurazione di riferimento C ∗ → C¯∗ è associata la trasformazione κ il cui gradiente K appartenga al gruppo U + . Di conseguenza si ha che G ⊂ U + . Se K ∈ U + , per ogni tensore invertibile A si ha, ricordando la (13.66): ¢ ¡ det AKA−1 = det A det K (det A)−1 = 1 ⇒ AKA−1 ∈ U + .

(20.52)

Conseguentemente si ha che:

−1

U + = AU + A

,

∀A invertibile,

(20.53)

cosicché si può concludere che un materiale il cui gruppo di simmetria materiale rispetto ad una configurazione di confronto C ∗ sia l’intero U + , conserva lo stesso come gruppo di simmetria materiale rispetto ad ogni altra configurazione di riferimento, essendo il gradiente di deformazione invertibile per definizione. Un materiale semplice per il quale G ≡ U + è detto da Noll un fluido semplice. In accordo con la nozione intuitiva di fluido, un fluido semplice è dunque un materiale che possiede la massima simmetria materiale e per il quale non esistono configurazioni di confronto preferenziali. Adottando ancora la nomenclatura di Noll, diremo solido semplice un materiale semplice per il quale esiste una configurazione di riferimento C ∗ rispetto alla quale il gruppo di simmetria materiale è contenuto nel gruppo dei tensori ortogonali propri9 , che denoteremo con O+ . Se G è il gruppo di simmetria materiale di un solido semplice si ha: (20.54) G ⊂ O+ . Una configurazione di riferimento per la quale valga la (20.54) è detta configurazione referenziale non distorta. Il gruppo di simmetria più ampio possibile, relativamente ad una configurazione non distorta, è l’intero gruppo O+ . Un solido semplice per il quale G ≡ O+ è detto isotropo, mentre è detto anisotropo se G è un sottogruppo proprio di O+ . Un solido isotropo non possiede direzioni preferenziali nel senso che la sua risposta relativamente ad una configurazione di confronto non distorta rimane inalterata per una rotazione arbitraria di quest’ultima. Una configurazione di riferimento non distorta nella quale lo sforzo è rappresentato dal tensore nullo è detta stato naturale per il solido. La risposta del materiale solido isotropo è data nei termini di un funzionale di risposta Ψ per il quale gli assiomi di obiettività (20.17) ed invarianza del materiale 8 Le

due proprietà stabilite nella proposizione 307 sono infatti verificate essendo:

• banalmente U ni 6= ∅;

• ∀A, B ∈ Uni : AB−1 ∈ U ni in quanto dalla (13.66)        det AB−1  = det A det B−1  = det A (det B)−1  = 1.

9 Si verifica facilmente, utilizzando il risultato della proposizione 307, che l’insieme Ort+ dei tensori ortogonali propri (cfr. sezione 13.10), dotato dell’operazione di composizione fra applicazioni lineari, è un sottogruppo proprio di U + .

20.2. ELASTICITÀ FINITA PER I SOLIDI.

265

(20.45) rispetto ad una configurazione di riferimento C ∗ non distorta e relativamente alla particella materiale P si scrivono come Ψ (Q (τ ) F (XP , t − τ ) , P, C ∗ ) = Q (0) Ψ (F (XP , t − τ ) , P, C ∗ ) QT (0) , Ψ (F (XP , t − τ ) , P, C ∗ ) = Ψ (F (XP , t − τ ) K (XP ) , P, C ∗ ) ,

(20.55) (20.56)

∀Q (τ ) ∈ Q, ∀K ∈ O+ .

20.2

Elasticità finita per i solidi.

In meccanica elementare, l’equazione costitutiva di una molla elastica lega la forza f (t) da essa esercitata all’istante t sul mondo esterno al suo cambiamento di lunghezza ∆L (t): f (t) = ϕ (∆L (t)) .

(20.57)

Il funzionale di risposta ϕ è indipendente dalla storia passata del moto ed in particolare dalla velocità d (∆L (t)) /dt. Per un corpo modellato come continuo tridimensionale, il gradiente di deformazione F misura localmente i cambiamenti di lunghezza, per cui appare naturale definire un corpo elastico come un corpo costituito da un materiale la cui risposta all’istante t nel punto xP = χt (XP ) sia completamente determinata quando sia noto il gradiente di deformazione in XP allo stesso istante. Formalmente possiamo quindi caratterizzare un corpo elastico B specializzando la (20.15) come: T(x, t) = Υ (F (XP , t) , P, C ∗ ) ,

(20.58)

Υ :Hom+ × B → Sym,

(20.59)

dove il funzionale della risposta non dipende dalla storia passata della deformazione ma dal suo valore attuale nel posto XP . Nella precedente, si è indicato con Hom+ l’insieme delle applicazioni lineari a determinante positivo. Quando ciò non sarà fonte di confusione, si ometterà la dipendenza da P e C ∗ . L’assioma di obiettività (20.17) si riscrive nella forma Υ (QF) = QΥ (F) QT ,

∀Q ∈ O+ ,

(20.60)

in quanto con la assunzione di indipendenza dalla storia passata, l’insieme Q delle storie delle rotazioni coincide con il gruppo O+ dei tensori ortogonali propri. Dal teorema di rappresentazione di Noll (proposizione 269), la (20.60) è equivalente alla (20.26) nella forma: Υ (F) = RΥ (U) RT ,

(20.61)

dove F = RU è la decomposizione polare destra del gradiente di deformazione. L’assioma di obiettività detta quindi la forma della dipendenza del funzionale della risposta elastica Υ dalle rotazioni R, mentre la sua restrizione Υ (U) ai tensori simmetrici definiti positivi rimane arbitraria. Immediata conseguenza del teorema di rappresentazione di Noll è la seguente: b Υ, Υ e tali che Proposizione 273 Esistono i funzionali della risposta Υ, b (U) FT , Υ (F) = FΥ e (C) RT , Υ (F) = RΥ T

Υ (F) = FΥ (C) F ,

(20.62) (20.63) (20.64)

dove C = U2 = FT F è il tensore destro di Cauchy Green (cfr. sezione 17.7.1). Dimostrazione Le ((20.62), (20.63), (20.64)) si ottengono banalmente sostituendo nella (20.61) i fune definiti come b Υ, Υ zionali Υ, b (U) := U−1 Υ (U) U−1 , Υ ¢ ¡ e (C) := Υ C1/2 , (20.65) Υ ¡ 1/2 ¢ b C Υ (C) := Υ .

266

CAPITOLO 20. MATERIALI ELASTICI

La condizione di simmetria materiale (20.56) riscritta nella forma Ψ (F) = Ψ (FQ) ,

∀Q ∈ G,

(20.66)

caratterizza un solido elastico isotropo nel caso in cui il gruppo di simmetria materiale G coincida con O+ , ed un solido elastico anisotropo quando il gruppo di simmetria G è un sottogruppo proprio di O+ . Si noti che si è utilizzato lo stesso simbolo, Q, per indicare gli automorfismi del materiale appartenenti al gruppo di simmetria (denotati con K nella (20.56)) e le rotazioni che compaiono nell’assioma di obiettività (20.60). Tale identificazione è lecita in quanto, come precedentemente notato, considerando un materiale la cui risposta è indipendente dalla storia della deformazione, i due oggetti appartengono allo stesso insieme, nella fattispecie quello dei tensori ortogonali propri. Nella rimanente parte di questa sezione considereremo, salvo contraria specificazione, solidi isotropi per i quali la condizione di invarianza del materiale si scrive come: Ψ (F) = Ψ (FQ) ,

∀Q ∈ O+ .

(20.67)

Una funzione scalare γ : Hom → IR,

(20.68)

è detta isotropa se è invariante sotto Ort, ovvero se ´ ³ ∀A ∈ Hom, ∀Q ∈ Ort : γ (A) = γ QAQT .

(20.69)

G : Hom → Hom,

(20.70)

³ ´ ∀A ∈ Hom, ∀Q ∈ Ort : QG (A) QT = G QAQT .

(20.71)

Analogamente,una funzione a valori tensoriali

è detta isotropa se

Proposizione 274 Sia g una funzione a valori scalari o tensoriali il cui dominio è Hom. Allora g è isotropa se è invariante sotto O+ , il gruppo dei tensori ortogonali propri, cioè se la (20.69) oppure la (20.71) sono verificate ∀Q ∈ O+ . Dimostrazione La dimostrazione discende immediatamente dall’identità (−Q) A (−Q)T = QAQT ,

(20.72)

e dalla considerazione che se Q ∈ Ort, allora Q o −Q appartiene ad Ort+ . Con la seguente proposizione, si stabilisce che gli invarianti principali di un tensore doppio, riguardati come funzioni scalari, sono funzioni isotrope. Dato un tensore A ∈ Hom, denoteremo con ½ ¾ i 1h (20.73) IA = IA = Tr A, IIA = (Tr A)2 − Tr A2 , IIIA = det A , 2 la lista dei suoi invarianti principali. Proposizione 275 Sia A ∈ Hom e Q ∈ Ort. La lista degli invarianti principali di A è isotropa: IA = IQAQT . Dimostrazione L’isotropia di Tr si stabilisce attraverso la seguente catena di uguaglianze: ³ ´ ¢ ¡ Tr QAQT = Tr QT QA = Tr A, ∀Q ∈ Ort,

avendo fatto uso della (13.89). Utilizzando poi la (13.66) si stabilisce l’isotropia di det: ³ ´ det QAQT = det Q det A det QT = det A, ∀Q ∈ Ort.

(20.74)

(20.75)

(20.76)

Per stabilire l’isotropia del secondo invariante occorre dimostrare che Tr A2 è isotropa, essendo l’isotropia di Tr A ovviamente ereditata da (Tr A)2 . Scelti A ∈ Hom e Q ∈ Ort si ha ´2 ³ (20.77) QAQT = QAQT QAQT = QA2 QT ,

20.2. ELASTICITÀ FINITA PER I SOLIDI. per cui

267

³ ´2 ¡ ¢ Tr QAQT = Tr QA2 QT = Tr A2 .

(20.78)

Con la proposizione successiva si dimostra che la (20.60), la quale stabilisce l’invarianza sotto cambiamenti di riferimento galileiani, insieme alla condizione di simmetria del materiale specificato (20.67) implicano che il funzionale di risposta Υ è isotropo. L’importanza di caratterizzare Υ in questo modo risiede nel fatto che per le funzioni isotrope esistono teoremi di rappresentazione attraverso i quali è possibile esplicitarne la dipendenza dai loro argomenti, che nella fattispecie qui considerata si traduce nella assegnazione del legame tra gli sforzi e le deformazioni. e sono funzioni isotrope. In particolare, ∀F ∈ Hom+ , Proposizione 276 I funzionali della risposta Υ, Υ Q ∈ Ort+ , C ∈ Sym: ³ ´ QΥ (F) QT = Υ QFQT , ´ ³ (20.79) e (C) QT = Υ e QCQT . QΥ

Dimostrazione Come stabilito nella proposizione 274, è lecito considerare l’invarianza sotto Ort+ . Sia dunque Q ∈ Ort+ . Allora QT ∈ Ort+ e dalla (20.67) si ha ³ ´ Υ (QF) = Υ QFQT , ∀Q ∈ Ort+ , (20.80) dalla quale, utilizzando la (20.60), si ottiene la (20.79)1 . Per dimostrare la (20.79)2 , si scelga C ∈ Sym e sia U la sua radice quadrata (cfr. proposizione 182). Dalla (20.61) il primo membro della (20.79)1 può essere riscritto come QΥ (F) QT = QRΥ (U) RT QT .

(20.81)

Tenendo presente che QR è un tensore ortogonale proprio (proposizione 193) e dalla isotropia di Υ precedentemente stabilita si ha: ³ ´ QRΥ (U) RT QT = Υ QRURT QT , (20.82)

dalla quale, utilizzando la definizione (20.65)2 :

³ ´ e (C) Q ¯Υ ¯ T = Υ QU ¯ Q ¯T , Q

¯ ∈ Ort+ , ∀Q

(20.83)

¯ = QR. ovvero la (20.79)2 , avendo introdotto Q b e Υ introdotti nella proposizione 273. Si lascia al lettore la dimostrazione dell’isotropia di Υ

Sia V il tensore sinistro di deformazione finita, legato alla decomposizione polare sinistra di F = VR. In virtù della (13.294), proposizione 198, esso è legato ad U dalla relazione: V = RURT .

(20.84)

Analogamente, sia B = FFT = V2 il tensore sinistro di Cauchy-Green, legato a C dalla relazione B = RCRT ,

(20.85)

dove R ∈ Ort+ è la corrispondente rotazione finita. Di conseguenza, per un materiale isotropo, le ((20.61), (20.79)) porgono le seguenti rappresentazioni di Υ: ³ ´ Υ (F) = RΥ (U) RT = Υ RURT = Υ (V) , ³ ´ (20.86) e (C) RT = Υ e RCRT = Υ e (B) , Υ (F) = RΥ per cui l’equazione costitutiva (20.58) può riscriversi come

T(x, t) = Υ (V (XP , t) , P ) , e (B (XP , t) , P ) , T(x, t) = Υ

(20.87)

e sono funzioni isotrope a valori tensoriali. Per tale classe di funzioni esiste il teorema di rappredove Υ e Υ sentazione di Rivlin ed Ericksen (cfr. [32]), la dimostrazione del quale necessita alcuni risultati preliminari.

268

CAPITOLO 20. MATERIALI ELASTICI

Proposizione 277 Sia G : Sym → Hom,

(20.88)

una funzione isotropa. Allora ogni autovettore di S ∈ Sym è un autovettore di G (S) . Dimostrazione Sia consideri S ∈ Sym e sia v un suo autovettore. Sia poi P ∈ Sym la riflessione attraverso il piano perpendicolare a v : P (v) = −v, P (w) = w se w · v = 0.

(20.89)

La precedente implica che gli autovettori di S sono invarianti sotto P: essi costituiscono infatti una base ortonormale di V (cfr. proposizione 117), e quindi w risulta essere esso stesso un autovettore per S. Poiché P non altera gli autospazi di S, in virtù del teorema di commutazione (proposizione 199), S commuta con P: S = PSPT .

(20.90)

³ ´ PG (S) PT = G PSPT = G (S) ,

(20.91)

P [G (S)] (v) = G (S) P (v) = − [G (S)] (v) ,

(20.92)

Essendo G isotropa la precedente implica:

per cui P commuta con G (S) . Ne segue che

la quale mostra che P trasforma [G (S)] (v) in − [G (S)] (v) . Ma la (20.89) asserisce che ciò è vero solo se [G (S)] (v) è parallelo a v : [G (S)] (v) = λv, (20.93) dalla quale discende che v è un autovettore di G (S) . Proposizione 278 (Lemma di Wang). Sia S ∈ Sym (V, V) . Si consideri la sua rappresentazione spettrale (cfr la (13.175)): X S= λj (ej ⊗ ej ) , (20.94) j

dove (e1 , e2 , e3 ) è la base ortonormale di V costituita dagli autovettori di S (cfr. sezione 13.8 e proposizione 117). © ª 1. Si assuma che gli autovalori (λj , j = 1, 2, 3) siano distinti. Allora l’insieme 1I, S, S2 è linearmente indipendente e ¡ ¢ span 1I, S, S2 = span (e1 ⊗ e1 , e2 ⊗ e2 , e3 ⊗ e3 ) , (20.95) © ª ovvero si ha che le basi 1I, S, S2 , (e1 ⊗ e1 , e2 ⊗ e2 , e3 ⊗ e3 ) generano lo stesso sottospazio (cfr. la sezione 1.4) di Hom. 2. Si assuma che S possegga esattamente due autovalori distinti, cosicché S = λ1 1I + (λ2 − λ1 ) (e ⊗ e) ,

λ2 6= λ1 .

(20.96)

Allora {1I, S} è linearmente indipendente e span (1I, S) = span (1I, e ⊗ e) .

(20.97)

Dimostrazione © ª 1. Per stabilire l’indipendenza lineare di 1I, S, S2 occorre dimostrare che (si veda la (1.33)): α1I + βS + γS2 = 0 ⇒ α = β = γ = 0, α, β, γ ∈ IR.

Considerando l’autovettore ej e sostituendo nella precedente si ottiene ¢ ¡ α + βλj + γλ2j ej = 0,

(20.98)

(20.99)

20.2. ELASTICITÀ FINITA PER I SOLIDI.

269

la quale implica α + βλj + γλ2j = 0 essendo ej = 6 0. I tre autovalori λj sono radici di una equazione © ª quadratica; pertanto essi sono distinti soltanto se α = β = γ = 0. Quindi 1I, S, S2 è linearmente indipendente. Si consideri ora il sottospazio di Hom di dimensione 3 :

H = span (e1 ⊗ e1 , e2 ⊗ e2 , e3 ⊗ e3 ) . Essendo S2 =

X λ2j (ej ⊗ ej ) ,

(20.100) (20.101)

j

ª © ne deriva che 1I, S, S2 ∈ H, in quanto essi sono esprimibili come combinazione lineare dei generatori di H. Tuttavia tre vettori linearmente indipendenti nello spazio H di dimensione 3 devono necessariamente essere una base di H (cfr. proposizione 19), per cui ¢ ¡ (20.102) H = span 1I, S, S2 , e la dimostrazione del punto (1) è completa.

2. Nell’ipotesi che S possegga due autovalori distinti, la rappresentazione spettrale porge S = λ1 (e1 ⊗ e1 ) + λ2 (e ⊗ e) + λ1 (e3 ⊗ e3 ) ,

(20.103)

dove, senza ledere la generalità della trattazione, si è identificato e2 con l’autovettore e di molteplicità 1. Utilizzando ancora la (13.4) si ha S = λ1 (e1 ⊗ e1 + e3 ⊗ e3 ) + λ2 (e ⊗ e) = = λ1 1I + (λ2 − λ1 ) (e ⊗ e) .

(20.104)

L’indipendenza lineare di {1I, S} si stabilisce facendo operare la combinazione lineare a coefficienti reali posta uguale a 0: α1I + βS = 0, (20.105) sugli autovettori di S. Ricordando che essi sono ortonormali si ha [α1I + βS] (ej ) = (α + βλ1 ) ej = 0, j = 1, 3, [α1I + βS] (e) = (α + βλ1 + β (λ2 − λ1 )) e = 0, le quali forniscono il sistema omogeneo di due equazioni in due incognite per (α, β) : ½ α + βλ1 = 0 , α + βλ2 = 0

(20.106)

(20.107)

al quale è associata la matrice dei coefficienti ¶ µ 1 λ1 , A= 1 λ2

(20.108)

a determinante det A = (λ2 − λ1 ) 6= 0, essendo λ2 6= λ1 . In virtù del teorema di Cramer (proposizione 66) il sistema ammette solo la soluzione banale α = β = 0, per cui l’indipendenza lineare di (1I, S) è dimostrata. Si consideri ora il sottospazio bidimensionale di Hom H = span (1I, e ⊗ e) .

(20.109)

Dalla (20.104) si ha banalmente che {1I, S} appartengono ad H, da cui, essendo essi linearmente indipendenti e ricordando ancora la proposizione 19: H = span (1I, S) , il che completa la dimostrazione. Dimostriamo ora il teorema di rappresentazione per le funzioni isotrope scalari.

(20.110)

270

CAPITOLO 20. MATERIALI ELASTICI

Proposizione 279 Una funzione ϕ : A ∈ Sym 7→ ϕ (A) ∈ IR,

(20.111)

è isotropa se e solo se esiste una funzione ϕ ˜ : IA → IR tale che ϕ (A) = ϕ ˜ (IA ) ,

∀A ∈ Sym.

(20.112)

Dimostrazione Si assuma che ϕ sia una funzione scalare isotropa. Per stabilire la necessità della (20.112) occorre dimostrare che la ϕ dipende solo dagli invarianti principali del suo argomento, ovvero che dati i due tensori simmetrici A e B: IA = IB ⇒ ϕ (A) = ϕ (B) . (20.113)

Assumendo che A e B abbiano gli stessi invarianti principali, dalla (13.138) discende che ad essi è associata la stessa equazione caratteristica, ovvero gli stessi autovalori. Essendo inoltre simmetrici, possiamo considerare le due basi ortonormali E = (e1 , e2 , e3 ) , F = (f1 , f2 , f3 ) costituite rispettivamente dagli autovettori di A e B e le rappresentazioni spettrali (cfr. (13.175)): X X A= λj (ej ⊗ ej ) , B = λj (fj ⊗ fj ) . (20.114) j

j

Sia poi Q il tensore ortogonale che trasforma i vettori della base F nei vettori della base E: Q (fj ) = ej ,

j = 1, 2, 3.

(20.115)

Dalla identità (cfr proposizione 160): Q (fj ⊗ fj ) QT = Q (fj ) ⊗ Q (fj ) , si ha A=

X X λj (ej ⊗ ej ) = λj (Q (fj ) ⊗ Q (fj )) = QBQT , j

(20.116) (20.117)

j

dalla quale, usando la isotropia di ϕ (definizione (20.69)) discende ⎧ ³ ´ ⎨ ϕ QBQT = ϕ (B) ³ ´ ⇒ ϕ (A) = ϕ (B) , ⎩ ϕ QBQT = ϕ (A)

(20.118)

la quale implica che ϕ ammette la rappresentazione (20.112). Il carattere sufficiente, ovvero che (20.112) definisce una funzione isotropa, è una banale conseguenza della (20.74).

Abbiamo ora tutti gli strumenti per dimostrare il teorema di rappresentazione delle funzioni isotrope a valori tensoriali, dovuto a Rivlin ed Ericksen. Proposizione 280 Una funzione Υ : V ∈ Sym 7→ Υ (V) ∈ Sym,

(20.119)

υ0 , υ1 , υ2 : IV → IR,

(20.120)

è isotropa se e solo se esistono tre funzioni scalari

tali che Υ (V) = υ 0 1I + υ 1 V + υ2 V2 ,

∀V ∈ Sym.

(20.121)

Dimostrazione Dimostriamo l’implicazione diretta. Assumendo dunque che Υ sia isotropa, la proposizione 277 ci permette di affermare che Υ (V) ha gli stessi autovettori dell’argomento V. Ricordando che V, in quanto tensore simmetrico, possiede tre autovettori linearmente indipendenti (cfr. proposizione 117), distinguiamo tre casi possibili. 1. V possiede tre autovalori coincidenti, per cui dalla rappresentazione spettrale (13.175) e dalla (13.4) si ha V = α1I, α ∈ IR. (20.122)

Poichè V è sferico, l’autospazio relativo ad α coincide con V (cfr sezione 13.13) il quale, dalla proposizione (277), è anche l’autospazio di Υ (V) . Ciò implica che Υ (V) deve essere a sua volta sferico, onde la (20.121) con υ1 = υ 2 = 0 : Υ (V) = υ 0 1I. (20.123)

20.2. ELASTICITÀ FINITA PER I SOLIDI.

271

2. V possiede due autovalori distinti α, β, cosicché (cfr. la (20.96)) V = α1I + (β − α) (e ⊗ e) ,

(20.124)

con (β − α) 6= 0 essendo β 6= α. In questo caso dalla dimostrazione della proposizione (277) si deduce anche che Υ (V) ha al più due autovalori distinti corrispondenti ai due autospazi di V, da cui Υ (V) = υ0 1I + υ1 V,

(20.125)

avendo utilizzato il lemma di Wang (proposizione 278), il quale afferma che le basi (1I,V) e (1I,e3 ⊗ e3 ) sono equivalenti nel senso che esse generano lo stesso sottospazio di Sym. 3. V possiede tre autovalori distinti α, β, γ. La decomposizione spettrale di V in questo caso è data da V = α (e1 ⊗ e1 ) + β (e2 ⊗ e2 ) + γ (e3 ⊗ e3 ) ,

(20.126)

e la proposizione (277) afferma che (e1 , e2 , e3 ) è anche una base principale di Υ (V) , il quale, utilizzando ancora il lemma di Wang (proposizione 278) si rappresenta come Υ (V) = υ 0 1I + υ 1 V + υ 2 V2 ,

(20.127)

¢ ¡ essendo gli spazi tensoriali generati da (e1 ⊗ e1 , e2 ⊗ e2 , e3 ⊗ e3 ) ed 1I,V, V2 equivalenti.

Per completare la dimostrazione occorre stabilire che gli scalari υ0 , υ1 , υ2 sono funzioni isotrope degli invarianti principali V; tenendo presente il teorema di rappresentazione delle funzioni scalari isotrope (proposizione 279) è sufficiente stabilire che ³ ´ υ i (V) = υ i QVQT , i = 0, 1, 2. (20.128) Le identità

³ ´2 Q1IQT = 1I, QV2 QT = QVQT QVQT = QVQT ,

insieme alla definizione di isotropia (20.71) nella forma ³ ´ QΥ (V) QT − Υ QVQT = 0,

∀Q ∈ Ort,

(20.129)

(20.130)

implicano ³ ´i h ³ ´i h ³ ´i h (20.131) υ 0 (V) − υ 0 QVQT 1I + υ 1 (V) − υ 1 QVQT V + υ2 (V) − υ2 QVQT V2 = 0, ¢ ¡ ovvero la (20.128) in forza della indipendenza lineare di 1I, V, V2 stabilita al punto (1) della proposizione 278. La sufficienza si dimostra assumendo che per Υ valga la rappresentazione (20.121), e constatando che dalla catena di uguaglianze: ³ ´ ¡ ¢ ¡ ¢ ¡ ¢ Υ QVQT = υ0 IQVQT 1I+υ 1 IQVQT QVQT + υ 2 IQVQT QVQT QVQT = υ0 (IV ) Q1IQT +υ 1 (IV ) QVQT + υ 2 (IV ) QV2 QT = QΥ (V) QT ,

(20.132)

si ottiene l’isotropia di Υ (V) (cfr. la definizione (20.71)). Usando il teorema di Cailey-Hamilton (proposizione 176) si ha V2 = (Tr V) V − (IIV ) 1I + (det V) V−1 ,

(20.133)

purché ovviamente V sia invertibile. Dalla precedente equazione si ottiene il seguente corollario del teorema di Rivlin ed Ericksen, detto secondo teorema di rappresentazione per le funzioni isotrope a valori tensoriali: Proposizione 281 Sia Sym+ l’insieme dei tensori simmetrici invertibili. Allora una funzione Υ : Sym+ → Sym,

(20.134)

è isotropa se e solo se esistono tre funzioni scalari γ 0 , γ 1 , γ 2 : IV → IR,

(20.135)

tali che Υ (V) = γ 0 1I + γ 1 V + γ 2 V−1 ,

∀V ∈ Sym+ .

(20.136)

272

CAPITOLO 20. MATERIALI ELASTICI

La lista completa delle equazioni di campo che valgono per un solido elastico, relativamente ad una sua configurazione non distorta, quando esso sia soggetto a deformazioni finite e quando sia valido un legame sforzi-deformazioni nonlineare è quindi composta da: • l’equazione costitutiva

T (xP ,t) = FΥ (C (XP ,t) , P ) FT ,

C = FT F,

(20.137)

la quale, nel caso il solido sia isotropo, ammette le quattro rappresentazioni equivalenti T = α0 (IB ) 1I + α1 (IB ) B + α2 (IB ) B2 ,

B = FFT ,

T = β 0 (IB ) 1I + β 1 (IB ) B + β 2 (IB ) B2 , T = υ 0 (IV ) 1I + υ 1 (IV ) V + υ 2 (IV ) V2 ,

1

(20.138)

V = B2 ,

T = γ 0 (IV ) 1I + γ 1 (IV ) V + γ 2 (IV ) V−1 , dove αi , β i υ i , γ i , (i = 0, 1, 2) , sono funzioni isotrope degli invarianti principali; • l’equazione di equilibrio indefinita la quale, rispetto ad un osservatore inerziale, si scrive come:

• il bilancio della massa:

(b − a) + divT = 0;

(20.139)

= det F,

(20.140)

0

dove 0 è la densità di massa nella configurazione di riferimento e attuale Ct = χt (C ∗ ) , con F =Gradχt .

è la massa nella configurazione

Diremo che il solido è omogeneo se la densità 0 (XP ) e la risposta Υ (F (XP ,t) , P ) sono indipendenti dalla particella materiale. In questo caso ciascuno dei funzionali di risposta precedentemente discussi ed il gruppo di isotropia del materiale sono indipendenti da P. Se un solido elastico omogeneo è sottoposto alla deformazione omogenea χt (XP ) = χt (XO ) + F (XP − XO ) ,

(20.141)

con F costante, il corrispondente sforzo T = Υ (F) è di conseguenza costante e soddisfa l’equazione di equilibrio indefinito divT = 0, (20.142) per cui il processo dinamico (χt , T) è una soluzione del sistema di equazioni ((20.137), (20.139), (20.140)) con b = 0. Si può quindi suggestivamente caratterizzare un corpo omogeneo dicendo che esso è in grado di deformarsi in modo omogeneo in assenza di forze di massa. Utilizzando i risultati stabiliti nel Capitolo 19 intorno ai tensori di Piola-Kirchhoff, nei termini dei quali si scrivono le equazioni di campo in forma lagrangiana, vogliamo ora derivare le equazioni costitutive per questi ultimi a partire dalla risposta del materiale data come valore assunto dal tensore di Cauchy. Per un materiale elastico, la (20.58) e la definizione (19.61) consentono di scrivere la risposta del materiale nei termini del valore assunto dal primo tensore di Piola-Kirchhoff come: P (XP , t) = Λ (F (XP , t) , P, C ∗ ) ,

(20.143)

Λ (F) = (det F) Υ (F) F−T .

(20.144)

con Deriviamo ora la condizione di obiettività. Scelto Q ∈ Ort+ , dalle proprietà dei tensori ortogonali (cfr. sezione 13.10) si ha immediatamente: det (QF) = det F,

−T

(QF)

¡ ¢−1 = FT QT = QF−T ,

(20.145)

per cui la condizione di invarianza per cambiamento di osservatore galileiano (20.60) insieme alla (20.144) implicano la catena di uguaglianze seguente: Λ (QF) = (det (QF)) Υ (QF) [QF]−T = (det F) QΥ (F) QT QF−T = = (det F) QΥ (F) F−T = QΛ (F) ,

(20.146)

20.2. ELASTICITÀ FINITA PER I SOLIDI.

273

per cui la relazione ∀F ∈ Hom+ , Q ∈ Ort+ ,

Λ (QF) = QΛ (F) ,

(20.147)

dove, come in precedenza, il simbolo “+” posto ad apice indica che si considera il sottospazio omonimo costituito dagli elementi aventi determinante positivo. La (20.147) è la ricercata condizione di obiettività per l’equazione costitutiva elastica per il primo tensore di Piola-Kirchhoff. Al fine di ottenere una rappresentazione dell’equazione costitutiva per P analoga alla (20.64), si utilizza la (20.144) per ottenere: P = Λ (F) = (det F) Υ (F) F−T = (det F) FΥ (C) . (20.148) Definiamo ora Λ (C) :=

√ det CΥ (C) ,

(20.149)

nei termini del tensore destro di Cauchy Green (cfr. sezione 17.7.1). Utilizzando la relazione (si ricordi le (13.66), (13.90)): ¡ ¢ 2 det C = det FT F = (det F) , (20.150) l’equazione costitutiva per il primo tensore di Piola-Kirchhoff nei termini del funzionale della risposta Λ si scrive come (20.151) P = FΛ (C) .

Ricordando che il secondo tensore di Piola-Kirchhoff, definito dalla (19.59), è legato a P dalla relazione S = F−1 P, ne discende che il funzionale della risposta Λ è a valori in Sym, e che l’equazione costitutiva elastica per il secondo Piola-Kirchhoff è data da S = Λ (C) .

(20.152)

Il sistema completo delle equazioni di campo in forma lagrangiana è dato da: • l’equazione costitutiva

P = FΛ (C) ,

(20.153)

con C = FT F ed F =Gradχt ; • l’equazione indefinita di equilibrio (cfr. sezione 19.4.2): 0

(bM − u ¨) + DivP = 0,

(20.154)

mentre il bilancio dei momenti in forma lagrangiana (equazione (19.75)) è automaticamente soddisfatto per il fatto che Λ è a valori in Sym. Si noti che poiché la densità compare solo attraverso il suo valore referenziale 0 , che è una funzione assegnata, il bilancio della massa non deve essere incluso nel sistema di equazioni. Il vantaggio di considerare il sistema di equazioni di campo in forma lagrangiana risiede nel fatto che il dominio di definizione dei campi coinvolti è la configurazione di confronto, la cui geometria è nota a priori. Risolvere il problema in forma euleriana risulta impossibile quando le traiettorie, ovvero i domini di definizione dei campi spaziali, non sono note a priori. Notiamo esplicitamente che l’isotropia di Υ implica l’isotropia di Λ. Dalla definizione (20.144) ed usando la (20.79)1 si ha infatti: ´ ³ ´h i−T ³ = Λ QFQT = J Υ QFQT QFQT

= J QΥ (F) QT QF−T QT = J QΥ (F) F−T QT = = QΛ (F) QT ,

essendo

h

QFQT

i−T

h i−1 = QFT QT = QF−T QT .

per cui la funzione a valori tensoriali Λ soddisfa la (20.71).

(20.155)

(20.156)

274

CAPITOLO 20. MATERIALI ELASTICI

20.3

Elasticità lineare.

20.3.1

Linearizzazione delle equazioni costitutive.

La teoria dell’elasticità lineare consiste nello studio dell’equazione costitutiva P (XP , t) = Λ (F (XP , t) , P, C ∗ ) ,

(20.157)

in un intorno di F = 1I. Assumeremo, nelle successive derivazioni, che la configurazione di confronto che compare nella precedente sia uno stato naturale (cfr. la sezione 20.1.4) per il solido isotropo oggetto dello studio, ovvero che lo sforzo residuo sia nullo in corrispondenza di tale stato del sistema: Λ (1I,P, C ∗ ) = Λ (1I,P, C ∗ ) = Υ (1I,P, C ∗ ) = 0.

(20.158)

Al fine di studiare il comportamento dell’equazione costitutiva elastica per il primo Piola-Kirchhoff intorno ad F = 1I, in analogia a quanto fatto nello studio della cinematica linearizzata, introduciamo il parametro ¡ ¢ adimensionale di piccolezza η. Commettendo un errore di O η 2 , tutti i campi cinematici coinvolti possano esprimersi come funzioni affini di η dove, in particolare, il campo degli spostamenti è una funzione lineare di η: u (X, t) = η¯ u (X, t) , (20.159) ¯ =Grad¯ con la forma data da u ¯ (X, t) e l’ampiezza modulata da η. Detto H u, per piccole deformazioni il ¯ e la linearizzazione del suo gradiente del trasporto χt (X) = X + u (X, t) si esprime come F = 1I + η H determinante è data da (si veda la (17.138) per i dettagli): ¡ ¢ ¯ + O η2 . det F = 1 + η Tr H (20.160)

Assumendo che la funzione Λ (F) sia sufficientemente regolare intorno ad F = 1I, il suo sviluppo in serie di Taylor centrato in 1I porge: ¯ ¡ ¢ ¢¯ ¡ ¢¯ d ¡ ¯ ¯ ¯ + O η2 , (20.161) Λ 1I + ηH ¯¯ Λ (F) = Λ 1I + η H η=0 + η dη η=0

da cui, in virtù della assunzione (20.158) sulla nullità dello sforzo residuo si ha ¯ ¡ ¢ ¢¯ d ¡ ¯ ¯ + O η2 . Λ 1I + η H Λ (F) = Λ (1I) + η ¯ dη η=0

(20.162)

Il comportamento della equazione costitutiva (20.157) vicino ad F = 1I è quindi governato dalla applicazione lineare (unica, cfr. sezione 14.3): C : Hom → Hom, (20.163) detta tensore di elasticità e definita da ¯ ¢¯ d ¡ ¯ C (H) := , Λ 1I + ηH ¯¯ dη η=0

¯ H = ηH.

(20.164)

Diamo ora una prima caratterizzazione del tensore di elasticità. Proposizione 282 L’applicazione lineare C è un tensore di ordine totale 4 (per la definizione di ordine totale si consulti il Capitolo 12). Dimostrazione Dalla definizione (20.163), l’applicazione C appartiene allo spazio Hom [Hom (V, V) , Hom (V, V)] ,

(20.165)

delle applicazioni lineari che trasformano lo spazio Hom in se. Dalla proposizione 146 del Capitolo 11 si ha tuttavia che Hom (V, V) è isomorfo allo spazio dei tensori di ordine totale 2, denotato con T2 (V) , per cui è lecito scrivere £ ¤ C ∈Hom T2 (V) , T2 (V) . (20.166) £ ¤ Ponendo poi p = q = p¯ = 2, q¯ = 0, nelle proposizioni (144, 145) discende che lo spazio Hom T2 (V) , T2 (V) è isomorfo allo spazio T22 (V) , a sua volta isomorfo a T4 (V) in quanto V è dotato di prodotto scalare (cfr. Capitolo 12).

20.3. ELASTICITÀ LINEARE.

275

Nella base prodotto

© j ª e ⊗ ej ⊗ eh ⊗ ek , i, j, h, k = 1, 2, 3, (20.167) ¡ 1 2 3¢ di T4 (V) , generata dalla base ortonormale e , e , e di V, il tensore di elasticità si rappresenta come C = Cijhk ej ⊗ ej ⊗ eh ⊗ ek ,

(20.168)

nei termini delle sue 34 = 81 componenti (cfr. proposizione 132). Dimostriamo ora che, se lo sforzo residuo è nullo, il tensore di elasticità si può definire nei termini di Υ. Proposizione 283 La assunzione della (20.158) implica che il tensore di elasticità possa definirsi nei modi equivalenti: ¯ ¢¯ d ¡ ¯ , (20.169) C (H) := Υ 1I + ηH ¯¯ dη η=0 ¯ ¢¯ d ¡ ¯ ¯ Λ 1I + 2η E , (20.170) C (H) := ¯ dη η=0

¯ è il tensore delle piccole deformazioni (cfr la (17.123)). dove E = η E

Dimostrazione Dalla (20.144) nella forma Λ (F) FT = (det F) Υ (F) , differenziando entrambi i membri e utilizzando la regola di derivazione del prodotto e la (20.160) si ha: ¯ ¯ ¢¡ ¢T i¯ ¡ ¢¢ ¡ ¢¤¯ d h ¡ d £¡ ¯ ¯ ¯ ¯ ¯ = ; (20.171) Λ 1I + ηH 1I + η H det 1I + η H Υ 1I + ηH ¯¯ ¯ dη dη η=0 η=0 ¯ ¢¯ d ¡ T ¯ ¯ , (20.172) C (H) 1I + Λ (1I) H = Υ (1I) + Υ 1I + ηH ¯¯ dη η=0

la quale, assumendo che lo sforzo residuo sia nullo (equazione (20.158)) implica che ¯ ¢¯ d ¡ ¯ . C (H) = Υ 1I + ηH ¯¯ dη η=0

(20.173)

Analogamente, considerando lo sviluppo in serie di Taylor al primo ordine in η di entrambi i membri della relazione Λ (F) = FΛ (C) e ricordando che, per piccole deformazioni (cfr. la (17.123)): ¯ = 1I + 2η E, ¯ C ≈ 1I + 2ηsymH

si ha

¯ ¯ ¢¯ ¢¯ d ¡ d ¡ ¯ ¯ ¯ = Λ (1I) + η Λ 1I + 2η E ¯¯ , Λ 1I + η H ¯ Λ (1I) + η dη dη η=0 η=0

(20.174)

(20.175)

da cui, utilizzando ancora la (20.158):

¯ ¢¯ d ¡ ¯ Λ 1I + 2η E ¯¯ . C (H) = dη η=0

(20.176)

Con la seguente proposizione stabiliamo ora alcune importanti proprietà del tensore di elasticità. Proposizione 284 Per il tensore di elasticità valgono le seguenti proprietà: 1. la sua immagine (cfr. la sezione 3.3 nella Parte I) è inclusa nello spazio Sym dei tensori simmetrici: Im C ⊆Sym,

C (H) ∈ Sym

∀H ∈ Hom;

(20.177)

2. il suo nucleo (cfr. la sezione 3.3 nella Parte I) è incluso spazio Skw dei tensori antisimmetrici: ker C ⊆Skw,

C (W) = 0

∀W ∈ Skw.

(20.178)

Dimostrazione Si noti innanzitutto che, in virtù delle proposizioni (177, 185), Sym e Skw sono sottospazi di Hom.

276

CAPITOLO 20. MATERIALI ELASTICI

1. La prima asserzione discende immediatamente dalla (20.169) quando si constati che Υ è a valori in Sym. 2. Per dimostrare la seconda asserzione, si noti che per linerità: ∀H ∈ Hom : C (H) = C (symH + skwH) = C (symH) + C (skwH) ,

(20.179)

dove symH e skwH sono rispettivamente la parte simmetrica e la parte antisimmetrica di H (cfr. sezione 13.11). Tuttavia, riscrivendo la (20.170) come C (H) = C (E) ,

(20.180)

e ricordando che il tensore delle piccole deformazioni E è la parte simmetrica di H, si evince che C è completamente determinato dalla sua restrizione allo spazio Sym dei tensori simmetrici. Combinando quindi la precedente con la (20.179) si conclude che C (W) = 0, ∀W ∈ Skw in quanto, dal teorema di decomposizione additiva (sezione 13.11), ogni tensore antisimmetrico può riguardarsi come parte antisimmetrica di un tensore di Hom.

Vogliamo ora stabilire che se il solido considerato è isotropo allora il corrispondente tensore di elasticità C è un tensore isotropo nel senso specificato dalla definizione (20.71) per le funzioni a valori tensoriali. Proposizione 285 Il tensore di elasticità C di un solido isotropo, a partire da una configurazione naturale, è una funzione isotropa. Dimostrazione Sia Q ∈ Ort. Considerando per entrambi i membri della equazione (20.155) lo sviluppo in serie di Taylor si ottiene: ¯ ¡ ¢ ¢¯ d ¡ T T ¯ QΛ (F) Q = QΛ (1I) Q + η Q Υ 1I + η H ¯¯ QT + O η2 ; (20.181) dη η=0 ´ ´¯¯ ³ ¡ ¢ ¡ ¢ d ³ ¯ T ¯ + O η2 , (20.182) Υ Q1IQT + ηQHQ Λ QFQT = Λ Q1IQT + η ¯ dη η=0 Le precedenti, insieme alla definizione (20.164) ed assumendo che lo stress residuo sia nullo (equazione (20.158)) implicano ³ ´ QC (H) QT = C QHQT , ∀Q ∈ Ort, ∀H ∈ Hom, (20.183)

ovvero la tesi. Per un tensore di ordine totale 4 isotropo, esiste il seguente teorema di rappresentazione: Proposizione 286 Una applicazione lineare C :Sym → Sym,

(20.184)

è isotropa se e solo se esistono i campi scalari λ e µ tali che ∀E ∈ Sym : C (E) = 2µE + λ (Tr E) 1I.

(20.185)

Dimostrazione Sia U l’insieme dei vettori unitari e sia u ∈ U. Dalla proposizione (164), al tensore simmetrico u ⊗ u (cfr. proposizione 159) è associata l’equazione caratteristica α3 − α2 = 0,

(20.186)

(si veda la equazione (13.138)), per cui l’insieme degli autovalori è {1, 0, 0} , due dei quali sono evidentemente distinti. Ripercorrendo quindi lo stesso percorso deduttivo utilizzato nella dimostrazione del punto (2) della proposizione 280 si giunge alla conclusione che debbano esistere due funzioni λ, µ : U →IR,

(20.187)

C (u ⊗ u) = 2µ (u) [u ⊗ u] +λ (u) 1I, ∀u ∈U.

(20.188)

tali che

20.3. ELASTICITÀ LINEARE.

277

Successivamente, si consideri il vettore unitario v =Q (u) ,

(20.189)

dove Q è un tensore ortogonale proprio10 . La proposizione 160 porge Q (u ⊗ u) QT = Q (u) ⊗ Q (u) = v ⊗ v,

(20.190)

da cui, utilizzando la isotropia di C: ¡ ¢ Q [C (u ⊗ u)] QT − C (v ⊗ v) = C Q (u ⊗ u) QT − C (v ⊗ v) = 0 = 2 [µ (u) − µ (v)] (v ⊗ v) − [λ (u) − λ (v)] 1I.

(20.191)

Tuttavia, come stabilito dal lemma di Wang (proposizione 278), l’insieme {1I,v ⊗ v} è linearmente indipendente, il che implica le uguaglianze µ (u) = µ (v) ,

λ (u) = λ (v) ,

(20.192)

asserenti che le funzioni scalari λ, µ dipendono solo dal punto. Sia ora E ∈ Sym ed X αj (ej ⊗ ej ) , E=

(20.193)

j

la sua rappresentazione spettrale, dove gli autovettori {ej } costituiscono una base ortonormale (cfr. sezione 13.8). Estendendo la (20.188) per linearità: X αj C (ej ⊗ ej ) = 2µE + λ (α1 + α2 + α3 ) 1I, (20.194) C (E) = j

da cui, notando che Tr E = α1 + α2 + α3 ,

(20.195)

discende la (20.185). Assumendo viceversa che C (E) ammetta la rappresentazione (20.185), poiché ´ ³ ¢ ¡ Tr QEQT = Tr QT QE = Tr E,

(20.196)

(cgr. la (13.89)) discende banalmente l’isotropia di C. Denotando con 1III il tensore identico di ordine totale 4, il tensore quadruplo di elasticità si rappresenta come C = 2µ1III + λ1I ⊗ 1I. (20.197)

La precedente è immediata conseguenza della proposizione precedente; tenendo infatti presente che 1I · E = Tr (1IE) = Tr E,

(20.198)

applicando C nella forma (20.197) ad E ∈ Sym si ottiene la (20.185). Il tensore quadruplo di elasticità per un solido isotropo è completamente determinato dai due campi scalari µ e λ, detti moduli di Lamé relativi alla particella materiale P ; nel caso in cui il materiale sia omogeneo, i moduli di Lamé sono campi scalari costanti. È opportuno evidenziare ancora una volta che la derivazione della teoria costitutiva linearizzata si è basata sulle seguenti assunzioni: • lo stress residuo nella configurazione di confronto è nullo (equaz. (20.158)); in altre parole, la configurazione di confronto scelta è uno stato naturale del sistema continuo; • il gradiente dello spostamento è piccolo. L’equazione costitutiva per un solido elastico relativamente ad uno stato naturale, ovvero ¡ ¢ ad una configurazione di confronto nella quale lo sforzo residuo è nullo, a meno di termini dell’ordine O η 2 , il primo tensore degli sforzi di Piola-Kirchhoff è una funzione lineare del tensore E delle piccole deformazioni: ¡ ¢ (20.199) P = ηC (E) + O η 2 .

Inoltre, in forza della proposizione 284, commettendo lo stesso errore si ha che P è un tensore simmetrico. 1 0 Si

noti che Q (u) ∈ U in quanto t s √ kQ (u)k = Q (u) · Q (u) = u · QT Q (u) = u · u = 1,

avendo utilizzato la (13.228).

∀u ∈U, ∀Q ∈ Ort+ ,

278

CAPITOLO 20. MATERIALI ELASTICI

20.3.2

Linearizzazione della legge di bilancio della forza.

Ci si propone ora di linearizzare le equazioni indefinite di equilibrio intorno alla configurazione di riferimento C ∗ supposta non prestressata, ovvero di considerare il comportamento della legge lagrangiana di bilancio delle forze 0

(bM − u ¨) + DivP = 0,

(20.200)

intorno ad F = 1I. La linearizzazione del primo tensore di Piola-Kirchhoff rispetto ad η porge ∙

¸¯ ¡ ¢ dP ¯¯ + O η2 ¯ dη η=0 ∙ ¸¯ ¡ ¢ ¢ ¯ d ¡ −T ¯ + O η2 J TM F = TM + η ¯ dη η=0 £¡ ¢ ¤ ¡ ¢ ¯ ¯ = TM + η Tr H TM + TM H−T + O η2 .

P = P|η=0 + η

(20.201)

Ricordando la (20.199) e tenendo presente che TM ≈ ηC (E) (cfr. la (20.169)) si ha η

£¡ ¢ ¤ ¡ ¢ ¯ TM + TM H ¯ −T ∈ O η2 , Tr H

¡ ¢ da cui, commettendo un errore di O η 2 , è possibile effettuare la seguente identificazione: P ≈ TM .

(20.202)

(20.203)

Riferendo poi la configurazione attuale Ct alle coordinate materiali X i (ovvero confondendo quest’ultima con la configurazione C ∗ ) si ottiene la seguente forma linearizzata della equazioni indefinite di bilancio della forza: 0

(bM − u ¨) + DivP ≈ (b − u ¨) + divT = 0,

(20.204)

essendo, per le assunzioni fatte, le rappresentazioni materiali dei campi bM e TM coincidenti con le loro i rappresentazioni spaziali, ed essendo gli operatori Div e div entrambi effettuati rispetto alle ¡ ¢coordinate X . Si può dunque affermare che per piccole deformazioni, commettendo un errore di O η 2 , dove η è un parametro adimensionale che misura la piccolezza dell’ampiezza del campo degli spostamenti, le equazioni di bilancio della forza in forma lagrangiana ed euleriana coincidono. Si lascia al lettore la verifica del fatto che la legge lagrangiana di bilancio dei momenti (19.75) si riduce alla simmetria del tensore degli sforzi di Cauchy. La lista completa delle equazioni di campo per la teoria dell’elasticità lineare è data da: 1. l’equazione costitutiva P = C (E) ,

(20.205)

che nel caso il solido sia isotropo si rappresenta come P = 2µE + λ (Tr E) 1I,

(20.206)

ovvero, tenendo presente le considerazioni svolte nella sezione 20.3.2 e l’equazione (20.169): T = 2µE + λ (Tr E) 1I,

(20.207)

per il tensore degli sforzi di Cauchy; 2. il legame tra deformazioni e spostamenti, anche detta equazione di compatibilità cinematica: E = sym Gradu;

(20.208)

3. l’equazione indefinita di equilibrio: divT +

0

(b − u ¨) = 0.

(20.209)

20.3. ELASTICITÀ LINEARE.

20.3.3

279

Interpretazione meccanica del lavoro delle azioni di contatto.

Consideriamo ancora un continuo soggetto a deformazioni infinitesime. Sotto tale ipotesi, la velocità di deformazione D = sym gradv =symL, (20.210) può riguardarsi come la derivata materiale del tensore di deformazione infinitesima. Utilizzando infatti la (17.73) si ha ¡ ¢ ¡ ¢ ˙ −1 = ηH˙ 1I + ηH−1 = η H˙ + O η 2 , L = FF (20.211) per cui (cfr. (17.123))

³ ´ ¡ ¢ ¡ ¢ D = sym ηH˙ + O η 2 = E˙ + O η2 .

(20.212)

Alla luce delle precedenti considerazioni, introduciamo il lavoro delle azioni di contatto per un continuo soggetto a piccole deformazioni: Z (i) T · EdV, (20.213) ∀R∗ ⊂ C ∗ : LR∗ (u) = R∗

¡ ¢ ¯ , entrambi funzione delle coordinate lagrangiane dove T è il tensore degli sforzi di Cauchy ed E =sym η H i X per l’ipotesi di piccole deformazioni. Utilizzando la definizione (13.163) e dalla simmetria dei due tensori coinvolti, la precedente espressione esplicitata nei termini delle componenti diviene Z ¡ ¢ (i) ∀R∗ ⊂ C ∗ : LR∗ (u) = T11 E 11 + T22 E 22 + T33 E 33 + 2T12 E 12 + 2T13 E 13 + 2T23 E 23 dV. (20.214) R∗

Dalla (18.44) si vede che, scelta la base ortonormale (e1 , e2 , e3 ), Tij = ei · T (ej ) = ej · T (ei ) = t(ei ) · ej ,

(20.215)

rappresenta la componente lungo l’asse ej nella forza nell’unità di area agente su una superficie avente localmente normale uscente diretta come ei , la quale, dalla simmetria di T, è anche uguale alla componente lungo l’asse ei della forza nell’unità di¡ area agente ¢ su una superficie di normale ej . Dalle (17.134), (17.137) si¡ ha¢ inoltre che, nella base reciproca e1 , e2 , e3 (cfr. equazione (12.2)) la componente in diagonale E ii = ei · E ei è¡ l’allungamento dello spigolo diretto come l’asse ei di un cubo materiale i cui lati sono specificati dai versori ¡ ¢ ¢ 1 2 3 e , e , e , mentre la componente fuori diagonale E ij = ej · E ei è pari alla metà degli angoli difetto di ortogonalità introdotti nella (17.136). I termini T11 E 11 ,

T22 E 22 ,

T33 E 33 ,

(20.216)

rappresentano quindi il lavoro speso dalle forze di contatto per allungare gli spigoli del cubo nella direzione omonima, ovvero globalmente sono associati al lavoro speso dalle forze di contatto per variare il volume di tale cubo. I termini 2T12 E 12 = T12 γ 12 ,

2T13 E 13 = T13 γ 13 ,

2T23 E 23 = T23 γ 23 ,

(20.217)

rappresentano invece il lavoro speso dalle forze di contatto per cambiare la forma del suddetto cubo, ovvero per cambiare gli angoli tra le giaciture dal loro valore iniziale π/2 al valore γ ij =

π − θij , 2

(20.218)

(cfr. la (17.136)). Decomponiamo ora additivamente T ed E nelle loro parti sferica e deviatorica (si veda la proposizione 168): T = sfT + devT, E = sfE + devE,

κ κ 1I, devT = T − 1I, 3 3 Θ Θ sfE = 1I, devE = E − 1I, 3 3 sfT =

κ = Tr T,

(20.219)

Θ = Tr E,

(20.220)

280

CAPITOLO 20. MATERIALI ELASTICI

dove ovviamente è Trdev(·) = 0. Utilizzando tale decomposizione, il lavoro delle forze interne si può scrivere come ¶ Z ³ ´ µΘ κ (i) LR∗ (u) = 1I + devT · 1I + devE dV = 3 3 R∗ ¶ Z µ κ κ Θ = Θ + 1I · devE + devT · 1I + devT · devE dV = 3 3 3 R∗ Z ³ ´ κ = Θ + devT · devE dV, (20.221) 3 R∗

essendo, dalla (13.163), 1I·dev(·) = Trdev(·) = 0. Nella precedente si riconoscono due parti separate: il contributo sferico Z 1 κΘdV, (20.222) 3 R∗

associato al lavoro speso per il cambiamento di volume (cfr. equazione (17.141)), ed il contributo deviatorico Z devT · devEdV, (20.223) R∗

associato al lavoro speso per cambiare la forma. Introducendo la rappresentazione per componenti dei termini che compaiono nella (20.221) e svolgendo i prodotti che in essa compaiono, si ritrova ovviamente l’espressione (20.214).

20.3.4

Ancora sul tensore di elasticità.

Diremo che un tensore quadruplo C : Hom → Hom è simmetrico se: ∀H, G ∈ Hom :

H · C (G) = G · C (H) .

(20.224)

dove “·” è il prodotto scalare (13.163) definito in Hom. Poiché ker C ⊆Skw (cfr. proposizione 284), il tensore quadruplo di elasticità non può essere definito positivo nel senso specificato dalla (13.177). Considerando tuttavia la sua restrizione a Sym, il che risulta lecito in tenendo presente la (20.170), diremo che C : Sym → Sym è definito positivo se, per ogni tensore simmetrico non nullo E: E · C (E) > 0.

(20.225)

È facile dimostrare la seguente: Proposizione 287 Si assuma che un materiale elastico lineare sia isotropo nel punto X. Allora C è simmetrico. Dimostrazione Siano H, G ∈ Hom. In virtù della proposizione 284, C è completamente definito dalla sua restrizione a Sym ed è a valori in Sym. Ricordando inoltre che Sym ed Skw sono simmetrici rispetto al prodotto scalare definito in Hom (cfr. la (13.282)), denotando con sym ed skw rispettivamente le proiezioni in Sym ed Skw, si ha H · C (G) = symH · C (symG) = 2µsymH · symG + λ (Tr G) 1I · symH = 2µsymG · symH + λ (Tr H) 1I · symG = symG · C (symH) = G · C (H) ,

(20.226)

essendo 1I·symH = Tr H (cfr. la definizione (13.163) e la (13.223)). Confrontando la definizione (20.224) ne discende che il tensore di elasticità per un solido elastico isotropo è simmetrico. Tuttavia che C sia simmetrico si può dimostrare sotto ipotesi meno restrittive. Si consideri un continuo B costituito da un materiale elastico lineare. Ricordando l’espressione (20.213), il lavoro speso dalle azioni di contatto quando il corpo è soggetto ad una deformazione infinitesima descritta e è dato dalla dal campo E Z (i) ∗ ∗ ˜ e ∀R ⊂ C : LR∗ = T · EdV. (20.227) R∗

20.3. ELASTICITÀ LINEARE.

281

Diremo che il corpo B è costituito da un materiale conservativo quando esiste una funzione Φ a valori in Φ (E,P, C ∗ ) ∈ IR detta potenziale elastico o densità di energia elastica di deformazione, quadratica e nella variabile E e tale che, per ogni variazione infinitesima E: Z ∂Φ e ˜ (i)∗ = ∀R∗ ⊂ C ∗ : L · EdV. (20.228) R ∂E R∗

Vale la seguente

Proposizione 288 Il tensore di elasticità C di un materiale conservativo è simmetrico nel senso (20.224). Dimostrazione Dalle (20.227) e (20.228) è ovvio che ∂Φ = T. ∂E

(20.229)

Poiché vale la (20.205) si ha ancora che ∂Φ = C (E) , (20.230) ∂E da cui, per il teorema di Schwartz sulla simmetria della matrice Hessiana, segue l’asserto. Dalla proposizione precedente e dalla ipotesi che l’energia di deformazione sia una funzione quadratica definita positiva quando definita in Sym × Sym si deduce che: Proposizione 289 Il tensore quadruplo di elasticità definisce un prodotto scalare definito positivo in Sym. La assunzione che C sia definito positivo pone, nel caso di materiale isotropo, alcune restrizioni sui moduli di Lamé. Proposizione 290 Il tensore quadruplo di elasticità C per un materiale isotropo è definito positivo se e solo se i moduli di Lamé sottostanno alle seguenti disuguaglianze: µ > 0,

2µ + 3λ > 0.

(20.231)

Dimostrazione Sia E ∈ Sym e si consideri la sua decomposizione in parte sferica e parte deviatorica (si veda la proposizione 168): E = sfE + devE,

sfE =

Θ Θ 1I, devE = E − 1I, 3 3

Θ = Tr E.

(20.232)

Essendo 1I·devH = TrdevH = 0, si ha: E · C (E) = (sfE + devE) · (2µ (sfE + devE) + λΘ1I) µ 2 ¶ Θ = 2µ + devE · devE + λΘ2 3 2 Θ = (2µ + 3λ) + 2µ (devE · devE) . 3

(20.233)

Assumendo la (20.231), la (20.233) implica banalmente che C sia definito positivo, per cui il carattere sufficiente è dimostrato. Assumendo viceversa che C sia definito positivo, scegliendo E sferico dalla (20.233) discende che 2µ+3λ > 0, mentre scegliendo E deviatorico si conclude che deve essere µ > 0. Come stabilito nella sezione 13.11, l’unico elemento in comune tra lo spazio dei tensori simmetrici e quello dei tensori antisimmetrici è il tensore nullo: Sym ∩ Skw = {0} ,

(20.234)

per cui, in forza delle proposizioni 284, 35 e 289, la restrizione di C a Sym è un isomorfismo, il che implica l’esistenza dell’isomorfismo inverso: C−1 : Sym → Sym. (20.235) Se il materiale è isotropo, eseguendo la traccia di entrambi i membri della (20.207) si trova la relazione: Tr T = (2µ + 3λ) Tr E,

(20.236)

282

CAPITOLO 20. MATERIALI ELASTICI

utilizzando la quale si può invertire il legame sforzi-deformazioni come segue: ∙ ¸ 1 λ E= T− (Tr T) 1I . 2µ 2µ + 3λ

(20.237)

Introducendo i parametri costitutivi modulo di Young Y e rapporto di Poisson ν, definiti nei termini dei moduli di Lamé come λ µ (2µ + 3λ) , ν= , Y = µ+λ 2 (2µ + 3λ) (20.238) Y Yν , µ= , λ= (1 + ν) (1 − 2ν) 2 (1 + ν) la relazione costitutiva invertita diviene E = C−1 (T) = con C−1 =

1 [(1 + ν) T − ν (Tr T) 1I] , Y

1 [(1 + ν) 1III − ν1I ⊗ 1I] . Y

(20.239)

(20.240)

Nella proposizione 290 si è stabilito che l’assumere C definito positivo implica le (20.231). Sostituendo le (20.238)2 nelle (20.231) si ottengono le seguenti disuguaglianze: Y > 0, 1+ν

Y > 0, 1 − 2ν

(20.241)

le quali implicano Y > 0,

−1 < ν
0 tale che gli insiemi n o √ E ∈ Sym : E · E < RP , n o √ S ∈ Sym : S · S < RP ,

(21.8)

sono inclusi rispettivamente in DE e DS .

Il punto 1 della definizione introdotta esprime una proprietà dell’energia di deformazione abbastanza intuitiva: per deformare in un modo qualsiasi un cubetto infinitesimo del continuo B è sempre necessaria una quantità positiva di energia. Il punto 2 afferma che nel dominio di elasticità l’equazione costitutiva che lega tensioni e deformazioni è invertibile e deriva da una densità di energia di deformazione. L’equazione (21.5)2 permetterà di provare l’interessante e significativa equazione (21.15). I punti 3 e 4 affermano che ogni stato di tensione e deformazione nel dominio di elasticità è raggiungibile con un processo continuo dallo stato di riferimento e che il dominio di elasticità è un intorno di tale stato. Sia R ⊂ B un sottocorpo di B. Diremo che R è un sottocorpo elastico di B a partire dalla configurazione C ∗ quando 1. Ogni particella materiale P ∈ R ha comportamento elastico. 2. ∃R > 0 : RP > R ∀P ∈ R,

(21.9)

dove RP è il numero reale che appare nel punto 4 precedente. Il punto 2 della precedente definizione p afferma che tutte le deformazioni e tensioni che distano (nella distanza data dalla definizione d (A, B) := (A − B) · (A − B)) meno di R dallo stato di confronto appartengono al dominio di elasticità per tutti i punti materiali P ∈ R. Il lettore che abbia nozioni di analisi funzionale riconoscerà nella condizione specificata al citato punto 2 una proprietà di compattezza. Le definizioni appena introdotte si giustificano quando si ricordi l’espressione lagrangiana per la potenza interna (cfr. Capitolo 19) Z (i) ∗ ˙ ℘ ∗ (vL ) = S · EdV , (21.10) R



R∗



dove R ⊂ C rappresenta la configurazione di confronto per R. Infatti, considerato un moto χt del corpo B, il bilancio della potenza per il suo generico sottocorpo elastico R può scriversi, stante la (21.5): Z d (e) Φ (E (t) , P ) dV ∗ , (21.11) ℘R∗ (χ˙ t ) = dt R∗ dove

´ 1³ T FF − 1I , 2 cosicché, considerato un moto ciclico elastico, cioè tale che E=

∀t ∈ [t0 , tf ]

E (t) ∈ DE e ΛC ∗ (E (t)) ∈ DS ,

(21.12)

(21.13)

21.2. IL DOMINIO DI ELASTICITÀ.

287

per cui χt0 (XP ) = χtf (XP ) , si ha

Z

tf

t0

∀XP ∈ C ∗ ,

(e)

℘R∗ (χ˙ t ) dt = 0,

(21.14) (21.15)

che esprime, nel presente contesto meccanico, la più generale condizione termodinamica che caratterizza un sistema conservativo.

21.2.1

La funzione di carico.

È naturalmente molto importante, per determinare l’ambito di applicabilità della teoria dell’elasticità alla descrizione dei fenomeni di interesse nella pratica ingegneristica, che si riesca a caratterizzare l’insieme DS introdotto nella precedente definizione di comportamento elastico (l’insieme DE sarà allora caratterizzato, −1 utilizzando la relazione costitutiva ΛC∗ , per mezzo della relazione DE = ΛC ∗ (DS )). A questo fine si introduce una funzione scalare ψ P : S ∈ Sym 7→ ψ P (S) ∈ IR, P ∈ B, (21.16) detta funzione di carico o criterio di resistenza, tale che S ∈DS se e soltanto se ψ P (S) < 0. In altre parole si afferma che ½ ψ P (S) < 0 ⇔ S è nel dominio di comportamento elastico di P, (21.17) ψ P (S) = 0 ⇔ S è al limite di elasticità iniziale del materiale in P. Un criterio di resistenza viene introdotto allo scopo di stabilire, per un dato materiale, quale sia il limite di validità del modello elastico. Un criterio di resistenza è il modello matematico di una caratteristica intrinseca del materiale e deve quindi essere riguardato come una particolare relazione costitutiva. È quindi naturale la richiesta che la funzione ψ sia obiettiva nel senso che deve essere invariante sotto i cambiamenti di riferimento galileiani. Ricordando che il tensore di Cauchy T ed il tensore di deformazione F si trasformano per il cambiamento di osservatore galileiano caratterizzato da Q ∈ Ort+ rispettivamente come (cfr. la sezione 20.1.2) ¯ = QTQT , T ¯ = QF, F

(21.18)

ed utilizzando la definizione del secondo tensore di Piola-Kirchhoff (19.59) si ottiene la legge di trasformazione di S per cambiamento di osservatore galileiano: ¯F ¯−T = JF−1 QT QTQT QF−T = JF−1 TF−T = S. ¯ = JF ¯−1 T S

(21.19)

La precedente afferma che un cambiamento di osservatore non modifica un criterio di resistenza come definito dalla (21.17) e quindi che la (21.17) rispetta l’assioma di obiettività. Tenendo presente inoltre che l’attenzione è limitata ai materiali isotropi, si richiede che il criterio di resistenza sia invariante rispetto al gruppo di simmetria del materiale (cfr. la sezione 20.1.4), che nel caso specifico coincide con il gruppo O+ dei tensori ortogonali propri, detti anche rotazioni. Ricordando che i gradienti di deformazione associati a due configurazioni di confronto C¯∗ e C ∗ materialmente isomorfe sono legati dalla (cfr. la (20.32)) ¯ = FQ, ∀Q ∈ O+ , F (21.20) si ha

¯ −T = QT JF−1 TF−T Q = QT SQ, ¯ =J F ¯ −1 TF S

la quale, in virtù della definizione (20.69) si traduce nella isotropia di ψ: ³ ´ ψ P (S) = ψ P QSQT , ∀Q ∈ O+ ,

(21.21)

(21.22)

Dal del teorema di rappresentazione delle funzioni scalari isotrope (proposizione 279), ψ si rappresenta come una funzione degli invarianti principali del suo argomento: ψ : IS → IR, dove IS è la lista degli invarianti principali di S, definita nella (20.73).

(21.23)

288

CAPITOLO 21. CRITERI DI RESISTENZA PER I MATERIALI ISOTROPI

Poiché S è un tensore simmetrico, ad esso sono associati tre autovalori {ϑ1 , ϑ2 , ϑ3 } , a priori non distinti e detti tensioni principali, corrispondenti a tre autovettori linearmente indipendenti (cfr. proposizione 117), detti direzioni principali degli sforzi (si veda la sezione 18.4.1). Nella base ortonormale degli autovettori il tensore degli sforzi è rappresentato da una matrice diagonale, in cui gli elementi della diagonale principale sono gli autovalori {ϑ1 , ϑ2 , ϑ3 } . Utilizzando le ((13.72), (13.73), (13.74)) gli invarianti del tensore degli sforzi sono legati alle tensioni principali dalle relazioni Tr S = ϑ1 + ϑ2 + ϑ3 , IIS = ϑ1 ϑ2 + ϑ2 ϑ3 + ϑ1 ϑ3 , det S = ϑ1 ϑ2 ϑ3 .

(21.24)

Introducendo ora le parti sferica e deviatorica di S : sfS = κ1I, devS = S − κ1I,

(21.25)

dove

1 Tr S, (21.26) 3 è lo sforzo medio, gli autovalori (d1 , d2 , d3 ) del deviatore devS sono evidentemente legati alle tensioni principali dalla dj = ϑj − κ, (21.27) κ=

ovvero, dalla definizione di κ : 1 (21.28) (2ϑi − ϑj − ϑk ) , 3 dove (i, j, k) è una permutazione di (1, 2, 3) il cui primo elemento è i. Per definizione si ha TrdevS = 0; il secondo ed il terzo invariante di S si esprimono nei termini di Tr S, IIdevS e det (devS) come: di =

1 2 (Tr S) , 6 2 1 3 det S = det (devS) + (Tr S) IIdevS + (Tr S) . 3 27 IIS = IIdevS +

(21.29)

Lasciamo come esercizio per lo studioso lettore la dimostrazione, a partire dalle (13.55), (13.56), (13.57), delle relazioni enunciate. Alla luce di tutto ciò, il criterio di resistenza per un materiale isotropo può in definitiva esprimersi equivalentemente come: • una funzione degli invarianti principali del tensore degli sforzi S; • una funzione degli invarianti {Tr S, IIdevS , det (devS)} attraverso la (21.29); • una funzione delle tensioni principali {ϑ1 , ϑ2 , ϑ3 } attraverso la (21.24).

21.3

Alcuni stati di tensione per il tensore di Piola-Kirchhoff.

Nello studio dei criteri di resistenza sarà talvolta interessante caratterizzare gli stessi in base al valore del limite di elasticità che essi forniscono in corrispondenza di alcuni stati di tensione particolare del materiale. Nel seguito sarà talvolta utile considerare la seguente notazione. Sia {i1 , i2 , i3 } una permutazione di {1, 2, 3} tale che ϑi1 ≥ ϑi2 ≥ ϑi3 , (21.30) ovvero tale che le tensioni principali siano ordinate in ordine decrescente secondo il loro valore in IR.

21.3.1

Stato di sforzo uniassiale.

Due delle tre tensioni principali sono nulle: ϑ2 = ϑ3 = 0,

(21.31)

mentre il segno della terza è dato da: ½

ϑ1 ∈ IR+ : trazione . ϑ1 ∈ IR− : compressione

(21.32)

21.4. CRITERIO DI TRESCA.

289

Il degli ¡ tensore ¢ sforzi di Piola-Kirchhoff corrispondente a tale stato di tensione è detto uniassiale; nella base E1 , E2 , E3 costituita dai suoi autovettori, S si rappresenta come S = ϑ1 E1 ⊗ E1 ,

(21.33)

e si ha di conseguenza che il vettore degli sforzi t(N) su una superficie di normale N = N 1 E1 + N 2 E2 + N 3 E3 è dato da t(N) = S (N) = ϑ1 N1 E1 , (21.34) per cui la sua unica componente non nulla è quella lungo la direzione principale E1 .

21.3.2

Taglio semplice.

È caratterizzato dall’avere una tensione principale nulla e le restanti due uguali in valore assoluto e di segno opposto: ϑi2 = 0, ϑi1 = −ϑi3 > 0. (21.35) ¢ ¡ i i i Nella base E 1 , E 2 , E 3 dei propri autovettori, il tensore degli sforzi si rappresenta come ¡ ¢ S = ϑi1 Ei1 ⊗ Ei1 − Ei3 ⊗ Ei3 . (21.36)

21.3.3

Stato di sforzo triassiale con simmetria intorno ad un asse (triassiale di rivoluzione).

È uno stato di sforzo molto utilizzato nelle prove di laboratorio in meccanica dei suoli. Può riguardarsi come una generalizzazione dello stato di sforzo uniassiale, essendo caratterizzato dalle condizioni: ϑ1 6= 0,

ϑr := ϑ2 = ϑ3 6= 0.

Il conseguente tensore degli sforzi di Piola-Kirchhoff: £ ¤ S = (ϑ1 − ϑr ) E1 ⊗ E1 + ϑr 1I,

(21.37)

(21.38)

è sovente detto cilindrico in quanto tutte le direzioni ortogonali alla direzione principale E1 sono principali. Infatti, se v è un qualunque vettore tale che v · E1 = 0 si ha S (v) = ϑr v,

(21.39)

per cui esso risulta essere un autovettore di S associato all’autovalore ϑr .

21.3.4

Trazione o compressione isotropa.

Il tensore degli sforzi di Piola-Kirchhoff è sferico. Il tensore degli sforzi ed il vettore delle tensioni, ricordando la definizione (21.26) di sforzo medio sono dati rispettivamente da S = κ1I,

t(N) = κN,

(21.40)

la quale mostra che tutte le direzioni sono principali.

21.4

Criterio di Tresca.

Il criterio di resistenza che ci accingiamo a presentare è stato proposto da Tresca nel 1864 a seguito delle esperienze effettuate sul piombo. Omettendo nel seguito del capitolo la dipendenza da P , la funzione di carico è definita da: ψ (S) = sup {ϑi − ϑj − σ T } , i, j = 1, 2, 3, (21.41) dove σ T , avente le dimensioni di uno sforzo, è una costante caratteristica del materiale. Come si può vedere dalla definizione, ψ è una funzione simmetrica delle tensioni principali. Ordinando le tensioni principali come nella (21.30) la precedente può essere riscritta come: ψ (S) = ϑi1 − ϑi3 − σ T ,

(21.42)

la quale mostra che la funzione di carico di Tresca è indipendente dalla tensione principale intermedia e dipende soltanto dalle tensioni principali estreme ϑi1 e ϑi3 .

290

CAPITOLO 21. CRITERI DI RESISTENZA PER I MATERIALI ISOTROPI

Dalla espressione (21.27) per le tensioni principali associate al deviatore di S la (21.41) può riscriversi come: ψ (S) = sup {(ϑi − κ) − (ϑj − κ) − σ T } = sup {di − dj − σ T } , i, j = 1, 2, 3,

(21.43)

dalla quale si evince che ψ è indipendente dallo sforzo medio κ e dipende soltanto dal deviatore degli sforzi devT: la funzione di carico ha infatti lo stesso valore per tutti gli stati di sforzo aventi la stessa parte deviatorica. La proprietà della funzione di Tresca appena enunciata tiene conto delle proprietà osservate su materiali quali ad esempio metalli ed argille sature. Relativamente agli stati di tensione presentati nella sezione precedente, utilizzando la (21.42) e la (21.17) si nota che: • in trazione semplice il limite di elasticità iniziale è dato da σ T : ψ (S) = 0 ⇔ ϑi1 = σ T ,

(21.44)

ed analogamente, in compressione semplice il limite di elasticità è dato da −σT ; • per il taglio semplice il limite di elasticità iniziale è pari a σT /2 : ψ (S) = 0 ⇔ 2ϑi1 = σ T .

(21.45)

La equazione (21.42) si presta ad una interessante reinterpretazione. Si consideri un taglio di Cauchy di normale N e siano Nj = N · Ej , (21.46) le sue componenti nella base costituita dalle direzioni principali di T. Essendo N un vettore unitario si ha X Nj2 = 1. (21.47) j

Riprendendo la definizione (18.54), la componente normale del vettore delle tensioni è data da σ = S (N) · N =ϑ1 N12 + ϑ2 N22 + ϑ3 N32 ,

(21.48)

mentre il modulo della componente tangenziale è dato da kτ k2 = (ϑ1 N1 )2 + (ϑ2 N2 )2 + (ϑ3 N3 )2 − σ 2 .

(21.49)

2

Vogliamo dimostrare che (ϑi1 − ϑi3 ) /2 è pari al massimo di kτ k al variare della normale N. Per vedere questo, risolviamo il sistema di tre equazioni (21.47), (21.48), (21.49) nelle tre incognite N12 , N22 , N32 assumendo come assegnate kτ k2 e σ. Si ha 2 kτ k + (σ − ϑj ) (σ − ϑk ) , (21.50) Ni2 = (ϑi − ϑj ) (ϑi − ϑk ) dove {i, j, k} è una permutazione qualunque di {1, 2, 3} . Considerando l’ordinamento (21.30) per le tensioni principali discende la seguente disuguaglianza: 2

Ni22 ≥ 0 ⇒ kτ k + (σ − ϑi1 ) (σ − ϑi3 ) ≤ 0, che può riscriversi come 2

kτ k ≤

µ

ϑi1 − ϑi3 2

¶2

µ ¶2 ϑi1 + ϑi3 − σ− . 2

(21.51)

(21.52)

Poiché la quantità kτ k2 è non negativa, dalla precedente si ha innanzitutto che µ

ϑi1 − ϑi3 2

¶2

µ ¶2 ϑi1 + ϑi3 ≥ σ− , 2

(21.53)

2

e kτ k ha valore massimo minore od uguale al minimo della funzione: f (σ) =

µ

ϑi1 − ϑi3 2

¶2

µ ¶2 ϑi + ϑi3 − σ− 1 . 2

(21.54)

21.5. CRITERIO DI COULOMB.

291

La radice della equazione f 0 (σ) = 0 è data da σ=

ϑi1 + ϑi3 , 2

(21.55)

per cui max kτ k ≤ σ

ϑi1 − ϑi3 . 2

(21.56)

La dimostrazione è completata notando che con 1 Ni1 = Ni3 = √ , 2

Ni2 = 0,

(21.57)

la (21.48) porge σ= e di conseguenza 2

kτ k =

ϑi1 + ϑi3 , 2

µ

ϑi1 − ϑi3 2

(21.58) ¶2

.

(21.59)

Utilizzando quello di Tresca come criterio, la (21.42) afferma dunque che il materiale si mantiene nel dominio elastico fino a quando il modulo della componente di taglio del vettore delle tensioni su una superficie qualunque di normale N si mantiene in valore assoluto al di sotto del valore limite σT /2. Per tale ragione, il criterio di Tresca è anche noto come criterio di taglio massimo.

21.5

Criterio di Coulomb.

Questo criterio, proposto nella sua prima versione nel 1773 da Coulomb per i mezzi granulari, è definito dalla condizione che in un dato punto la componente di taglio e la componente normale del vettore delle tensioni (cfr. equazione (18.54)) soddisfano la condizione h π´ kτ k ≤ −σ tan ϕ + c, ϕ ∈ 0, , c ≥ 0, (21.60) 2

dove le costanti caratteristiche del materiale ϕ e c sono dette rispettivamente angolo di attrito e coesione1 . La funzione di carico è di conseguenza definita come: ψ (S) = kτ k + σ tan ϕ − c.

(21.61)

Si considerino ora le tensioni principali ordinate in modo decrescente come nella (21.30). In base all’analisi svolta alla fine della sezione 21.4, si ha che kτ k attinge il suo valore massimo ϑi1 − ϑi3 , 2

(21.62)

quando σ=

ϑi1 + ϑi3 , 2

(21.63)

per cui, se la disuguaglianza (21.60) è vera in questo caso, essa lo è in tutti gli altri. La funzione di carico di Coulomb può essere dunque riscritta come ψ (S) = ϑi1 (1 + sin ϕ) − ϑi3 (1 − sin ϕ) − 2c cos ϕ = sup {ϑh (1 + sin ϕ) − ϑk (1 − sin ϕ) − 2c cos ϕ} ,

(21.64)

h,k=1,2,3

la quale mostra che il criterio di Coulomb è indipendente dalla tensione principale intermedia ma dipende in generale dallo sforzo medio κ (cfr. equazione (21.26)). Nel caso ϕ = 0 si ritrova il criterio di Tresca con la funzione di carico indipendente da κ e 2c ≡ σ T . 1 Si

noti che il legame appena esposto ricalca il legame tra la forza di attrito e la forza normale studiato nei corsi di Fisica 1.

292

21.6

CAPITOLO 21. CRITERI DI RESISTENZA PER I MATERIALI ISOTROPI

Criterio di Beltrami.

Il criterio di resistenza proposto da Beltrami caratterizza il dominio elastico-lineare assumendo che un materiale si trovi in tale dominio fintanto che la sua densità di energia di deformazione elastica è minore della densità di energia di deformazione corrispondente allo stato di sforzo uniassiale (cfr. il numero 21.3.1). Relativamente allo stato di sforzo uniassiale, detta σ B l’unica tensione principale non nulla ed e il versore della corrispondente direzione principale, utilizzando la equazione costitutiva elastico lineare inversa (20.239) si può scrivere l’energia elastica di deformazione corrispondete allo stato di tensione uniassiale come 1 T·C−1 (T) 2 ³σ ´ 1 B = (σ B e ⊗ e) · ((1 + ν) e ⊗ e − ν1I) 2 Y σ2 σ 2B [(1 + ν) − ν] = B , = 2Y 2Y

Φ (T) =

(21.65) (21.66) (21.67)

dove Y è il modulo di Young e ν è il coefficiente di Poisson. Analogamente, l’energia elastica di deformazione corrispondente al generico stato di sforzo triassiale può scriversi come 1 T·C−1 (T) 2 µ ¶ 1 1 = (ϑi ei ⊗ei ) · ((1 + ν) ϑj ej ⊗ej − 3νκ1I) 2 Y i ¢ ¡ 1 h 2 = (1 + ν) ϑ21 + ϑ22 + ϑ23 − ν (ϑ1 + ϑ2 + ϑ2 ) 2Y ¤ 1 £ 2 = ϑ1 + ϑ22 + ϑ23 − 2ν (ϑ1 ϑ2 + ϑ1 ϑ3 + ϑ2 ϑ3 ) , 2Y

Φ (T) =

(21.68)

dove ϑ1 , ϑ2 e ϑ3 sono le tensioni principali e κ = (Tr T) /3 è lo sforzo medio. Nella precedente si è utilizzata la definizione (13.163) di prodotto scalare tra tensori doppi ed il risultato stabilito nella proposizione 164. Il criterio di resistenza di Beltrami nei termini delle tensioni principali può quindi esprimersi come ϑ21 + ϑ22 + ϑ23 − 2ν (ϑ1 ϑ2 + ϑ1 ϑ3 + ϑ2 ϑ3 ) < σ 2B , ovvero, osservando che (si tengano presenti le (21.24) e la (13.73)) ¡ ¢ 2 ϑ21 + ϑ22 + ϑ23 = Tr T2 = (Tr T) − 2IIT ,

(21.69)

(21.70)

nei termini degli invarianti di T si ha

2

(Tr T) − 2 (1 + ν) IIT < σ 2B ,

(21.71)

la quale, utilizzando la (21.29) può esprimersi nella forma equivalente 2+ν 2 (Tr T) − 2 (1 + ν) IIdevT < σ 2B , 3

(21.72)

dove appare esplicitamente la dipendenza dal secondo invariante del deviatore degli sforzi.

21.7

Criterio di von Mises.

Questo criterio si fonda sulla ipotesi che la funzione di carico dipenda soltanto dal deviatore degli sforzi. Nei termini degli invarianti, ciò implica che la funzione di carico non dipende dalla Tr S ma soltanto dal secondo e dal terzo invariante principale di devS. La funzione di carico proposta da von Mises è data da: p ψ (S) = IIdevS − σ vM , (21.73)

dove σ vM , avente le dimensioni di uno sforzo, è una costante caratteristica del materiale. Utilizzando il secondo invariante principale nei termini degli autovalori di devS : IIdevS = d1 d2 + d2 d3 + d1 d3 ,

(21.74)

21.7. CRITERIO DI VON MISES.

293

ed utilizzando la (21.27) è possibile esprimere ψ come una funzione simmetrica delle tensioni principali, essendo:

ovvero

IIdevS = (ϑ1 − κ) (ϑ2 − κ) + (ϑ2 − κ) (ϑ3 − κ) + (ϑ1 − κ) (ϑ3 − κ) 1 2 = ϑ1 ϑ2 + ϑ2 ϑ3 + ϑ1 ϑ3 − (ϑ1 + ϑ2 + ϑ3 ) 3 i 1h = (ϑ1 − ϑ2 )2 + (ϑ1 − ϑ3 )2 + (ϑ2 − ϑ3 )2 , 6

(21.75)

r h i 1 2 2 2 ψ (S) = (21.76) (ϑ1 − ϑ2 ) + (ϑ1 − ϑ3 ) + (ϑ2 − ϑ3 ) − σ vM . 6 Svolgendo una analisi analoga a quella svolta nel caso del criterio di Tresca, si trova che: √ • in trazione semplice il limite iniziale di elasticità è dato da σ vM 3, mentre in compressione semplice è √ dato da −σ vM 3; • per il taglio semplice, il limite di elasticità è dato da σ vM .

Prove sperimentali sui metalli hanno mostrato che il limite di elasticità iniziale previsto dal criterio di von Mises fornisce per tali materiali una stima migliore di quella data dal criterio di Tresca. Nella pratica ingegneristica, al fine di ottenere una visualizzazione delle zone del corpo maggiormente sollecitate, si utilizza spesso il concetto di tensione equivalente di von Mises ad uno stato di tensione generico. Considerato infatti uno stato di tensione generico, relativamente ad esso si definisce la tensione equivalente di von Mises come lo scalare: p σ eq = 3IIdevS , (21.77)

corrispondente allo stato di sforzo di trazione semplice che produce lo stesso valore della funzione di carico di von Mises di quello fornito dallo stato di tensione generico in considerazione. Considerato un tetraedro avente tre spigoli diretti come gli autovettori (E1 , E2 , E3 ) del tensore degli sforzi, si definisce faccia ottaedrica √ obliqua √ ¢ rispetto a tale sistema di assi, ovvero caratterizzata ¡ la√giacitura dall’avere la normale di componenti 1/ 3, 1/ 3, 1/ 3 in tale base. La componente del vettore della tensione normale alla faccia ottaedrica, detta tensione ottaedrica, è data da (cfr. la (18.54)): σ ott = N·S (N) =

1 Tr S = κ, 3

(21.78)

mentre la componente di taglio del vettore delle tensioni, il cui modulo è detto taglio ottaedrico, è data da: 1 X dj Ej , τ ott = S (N) − σ ott N = [S − κ1I] (N) = [devS] (N) = √ 3 j

(21.79)

dove dj sono gli autovalori del deviatore degli sforzi (cfr. la (21.27)). Utilizzando la (13.73) e ricordando che la traccia del deviatore è nulla si ha: i 2 1X 2 2 h kτ ott k2 = dj = Tr (devS)2 = IIdevS . (21.80) 3 j 3 3 Tenendo conto di questa interpretazione del secondo invariante del deviatore degli sforzi, il criterio di von Mises è anche detto criterio di taglio ottaedrico, essendo la funzione di carico (21.73) esprimibile nel modo equivalente: r 3 ψ (S) = (21.81) kτ ott k − σ vM . 2 Secondo von Mises, un materiale si trova nel dominio elastico fintanto che il pmodulo della componente di taglio della tensione sulla superficie ottaedrica si mantiene al di sotto di σ vM 2/3. Lo sforzo equivalente di von Mises si esprime come 3 σ eq = √ kτ ott k , (21.82) 2 nei termini del taglio ottaedrico. Henky ha dimostrato che, nell’ambito della caratterizzazione del dominio elastico-lineare, il criterio di von Mises è equivalente alla assunzione che tale dominio sia delineato dalla richiesta che la parte di energia elastica

294

CAPITOLO 21. CRITERI DI RESISTENZA PER I MATERIALI ISOTROPI

di deformazione legata alle distorsioni è minore della energia elastica di deformazione allo stato di tensione di taglio semplice. Si noti infatti che dalla relazione costitutiva elastico-lineare (20.207) e la definizione di deviatore si ottiene il seguente legame tra il deviatore di T ed il deviatore di E: ∙ µ ¶ ¸ Tr E Tr T devT = 2µ devE + 1I + λ Tr E1I − 1I 3 3 µ ¶ 2 1 = 2µdevE + µ + λ Tr E1I − (2µ + 3λ) Tr E1I 3 3 = 2µdevE, (21.83) avendo utilizzato la relazione (20.236) tra le tracce dei due tensori. La densità di energia elastica di deformazione dovuta al contributo deviatorico è quindi data da i h 1 1 1 2 ΦD (T) = devT·devE = devT·devT = Tr (devT) , (21.84) 2 4µ 4µ dove si è impiegata la definizione (13.163) per il prodotto scalare tra tensori doppi. Ricordando poi la (13.73) e tenendo presente che Tr (devT) = 0 la precedente assume la forma ΦD (T) =

1 IIdevT . 2µ

(21.85)

Consideriamo ora lo stato tensionale di taglio semplice (cfr. la sezione 21.3.2) e sia σ vM > 0 la tensione principale maggiore, cosicché T = σ vM (e1 ⊗ e1 − e3 ⊗ e3 ) . (21.86) Essendo Tr T = 0 (cfr. la prop. 164 e tenendo presente che Tr è lineare) ed utilizzando le (20.239), (20.238)4 si ottiene la seguente espressione per l’energia elastica di deformazione 1 σ2 T · C−1 (T) = vM Tr [(e1 ⊗ e1 − e3 ⊗ e3 ) (e1 ⊗ e1 − e3 ⊗ e3 )] 2 4µ 2 σ = vM , 2µ

ΦTS (T) =

(21.87)

da cui risulta evidente che il criterio ΦD < Φ ⇐⇒ IIdevT < σ2vM ,

(21.88)

è, in elasticità lineare, una forma equivalente della (21.73). Il confronto delle (21.72), (21.88), la cui validità è ovviamente ristretta all’ambito elastico-lineare, porge la seguente relazione tra le costanti caratteristiche dei due criteri: σ2vM +

σ 2B 2+ν 2 = (Tr T) . 2 (1 + ν) 6 (1 + ν)

(21.89)

Capitolo 22

DINAMICA DEI SISTEMI FINITO-DIMENSIONALI 22.1

Introduzione.

La dinamica delle strutture è quella parte della Scienza delle Costruzioni che si occupa dello studio del moto di strutture come causato da carichi variabili nel tempo o impulsivi. Le sue applicazioni ingegneristiche sono già molto importanti ma, in prospettiva, il raffinamento dei modelli matematici che essa utilizza condurrà ad applicarla anche in ambiti nei quali il suo ruolo è stato fino ad ora marginale o del tutto assente. Come prova della necessità dello studio, in fase di progettazione, dei possibili moti di una struttura intorno alla posizione di equilibrio che è stata scelta come sua condizione di esercizio si parla solitamente del Tacoma bridge: ponte crollato sotto l’azione di venti che ne indussero un moto risonante. Altri esempi possono essere presi dall’ingegneria sismica, del vento o navale. Famosa è anche l’applicazione all’ingegneria aeronautica degli studi sull’accoppiamento flesso-torsionale nelle travi di Bernoulli-Navier che forniscono un modello dei fenomeni di flutter nelle ali degli aeroplani, fenomeni che furono fatali per alcuni fra i primi velivoli progettati. In tempi più recenti la si è applicata allo studio delle pulsazioni indotte nelle vene o nelle arterie da variazioni di pressione del sangue o ad altri fenomeni d’interesse in biomeccanica. Infine vogliamo citare l’interesse che negli ultimi anni ha attirato il problema del controllo delle vibrazioni in strutture per mezzo di attuatori intelligenti (per esempio attuatori piezoelettrici guidati da circuiti elettronici).

22.1.1

La Meccanica Lagrangiana.

In questo capitolo ci limiteremo a considerare solo modelli in cui lo stato del sistema studiato è caratterizzato per mezzo di un numero finito di parametri Lagrangiani, cioè modelli ad un numero finito di gradi di libertà. La teoria di base cui ci appoggeremo è la Meccanica Analitica, fondata nel famoso trattato Méchanique Analytique (1788) di Lagrange: questo trattato rappresenta per la meccanica quello che per la geometria ha rappresentato La géometrie (appendice del Discours de la méthode) di Cartesio. Infatti, come Cartesio ha trovato il metodo per formulare analiticamente i problemi geometrici (e viceversa), così Lagrange ha stabilito il metodo per formulare in maniera precisa, e studiare, i problemi meccanici con le tecniche dell’analisi infinitesimale. Per sottolineare immediatamente la novità del suo approccio, la sua generalità e la sua indipendenza da considerazioni di natura geometrica, Lagrange nell’introduzione del citato trattato annuncia: On trouvera point de figures dans cet Ouvrage. La Meccanica Lagrangiana fornisce un quadro assiomatico così efficace e generale da non essere solo il fondamento teorico di una gran parte della Dinamica delle Strutture: una volta riformulata in quella che oggi si chiama Teoria dei Sistemi Dinamici essa rappresenta anche la base almeno della Meccanica Quantistica, della Teoria dei Segnali, della Teoria dei Circuiti, di molte teorie economiche e, recentemente, anche della Pianificazione Urbanistica ed Ambientale1 . Fondamento matematico della Meccanica Lagrangiana è dato dal Calcolo delle Variazioni, teoria matematica che è dovuta ad Eulero ed appunto a Lagrange. Il vantaggio che il lettore trarrà dall’uso di questa teoria nello studio di specifici problemi posti dalle applicazioni ingegneristiche potrebbe essere lungamente decantato: essa fornisce un metodo unificante nello studio dei problemi meccanici la cui efficacia è eccezionale. Molto probabilmente, però, non si riuscirebbe a fare meglio di Lagrange stesso. Infatti già nell’ Avertissement 1 Alcune

equazioni d’evoluzione per i sistemi studiati da questa disciplina sono state utilizzate per scrivere i codici dei simulatori r o Faraon ° r . Dovremo attendere che la potenza del metodo sviluppati dalla Sierra e che sono alla base dei programmi Cesar° fisico-matematico sia utilizzato da abbastanza specialisti prima che la Pianificazione possa definirsi scienza nel senso che abbiamo dato al termine nel Capitolo 15.

295

296

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

della Méchanique Analytique è esposta una visione sul ruolo di sintesi delle matematiche nella Scienza, ed in particolare in Meccanica, la cui attualità è sorprendente: i moderni riformatori degli studi universitari dovrebbero tenerne conto nella loro scelta dei curricula. On a déja plusieurs Traités de Méchanique, mais le plan de celui-ci est entiérement neuf. Je me suis proposé de réduire la théorie de cette Science, & l’art de résoudre les problêmes qui s’y rapportent, à des formules générales, dont le simple développement donne toutes les équations nécessaires pour la solution de chaqúe problême. J’espére que la maniere dont j’ai táché de remplier cet objet, ne laissera rien à desirer. Cet Ouvrage aura d’ailleurs une autre utilité; il réunira & présentera sous un même point de vue, les différents Principes trouvés jusqu’ici pour faciliter la solution des questions de Méchanique, en montrera la liaison & la dépendance mutuelle, & mettra à portée de juger de leur justesse & de leur étendue. Je le divise en deux Parties; la Statique ou la Théorie de l’Équilibre, & la Dynamique ou la Théorie du Mouvement; & chacune de ces Parties traitera séparément des Corps solides & des fluides. On ne trouvera point de Figures dans cet Ouvrage. Les méthodes que j’y expose ne demandent ni constructions, ni raisonnemens géométriques ou méchaniques, mais seulement des opérations algébriques, assujetties à une marche réguliere & uniforme. Ceux qui aiment l’Analyse, verront avec plaisir la Méchanique en devenir une nouvelle brance, & me sauront gré d’en avoir étendu ainsi le domaine.

22.1.2

Serie di Fourier in L2 , analisi modale e riduzione di modelli infinitodimensionali a modelli finito-dimensionali.

Il fatto che la Meccanica Lagrangiana (almeno nella sua formulazione originaria) consideri soltanto modelli finito-dimensionali può sembrare una seria limitazione al suo ambito di applicabilità: in particolare si può pensare che molte strutture d’interesse ingegneristico non siano descrivibili con i suoi metodi. Tale obiezione non è fondata. In primo luogo, infatti, è ben noto che le sue tecniche ed i suoi risultati, grazie alla analisi funzionale, possono essere estesi al caso infinito-dimensionale: alcuni lavori di Arnold [2] dimostrano che i metodi della Meccanica Analitica possono fruttuosamente estendersi anche allo studio del moto dei fluidi; nella collana di testi di Landau e Lifchitz [22] come in molti manuali utilizzati dalla scuola francese (si vedano ad esempio i testi di Berest) le equazioni fondamentali della teoria dei campi sono dedotte da un principio di minima azione a partire da una funzione densità volumica di azione. In secondo luogo, e tale circostanza ha un grande interesse soprattutto nelle applicazioni, la teoria delle serie di Fourier negli spazi di Hilbert permette di ridurre un modello infinito-dimensionale ad uno finito-dimensionale. Per essere più precisi: supponiamo che un dato modello descriva il moto di un dato sistema utilizzando un’equazione differenziale a derivate parziali (fra cui quella relativa alla variabile tempo). Sviluppando in serie di Fourier il campo incognito (rispetto alle sue variabili spaziali e per mezzo di una opportuna base di funzioni) la soluzione dell’equazione di partenza si riduce alla soluzione di una infinità numerabile di equazioni differenziali ordinarie (nella variabile tempo) in cui le funzioni incognite sono, appunto, gli introdotti coefficienti di Fourier. Quando (e ciò nelle applicazioni è sempre possibile introducendo opportune approssimazioni) sia ragionevole supporre che solo un numero finito di tali coefficienti di Fourier siano rilevanti alla descrizione dei fenomeni d’interesse, il modello infinito-dimensionale viene proiettato (nel senso della geometria negli spazi di Hilbert) su un modello finito-dimensionale. Prendiamo ad esempio in considerazione un filo omogeneo estensibile i cui estremi abbiano posizioni fissate, vincolato ad avere un moto piano e soggetto ad una assegnata forza per unità di linea. Descrivendo il moto del filo a partire da una configurazione di confronto rettilinea, nel modello di D’Alembert, si considera il campo scalare u (definito nel segmento [0, ] sua posizione di confronto) che rappresenta lo spostamento del filo nella direzione ortogonale ad [0, ] e si ottiene per esso la seguente equazione d’evoluzione: 2 ∂2u 2∂ u − a = f (x, t) ∂t2 ∂x2

in [0, ] × [t0 , ∞] ,

(22.1)

dove la funzione f (x, t) modella le forze applicate per unità di linea al filo e la costante a, che rappresenta la velocità di propagazione delle onde meccaniche nel filo, si può definire in termini delle sue densità di massa per unità di linea e rigidezza estensionale. Il modello di D’Alembert è infinito-dimensionale, perchè caratterizza lo stato del sistema che vuole descrivere per mezzo di una funzione u che appartiene allo spazio (infinito-dimensionale) delle funzioni due volte differenziabili rispetto alle variabili spazio e tempo. Tuttavia quando si considerino le serie di Fourier u(x, t) =

∞ X

n=1

un (t)φn (x),

f (x, t) =

∞ X

n=1

fn (t)φn (x),

22.2. MOTO, TRAIETTORIA, VELOCITÀ LAGRANGIANA.

297

avendo scelto la successione di funzioni φn (x) in modo tale che d2 φn = λn φn , dx2 l’equazione (22.1) è verificata esattamente se per ogni n d2 un − a2 λn un (t) = fn (t) dt2

in [0, ] × [t0 , ∞] .

(22.2)

Qualora si possano trascurare i coefficienti di Fourier per n > N allora il modello infinito-dimensionale si riduce ad un modello finito-dimensionale, in cui i parametri Lagrangiani sono dati dai coefficienti di Fourier ui (i = 1, ..N ) e le cui equazioni di evoluzione sono le (22.2).

22.2

Moto, traiettoria, velocità Lagrangiana.

Facendo riferimento ad un sistema dinamico qualunque, il cui stato si caratterizza per mezzo di n coordinate lagrangiane: q = (q1 , q2 , ..., qn ),

(22.3)

si introducono le seguenti definizioni. 1. Il moto di un sistema dinamico S è una funzione

q : [t0 , t1 ] ⊂ IR+ −→ IRn ,



⎜ ⎜ t 7→ q(t) = ⎜ ⎝

q1 (t) q2 (t) .. . qn (t)



⎟ ⎟ ⎟, ⎠

(22.4)

che ad ogni istante t associa il vettore q(t) delle sue coordinate Lagrangiane. Si denota con M = C 2 ([t0 , t1 ], IRn ) insieme dei moti di S. 2. Il vettore q([t0 , t]) ⊂ IRn è la traiettoria del sistema. 3. Supponendo che q (·) ∈ M , si dice vettore velocità lagrangiana (risp. accelerazione lagrangiana) il vettore ottenuto derivando q(·) rispetto al tempo: ⎞ ⎞ ⎛ ⎛ q¨1 (t) q˙1 (t) ⎜ q¨2 (t) ⎟ ⎜ q˙2 (t) ⎟ d2 d ⎟ ⎟ ⎜ ⎜ q ¨(t) = 2 q(t) → q (22.5) q(t) ˙ = q(t) → q(t) ¨(t) = ⎜ . ⎟ . ˙ = ⎜ . ⎟, dt dt ⎝ .. ⎠ ⎝ .. ⎠ q˙n (t) q¨n (t)

22.3

Problemi di ottimo e fondamenti di Calcolo delle Variazioni.

22.3.1

Principio di Fermat, funzionali.

Una volta che sia stato trovato un modello matematico per descrivere le possibili evoluzioni temporali degli stati di un dato sistema, cioè una volta che sia stata descritta la sua cinematica, si pone il problema di modellare le azioni esercitate su di esso dal mondo esterno e la sua capacità di risposta a tali azioni, in modo da stabilire delle equazioni differenziali che selezionino fra i moti possibili quelli che sono determinati da una data interazione. Come stabilito per la prima volta in maniera rigorosa da Cauchy, la scelta del sistema di equazioni differenziali (le equazioni d’evoluzione) che operano tale selezione deve essere fatta in maniera oculata. Infatti fissato lo stato iniziale del sistema e le sue modalità di interazione con il mondo esterno deve esserne univocamente determinato il moto. Tale circostanza sarà assicurata, nell’ambito del modello, quando sia stabilito un teorema d’unicità per la soluzione delle equazioni d’evoluzione. Che delle equazioni differenziali debbano essere introdotte per descrivere l’evoluzione di un sistema fu capito forse per la prima volta da Newton: egli introdusse, per il modello particella materiale, gli enti matematici che ne descrivevano l’interazione con il mondo esterno, e cioè le forze ad essa applicate, e caratterizzò ciascuna particella materiale con la sua massa inerziale, quantità scalare che ne determina la risposta dinamica (cioè l’accelerazione) e scrisse l’equazione differenziale che ne regge il moto (si rimanda il lettore al Capitolo 18) F = ma.

298

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

D’Alembert propose successivamente di ottenere, per un generico sistema meccanico, le equazioni d’evoluzione a partire da un principio di minima azione, che generalizzasse il Principio di Fermat per i cammini ottici. Per sistemi meccanici conservativi (cioè per sistemi meccanici per cui valga la legge di conservazione dell’energia meccanica) Hamilton dimostrò successivamente che un principio di minima azione (detto appunto Principio di Hamilton) poteva essere dimostrato a partire dalle leggi cardinali della dinamica. In questa sezione si deducono le equazioni d’evoluzione per un generico sistema dinamico finito dimensionale per cui valga il principio di minima azione. Esempio 291 Un particolare moto è la quiete di un sistema dinamico in una sua posizione d’equilibrio.Tali posizioni sono i punti di stazionarietà della sua energia potenziale. L’energia potenziale U di un sistema finito-dimensionale è una funzione delle n coordinate lagrangiane q1 , q2 , ..., qn . Come è noto dai corsi di Fisica e come si vedrà fra poco per determinare le posizioni di equilibrio di un dato sistema bisogna trovare l’insieme dei vettori q in cui il gradiente di U , ovvero la sua variazione prima, si annulla2 . In meccanica lagrangiana, estendendo le considerazioni fatte per determinare le posizioni d’equilibrio per i sistemi lagrangiani, si caratterizza il moto di un sistema dinamico per mezzo della seguente generalizzazione del principio di Fermat3 . Assioma 292 Principio di minima azione. Consideriamo la coppia (S, I) , dove S è un sistema dinamico ed I una sua interazione con il mondo esterno. Esiste una grandezza fisica scalare, detta azione, tale che i moti di S determinati da I rendono stazionaria l’azione. L’azione è espressa per mezzo di un “funzionale”, cioè una funzione che associa al moto un numero reale. Bisogna quindi generalizzare il concetto di variazione prima al caso di un funzionale sviluppando alcuni concetti della teoria del calcolo delle variazioni. Formuliamo quindi la Un funzionale è una applicazione che associa ad una n-pla di funzioni reali di variabile reale un numero reale. In particolare lo è l’azione A A : q(·) ∈ M 7→ A(q(·)) ∈ IR. (22.6) Si osservi che il termine “funzionale” è usato per denotare un classe particolare di “funzioni”, il dominio di un funzionale essendo costituito da funzioni di variabile reale. Diamo ora alcuni esempi. • Un primo semplice esempio di funzionale è dato dalla lunghezza di una curva che giace in un piano π. Sia Γ : t ∈ [t0 , t1 ] 7→ (x1 (t), x2 (t)) ∈ π una curva una volta differenziabile; il funzionale “lunghezza” associa alla coppia di funzioni di variabile reale {x1 (·), x2 (·)} il numero reale :4 =

Z

t1

t0

q x˙ 21 (t) + x˙ 22 (t)dt.

(22.7)

• Un secondo esempio di funzionale è dato dall’area della regione piana la cui frontiera sia una curva chiusa. In questo caso, il funzionale “area” associa alla coppia di funzioni di variabile reale {x1 (·), x2 (·)} un numero reale A (Γ) : I Z t1 x2 (t)x˙ 1 (t)dt = x2 dx1 . (22.8) A (Γ) = t0

Γ

• Il problema isoperimetrico. Un semplice esempio di problema di ottimo, risolto per la prima volta, come tramanda la tradizione, da Didone è il seguente: “determinare la curva chiusa una volta differenziabile avente un perimetro assegnato, che delimita un’area massima”. Utilizzando i funzionali appena introdotti questo problema R t p si può formulare così: “Trovare fra le curve chiuse R t Γ una volta differenziabile con perimetro P = t0 x˙ 21 (t) + x˙ 22 (t)dt quelle che racchiudono l’area A = t0 [x2 (t)x˙ 1 (t)]dt massima”.

2 Consideriamo

lo sviluppo in serie di Taylor di U :

U (q) = U(q0 ) + ∇U|q=q0 · (q − q0 ) + o(kq − q0 k)) l’addendo nel riquadro è detto variazione prima della funzione U nell’intorno di q0 . 3 Pierre de Fermat enunciò il principio di minimo per i cammini ottici. La deduzione da un principio variazionale della legge della riflessione dei raggi luminosi è presente già nella Catoptrica di Erone d’Alessandria (circa I. sec. a.C.), come riferito da Olimpiodoro: Perchè, come tutti concorderanno, la Natura non fa nulla, nè lavora, invano; ma se non garantiamo che gli angoli di incidenza e di riflessione sono uguali, la Natura lavorerebbe invano, seguendo angoli diseguali, e l’occhio percepirebbe un oggetto da un cammino più lungo invece che da quello più breve. La cosiddetta legge di Snell-Descartes è dedotta con metodi analoghi nel Libro sugli strumenti ustori trascrizione araba del 982 d.C di un’opera greca perduta. 4 Con il simbolo x(·) ˙ si denota la funzione derivata della funzione x(·).

22.3. PROBLEMI DI OTTIMO E FONDAMENTI DI CALCOLO DELLE VARIAZIONI.

299

• Consideriamo una particella materiale soggetta ad una forza conservativa di potenziale U e di massa m. Chiameremo azione il funzionale che associa al moto x(·) durante l’intervallo temporale [t0 , t1 ] della particella materiale il numero reale Z t1 ³ ´ m 2 A(x(·)) = (22.9) x˙ (t) − U (x(t)) dt. 2 t0 • Consideriamo un agente economico A che produce n beni. Sia q(t) = (q1 (t), .., qn (t)) il vettore quantità prodotta, nell’unità di tempo, all’istante t di ciascuno di tali beni e sia p(t) = (p1 (t), .., pn (t)) il vettore dei loro prezzi di scambio. Sia infine C la funzione che associa alla quantità prodotta q(t) e alla velocità di produzione q(t) ˙ i costi di produzione. Sia µ il tasso d’interesse cui è soggetto A, allora il suo guadagno, nell’intervallo [t0 , t1 ] , è dato dal funzionale: G :=

Z

t1 t0

exp (−µ (t − t0 )) (p (t) ·q (t) − C (q (t) , q˙ (t))) dt.

(22.10)

Ovviamente A ha la tendenza a scegliere la sua strategia produttiva q (t) in modo da massimizzare G. Vogliamo qui esplicitamente avvertire il lettore che riguardo la possibilità di accettare, come assioma fondamentale in meccanica o più in generale in fisica, la validità per ogni sistema di un principio di minima azione si è accesa in letteratura una controversia dai toni talvolta molto simili a quelli delle dispute teologiche medioevali. Molti autori negano che un tale assioma sia valido perchè un principio di minima azione sarebbe incapace di descrivere i processi irreversibili. Altri, anche sulla base di alcuni pregevoli risultati matematici, ritengono che, invece, ogni tipo di fenomeno possa essere descritto per mezzo di un principio di minima azione. Per maggiori dettagli su questa questione si rimanda il lettore a Landau-Lifchitz [22].

22.3.2

Equazioni di Eulero-Lagrange.

Il Calcolo delle Variazioni permette di determinare delle equazioni differenziali (dette di Eulero-Lagrange) per mezzo delle quali si possono risolvere i problemi di ottimo per funzionali. Dal momento che lo utilizzeremo per le applicazioni alla meccanica considereremo funzionali definiti sull’insieme dei moti M di un sistema lagrangiano senza limitarci a funzionali definiti su insiemi di curve. Si noti infatti che mentre nel problema isoperimetrico (di natura puramente geometrica) dell’esempio 22.3.1 si ricerca una curva che renda ottimo un funzionale, il principio di minima azione caratterizza un moto del sistema considerato fissandone la sua traiettoria ma anche la legge oraria con cui la traiettoria è percorsa. Denoteremo con M I (t0 , q0 , t1 , q1 ) ⊂ M l’insieme dei moti che si svolgono fra le stesse configurazioni iniziali e finali nello stesso intervallo di tempo (detti moti variati sincroni tra estremi fissi oppure moti isocroni): q(t0 ) = q0 ; q(t1 ) = q1 . (22.11) cui

Fissato un moto q(t), con t ∈ [t0 , t1 ], diremo variazione ammissibile del moto una funzione δq(t) per δq(t0 ) = 0 e δq(t1 ) = 0,

cosicchè il moto q(t) + δq(t) è isocrono a q(t). Una funzione L : IRn × IRn × IR → IR, (q, q, ˙ t) 7→ L(q, q, ˙ t),

(22.12)

(22.13)

è detta funzione lagrangiana se ∂2L è definita positiva. ∂ q˙i ∂ q˙j

(22.14)

Data una lagrangiana L, il funzionale d’azione viene definito nell’insieme delle funzioni q(·) ∈ M. L’immagine di q(·) è data dalla: Z t1 A (q (·)) = L(q(t), q(t), ˙ t)dt. (22.15) t0

La funzione lagrangiana servirà a modellare sia l’interazione di un dato sistema con il mondo esterno sia le sue proprietà costitutive, cioè la sua capacità di risposta alle azioni esterne. Possiamo ora dare una formulazione più precisa del principio di Fermat, dovuta a D’Alembert .e valida per modelli finito-dimensionali.

300

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

Assioma 293 Scelta la Lagrangiana L, fra tutti i moti possibili in M , l’interazione che essa modella determina, sul sistema considerato, l’evoluzione descritta dal moto q∗ che rende stazionario il funzionale d’azione ristretto all’insieme M I dei moti isocroni a q∗ . Si ribadisce qui che un moto rende stazionario il funzionale d’azione quando la variazione prima di tale funzionale calcolato a partire da tale moto è nulla. Nel sottosezione seguente impareremo a calcolare la variazione prima del un funzionale di azione. Variazione prima del funzionale d’Azione. Calcolo della variazione prima del funzionale d’Azione (22.15). Consideriamo la variazione del funzionale di azione su moti isocroni a q∗ : Z t1 [L(q∗ + δq, q˙ ∗ + δ q, ˙ t) − L(q∗ , q˙ ∗ , t)]dt (22.16) δA|q∗ := A(q∗ + δq) − A(q∗ ) = t0

Per la differenziabilità di L e sviluppando in serie di Taylor5 ,

˙ t) − L(q∗ , q˙ ∗ , t) L(q∗ + δq, q˙ ∗ + δ q, ∂L ∂L = · δq + · δ q˙ + o(δq, δ q) ˙ ∂q ∂ q˙ ¯ ¯ X ∂L ¯ X ∂L ¯ ¯ δqi + ¯ δ q˙j + o(δqi , δ q˙j ). = ∂qi ¯ ∗ ∂ q˙j ¯ ∗ q

i

la variazione prima di A è data da:

δA|q∗ =

Zt1 Ã

t0

Utilizzando le

µ

! ¯ ¯ ∂L ¯¯ ∂L ¯¯ · δq + · δ q˙ dt. ∂q ¯q∗ ∂ q˙ ¯q∗

¶ µ ¶ ∂L d ∂L ∂L · δq = · δq + · δ q, ˙ ∂ q˙ dt ∂ q˙ ∂ q˙ ∙ ¸t1 ∂L δq(t0 ) = δq(t1 ) = 0 ⇒ = 0, δq ∂ q˙ t0

d dt

si ha: δA|q∗ =

Zt1 "

t0

(22.17)

q

j

# à ¯ ¯ ! ∂L ¯¯ d ∂L ¯¯ · δq dt. · δq − ∂q ¯q∗ dt ∂ q˙ ¯q∗

(22.18)

(22.19) (22.20)

(22.21)

La variazione prima di un funzionale come generalizzazione del concetto di gradiente. Si è così giunti ad una generalizzazione del concetto di gradiente di funzioni reali di più variabili reali. L’idea di questa generalizzazione fu di Eulero; Gateau e Frechet ne hanno dato la formalizzazione moderna (si veda ad es. [11]). Per chiarire meglio questo punto si osservi il seguente parallelo: data una funzione f (x) è noto che, sviluppando in serie di Taylor ed a meno di infinitesimi di ordine superiore al primo, si ha: f (x) − f (x0 ) ∼ = gradf |x=x0 (x − x0 ).

(22.22)

Un punto x0 è detto di stazionarietà se e solo se grad f |x0 = 0, che equivale ad imporre che la variazione prima della f sia nulla nei punti di stazionarietà. Analogamente alla (22.22) vale la # à ¯ ¯ ! Z t1 " d ∂L ¯¯ ∂L ¯¯ · δq − · δq dt. (22.23) δA|q∗ := ∂q ¯q∗ dt ∂ q˙ ¯q∗ t0

Si osserva allora che le variazioni prime della funzione f e del funzionale A si ottengono applicando rispettivamente alle variazioni (x − x0 ) e δq le applicazioni lineari le cui immagini sono date da grad f |x=x0 (x − x0 ) e da δA|q∗ . Un moto q∗ si dice stazionario (o estremale) per l’azione se la variazione prima dell’azione δA|q∗ è nulla. In formule, q∗ è estremale se e soltanto se: δA|q∗ = 0, 5 Quando

∀δq : δq(t0 ) = δq(t1 ) = 0.

sarà conveniente verrà utilizzata la notazione

∂L ∂q

e

∂L ∂q ˙

(22.24)

per i vettori delle derivate parziali di L rispetto a qh e q˙h .

22.4. ENERGIA CINETICA E POTENZIALE IN SISTEMI DI CORPI VINCOLATI. Il teorema di Eulero-Lagrange. Il moto di q∗ è stazionario per l’azione se e solo se # µ ¶¶ Z t1 "µ ∂L d ∂L · δq dt = 0, ∀δq : δq(t0 ) = δq(t1 ) = 0. − ∂q dt ∂ q˙ t0 q∗

301

(22.25)

Questa condizione, stante il teorema di Lagrange6 comporta la seguente: Proposizione 295 Condizione necessaria e sufficiente affinchè un moto q = q(t) ∈ M renda stazionaria l’azione per variazioni sincrone tra estremi fissi è che esso sia soluzione del problema differenziale: µ

∂L d − ∂q dt

µ

∂L ∂ q˙

¶¶

½

= 0,

q∗

qk∗ (t0 ) = qk1 , qk∗ (t1 ) = qk2

k = 1.....n.

(22.26)

Le equazioni (22.26) si dicono equazioni di Eulero-Lagrange associate al problema variazionale (22.24). Esplicitiamo a questo punto l’equazione di Eulero-Lagrange calcolando la derivata totale rispetto al tempo con la regola di derivazione delle funzioni composte ∂2L ∗ ∂2L ∗ ∂2L ∂L q ¨ + q˙ + − = 0. ∂ q∂ ˙ q˙ ∂q∂ q˙ ∂ q∂t ˙ ∂q

(22.27)

È importante osservare che per le ipotesi fatte sulla lagrangiana, l’equazione (22.27) può essere posta in forma ∂2L è definita positiva (e quindi ne esiste l’inversa) normale, perché la matrice ∂ q∂ ˙ q˙ ∗

q ¨ =

µ

∂2L ∂ q˙ ∂ q˙

¶−1 µ

∂L ∂2L ∂2L ∗ − q˙ − ∂q ∂q∂ q˙ ∂ q∂t ˙



.

(22.28)

Poichè per la (22.28) vale il teorema di esistenza ed unicità della soluzione, una volta fissati i dati iniziali (Cauchy), si può affermare che per un sistema che rispetta il principio di minima azione vale la legge del determinismo meccanico: per un tale sistema l’evoluzione è univocamente determinata dalle sue coordinate e velocità lagrangiane iniziali.

22.4

Energia cinetica e potenziale in sistemi di corpi vincolati.

Dato un sistema meccanico, in particolare una struttura di corpi vincolati soggetta ad assegnate azioni esterne, si pone ora il problema di determinare una funzione lagrangiana che permetta di caratterizzarne il moto. In questa sezione discuteremo un importante risultato dovuto ad Hamilton: per ogni sistema di corpi la cui cinematica può essere caratterizzata con un numero finito di parametri lagrangiani soggetto a forze conservative ed a vincoli privi di attrito, le equazioni cardinali della dinamica sono equivalenti ad un principio di minima azione, che è appunto detto di Hamilton. Questo risultato permette di studiare più agevolmente molte strutture, tenuto conto che in generale trascurare gli attriti, nell’ambito delle applicazioni ingegneristiche, conduce a sottostimare la loro capacità di resistere alle sollecitazioni esterne. Bisogna tuttavia notare che, contrariamente a quanto talvolta viene tacitamente accettato in letteratura, il teorema di Hamilton non implica che per sistemi non conservativi non sia possibile trovare un’azione. Si consideri un sistema S di N corpi vincolati ad n gradi di libertà e sia q una sua n-pla di coordinate lagrangiane. Poichè lo stato del sistema è determinato univocamente dalle q, la posizione di ogni punto materiale P del sistema di corpi è data da una relazione del tipo: rP = rP (q,t),

(22.29)

che rispecchia la struttura geometrica e cinematica di S. La funzione r che associa alla terna (P, q,t) la posizione rP (q,t) è detta funzione di configurazione del sistema S. Consideriamo un moto q(t) di S. In 6

Teorema 294 di Lagrange. Sia [a, b] ⊂ IR e siano f : [a, b] → IR,

g : [a, b] → IR,

continue nel loro dominio. Allora ]

b

f (t) g (t) dt = 0 a

∀g (t) ⇐⇒ f (t) = 0

∀t ∈ [a, b] .

302

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

termini della rP (q,t) si può esprimere la funzione campo di velocità del sistema o atto di moto che associa alla terna (P, q, q) ˙ la velocità v(P ) del punto P in funzione di q, q: ˙ d ∂rP (q(t), t) ∂rP (q(t), t) ∂rP (q(t), t) q˙1 + . . . + q˙n + rP (q(t), t) = dt ∂q1 ∂qn ∂t ∂rP (q(t), t) ∂rP (q(t), t) q˙ + . = ∂q ∂t

v(P, q, q,t) ˙ =

(22.30)

Si chiameranno vincoli dipendenti dal tempo quelli per cui esiste una configurazione q per cui ∂rP (q) 6= 0. ∂t Analogamente si può esprimere il campo di accelerazione del sistema che associa alla lista (P, q, q, ˙ q ¨) l’accelerazione a(P ) del punto P in funzione di q, q, ˙ q ¨ d v(P, q, q,t) ˙ (22.31) dt ∂ 2 rP (q(t), t) ∂ 2 rP (q(t), t) ∂ 2 rP (q(t), t) ∂ 2 rP (q(t), t) ∂rP (q(t), t) . q ¨ + q˙ T q+ ˙ q˙ + q˙ + = 2 ∂q ∂ q ∂q∂t ∂t∂q ∂t2

a(P, q, q, ˙ q ¨,t) =

Consideriamo una variazione δq delle coordinate lagrangiane del sistema S. Chiameremo spostamento virtuale di S a partire dalla configurazione q∗ il campo δrP (q∗ , δq,t) =

n X ∂rP (q∗ , t) ∂rP (q∗ , t) δqh = δq. ∂qh ∂q

(22.32)

h=1

L’insieme dei campi di spostamento ottenuti dalla (22.32) facendo variare δq è detto insieme degli spostamenti virtuali di S a partire dallo stato q∗ . Si noti che il campo δrP è il campo di spostamenti ottenuti nel sistema di corpi S variando di δq le variabili lagrangiane ma assumendo bloccati all’istante t i vincoli: ∂rP (q∗ , t) infatti nella (22.32) non appare la derivata parziale che tiene conto dello spostamento di P indotto ∂t dalla loro dipendenza dal tempo. Sia Ci (i = 1, .., N ) il generico degli N corpi che formano S. L’ energia cinetica di S in un atto di moto v(P, t) è definita da: Z N X 1 v(P, t) · v(P, t)dmP , (22.33) T = 2 i=1 Ci

dove dmP denota la densità di massa del punto P. Introducendo la (22.30) in (22.33) si ha: " n µ # " n µ # N Z X ∂rP ¶ ∂rP X ∂rP ¶ ∂rP 1X T = q˙h + q˙k + · dmP . 2 i=1 ∂qh ∂t ∂qk ∂t Ci

h=1

(22.34)

k=1

Poichè la velocità lagrangiana q˙ non dipende da P si ottiene la forma lagrangiana dell’energia cinetica T =

n X n X 1

h=1 k=1

2

ahk (q, t)q˙h q˙k +

n X

bh (q, t)q˙h + b0 (q, t),

(22.35)

h=1

dove si è posto: ahk (q, t) :=

¶ N Z µ X ∂rP ∂rP · dmP , ∂qh ∂qk i=1

(22.36)

Ci

bh (q, t) :=

N Z X i=1 C

i

b0 (q, t) :=

1 2

µ

N Z X i=1 C

i

∂rP ∂qh



·

∂rP dmP , ∂t

∂rP ∂rP · dmP . ∂t ∂t

(22.37)

(22.38)

22.4. ENERGIA CINETICA E POTENZIALE IN SISTEMI DI CORPI VINCOLATI.

303

Denotando con A = (ahk ), la matrice dell’energia cinetica, nel caso di vincoli indipendenti dal tempo, si ha: n n 1 1 XX T = q˙ T Aq˙ = ahk (q, t)q˙h q˙k . (22.39) 2 2 h=1 k=1

La determinazione della forma lagrangiana dell’energia cinetica è quindi possibile quando siano note: • la struttura geometrica e cinematica del sistema, come rappresentata dalla funzione di configurazione del sistema; • la distribuzione delle masse dei corpi che formano S. È inoltre semplice verificare che: • A = AT per la simmetria del prodotto scalare; • A in generale dipende dalla configurazione del sistema; • A è definita positiva. Per l’energia cinetica vale la seguente Proposizione 296 (Teorema delle forze vive). La variazione prima dell’energia cinetica calcolata nel moto q∗ (t) corrispondente ad una variazione ammissibile del moto δq(t) è uguale al lavoro fatto dalle forze d’inerzia sullo spostamento virtuale δrP (q∗ , δq(t),t). In formule: ⎞¯ ⎛ ⎞ ⎛t ¯ Z1 Zt1 X N Z ¯ ˙ t)dt⎠¯¯ = ⎝ −a(P, q∗ , q˙ ∗ ,t) · δrP (q∗ , δq(t),t) dmP ⎠ dt. (22.40) δ ⎝ T (q(t), q(t), ¯ i=1 t0

t0

q∗

Ci

Dimostrazione Si cominci con l’applicare il teorema di Eulero-Lagrange per calcolare la variazione prima dell’energia cinetica ⎛t ⎞¯ # ¯ µ ¶¶ Z1 Zt1 "µ ¯ ∂T d ∂T δ ⎝ T (q(t), q(t), ˙ t)dt⎠¯¯ = · δq(t) dt. (22.41) − ∂q dt ∂ q˙ ¯ q∗ t0

q∗

t0

Successivamente si considerino le uguaglianze, ottenute a partire dalla definizione (22.33) e dalla (22.30) N

X ∂T = ∂q i=1

Z

∂v(P, t) · v(P, t)dmP , ∂q

(22.42)

Ci

N Z N Z X X ∂T ∂v(P, t) ∂ rP (q(t), t) = · v(P, t)dmP = · v(P, t)dmP , ∂ q˙ ∂ q ˙ ∂q i=1 i=1 Ci

d dt

µ

∂T ∂ q˙



=

(22.43)

Ci

N Z N Z X X ∂rP (q(t), t) ∂vP (q(t), t) · a(P, t)dmP + · v(P, t)dmP , ∂ q ∂q i=1 i=1 Ci

(22.44)

Ci

d ∂T − ∂q dt

µ

∂T ∂ q˙



=

N Z X i=1 C

−a(P, t) ·

∂ rP (q(t), t) dmP . ∂q

(22.45)

i

Per ottenere la (22.40) basta ora moltiplicare entrambi i membri della (22.45) per δq(t), integrare sull’intervallo [t0 , t1 ] e ricordare la (22.32). Consideriamo un sistema di forze Σ, di densità dfP (q∗ , q˙ ∗ ,t) applicato all’istante t al generico punto materiale P di S . Il lavoro fatto da Σ sullo spostamento virtuale δrP (q∗ , δq,t) è dato dalla L(Σ) =

N Z X i=1 C

i

dfP (q∗ , q˙ ∗ ,t) · δrP (q∗ , δq,t) dV =: Q (q∗ , q˙ ∗ ,t) · δq.

(22.46)

304

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

dove il vettore Q (q∗ , q˙ ∗ ,t) è detto vettore delle componenti lagrangiane di Σ ed ha come componente h−ma N Z X ∂ rP (q∗ , t) ∗ ∗ Qh (q , q˙ ,t) := dfP (q∗ , q˙ ∗ ,t) · dV. (22.47) ∂ qh i=1 Ci

Il sistema di forze Σ è detto conservativo rispetto al sistema S se ha componenti lagrangiane indipendenti dalle velocità lagrangiane e se esiste una funzione scalare U (q∗ , t), detta energia potenziale, per cui vale la Qh (q∗ ,t) = −

∂U (q∗ , t) . ∂qh

(22.48)

Possiamo ora enunciare la seguente proposizione, nota come teorema di Hamilton: Proposizione 297 Sull’esistenza dell’azione per sistemi di corpi vincolati ad un numero finito di gradi di libertà. Dato un sistema di corpi vincolati, la cui cinematica può essere caratterizzata con un numero finito di parametri lagrangiani, soggetto a forze conservative e in presenza di vincoli perfetti, le equazioni cardinali della dinamica e il principio di Kirchhoff sono equivalenti al principio di stazionarietà dell’azione con lagrangiana data dalla differenza fra energia cinetica ed energia potenziale. Dimostrazione Limiteremo la dimostrazione al caso in cui S sia composto da corpi solo soggetti ad atti di moto rigido7 . S è formato dai corpi Ci (i = 1, .., N ) . Supponiamo che, fissate la configurazione e la velocità iniziale di S, insieme alle forze esterne ed i vincoli ad esso applicati, la funzione q∗ (·) ne descriva il moto nell’intervallo [t0 , t1 ]. Per ciascun Ci valgono le equazioni cardinali della dinamica ( (a) (v) (m) 0 = Ri∗ = Ri + Ri + Ri (22.49) (a) (v) (m) , 0 = Mi∗ = Mi + Mi + Mi dove Ri∗ ed Mi∗ rappresentano la risultante ed il momento risultante di tutte le forze (incluse quelle d’inerzia la (m) (m) cui risultante e momento risultante sono denotati Ri ed Mi ) applicate a Ci durante il moto q∗ (·). Le forze applicate su Ci dal mondo esterno sono distinte in attive e vincolari: la risultante ed il momento risultante delle (a) (a) forze attive Ri ed Mi sono assunte, ad ogni istante t, esplicitamente note come funzioni delle coordinate (v) (v) q∗ (t) e velocità lagrangiane q˙ ∗ (t) mentre quelli relativi alle reazioni vincolari Ri e Mi si assumono determinati dal postulato di Kirchhoff (cfr. sezione 18.2.5). All’istante t consideriamo una generica variazione δq(t) delle coordinate lagrangiane ed il conseguente campo di spostamenti virtuali δrP (q∗ (t),δq(t),t), permesso dai vincoli ad S, a partire dallo stato q∗ (t) : poichè per ipotesi ogni corpo Ci si muove necessariamente di moto rigido tale spostamento virtuale comporta per ciascuno di essi una rotazione infinitesima δϕi (q∗ (t),δq(t),t). Supponiamo che, come funzione del tempo, la δq(t) verifichi tutte le condizioni specificate nella definizione 22.12 e calcoliamo il prodotto scalare delle (22.49) rispettivamente con δrOi (q∗ (t),δq(t),t) (Oi essendo un punto materiale di Ci ) e con la rotazione δϕi (q∗ (t),δq(t),t) di Ci corrispondente a δrP (q∗ (t),δq(t),t) ( (a) (v) (m) 0 = (Ri + Ri + Ri ) · δrOi (q∗ (t),δq(t),t) , (22.50) (a) (v) (m) 0 = (Mi + Mi + Mi ) · δϕi (q∗ (t),δq(t),t) Ricordando l’espressione per il lavoro speso su uno spostamento rigido e sommando su tutte le i, la (22.50) si ottiene L(a) + L(v) + L(m) = 0; (22.51) dove L(a) , L(v) e L(m) denotano rispettivamente il lavoro speso dalle forze attive, dalle reazioni vincolari e dalle forze d’inerzia sull’atto di moto δrP (q∗ (t),δq(t),t) di S. Poiché i vincoli sono perfetti L(v) = 0, e vale la relazione simbolica di D’Alembert: L(a) + L(m) = 0,

(22.52)

che può esprimersi anche affermando che: il lavoro speso dalle forze attive su uno spostamento virtuale è uguale al lavoro delle forze di inerzia cambiato di segno. In particolare, se il sistema è in quiete nella configurazione q ¯, cioè se q∗ (t) = q ¯, le forze di inerzia si annullano e quindi vale la relazione: L(a) = 0.

(22.53)

7 La dimostrazione di questo teorema nel caso più generale è abbastanza complessa nell’ambito dell’assiomatica di Noll, che temporaneamente abbiamo fatta nostra. Infatti in tale assiomatica si sceglie come concetto primitivo la forza e la potenza viene riguardata come concetto derivato, introdotto per mezzo di opportune definizioni.

22.5. PICCOLI MOTI INTORNO AD UNA CONFIGURAZIONE D’EQUILIBRIO STABILE.

305

Quest’ultima relazione si esprime affermando che in presenza di vincoli perfetti la potenza spesa da un sistema di forze attive a partire da una configurazione d’equilibrio su uno spostamento virtuale si annulla. Nel suo sull’ Equilibrio, Archimede utilizza ripetutamente la (22.53), in particolare per dedurre le leggi dell’equilibrio delle leve. Il teorema sarà completamente dimostrato se per l’azione A con lagrangiana L(q, q, ˙ t) = T (q, q,t)−U ˙ (q,t) (si vedano la (22.15) e le definizioni (22.33), (22.48)) si ha:

δA|q∗

Zt1 ³ ´ = L(a) + L(m) dt.

(22.54)

t0

Ma la (22.54) è facilmente dedotta, per l’ipotesi di conservatività del sistema di forze attive, dalle (22.46), (22.48) e dal teorema delle forze vive (proposizione 296).

22.5

Piccoli moti intorno ad una configurazione d’equilibrio stabile.

22.5.1

Configurazioni di equilibrio stabili ed instabili.

È utile caratterizzare una particolare sottoclasse di moti: quelli in cui il sistema considerato rimane in tutti gli istanti di tempo nella stessa configurazione. La funzione moto in questo caso è una funzione costante (rispetto la variabile tempo). Che le leggi della meccanica potessero essere unitariamente formulate sia per descrivere i fenomeni statici che quelli in cui il sistema considerato cambia configurazione nel tempo fu esplicitamente e chiaramente stabilito da D’Alembert e Lagrange. Dopo la loro fondazione della Meccanica Analitica ha perso senso, almeno a livello di formulazione assiomatica, la divisione della Meccanica in Statica e Dinamica (si veda a questo proposito l’avertissement riportato nella Introduzione a questo Capitolo). Assegnata una azione esterna attiva possono esistere, per un sistema dato, delle configurazioni d’equilibrio. In tali configurazioni il sistema permane indefinitamente nel tempo se vi si trova a velocità nulla. Le posizioni di equilibrio possono distinguersi in posizioni di equilibrio ‘stabile’ o ‘instabile’: una configurazione è di equilibrio stabile se piccole variazioni della posizione o velocità iniziali del sistema determinano moti del sistema in un suo intorno piccolo. Dirichelet congetturò che tutte e sole le posizioni di equilibrio stabile fossero di minimo per l’energia potenziale. Per tentare di dare una formulazione precisa dei concetti cui si è appena accennato (e per poter sperare di trovare una dimostrazione di questa congettura) bisogna dare una definizione rigorosa di posizione di equilibrio e della sua stabilità. In questa sezione si limita l’attenzione ad un sistema caratterizzato da una funzione lagrangiana indipendente dal tempo8 : L : q 7−→ T (q, q)−U ˙ (q). (22.55) Una configurazione q0 è detta configurazione di equilibrio se il moto q : t 7→ q0 è soluzione dell’equazione di Eulero-Lagrange. Proposizione 298 Una configurazione q0 è di equilibrio se e soltanto se ¯ ∂U ¯¯ = 0. ∂q ¯q0 Dimostrazione Dimostrazione del verso ⇒. Poichè µ ¶ µ ¶ d ∂L d ∂T ∂U =0⇒ = , ∂ q˙ dt ∂ q˙ dt ∂ q˙

si ha che:

8 Molti



d dt

µ

∂T ∂ q˙





d dt

µ

¯ ¶¯ ∂L ¯¯ ∂L ¯¯ − = 0, ∂ q˙ ¯q0 ∂q ¯q0

¸¯ ∂T ∂U ¯¯ = 0. + ∂q ∂q ¯q0

(22.56)

(22.57)

(22.58)

economisti e pianificatori ritengono che i loro sistemi non siano descrivibili per mezzo del formalismo Lagrangiano. In realtà alcune delle loro osservazioni critiche sono fondate solo se si cerchi di descrivere l’evoluzione dei sistemi cui sono interessati per mezzo di Lagrangiane indipendenti dal tempo. Le considerazioni di questa sezione debbono quindi essere generalizzate (per esempio come fatto nel citato testo di Arnold) se le si voglia applicare per la descrizione dei fenomeni citati.

306

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

Ricordando la (22.39) si hanno le: ¯ ¶¯ µ n ∂a n P n ¯ P P d ∂T ¯¯ hk ¯ = q ˙ q ˙ + a (q) q ¨ = 0; l k hk k¯ ¯ dt ∂ q˙h q(t)=q0 k=1 l=1 ∂ql k=1 q(t)=q0

(22.59)

¯ ¯ n ∂a n P ¯ P ∂T ¯¯ hk ¯ = q ˙ q ˙ = 0. h ¯ ¯ ∂qr q(t)=q0 h=1 k=1 ∂ qr q(t)=q0

Pertanto se q0 è una posizione di equilibrio per (22.58) deve essere: ¯ ∂U ¯¯ = 0. ∂q ¯q0

(22.60)

∂U = 0, l’equazione di Eulero-Lagrange è immediatamente soddisfatta da ∂q µ ¶ d ∂T ∂T e sono identicamente nulle. q(t) = q0 , poiché, come visto in precedenza, dt ∂ q˙ ∂q ∗ La configurazione q è una configurazione di equilibrio stabile secondo Liapunov se vale che: Dimostrazione del verso ⇐. Se

∀ε > 0 ∃δ p (ε, q∗ ), δ v (ε, q∗ ) ∈ IR+ : kq(t, q0 , q˙ 0 ) − q∗ k < ε,

kq0 − q∗ k < δ p (ε, q∗ ), kq˙ 0 k < δ v (ε, q∗ ) ⇒

kq(t, ˙ q0 , q˙ 0 )k < d∗ ε,

∀t ∈ IR+ ,

(22.61)

dove q(t, q0 , q˙ 0 ) denota il moto di S relativo ai dati iniziali q0 , q˙ 0 .e d∗ rappresenta un opportuno fattore dimensionale, caratteristico della configurazione q∗ e del sistema S. I coefficienti δ p (ε, q∗ ) e δ v (ε, q∗ ) sono detti coefficienti di stabilità.per S. La definizione precedente può sembrare astratta e di natura puramente matematica: tuttavia essa è fortemente motivata dalle applicazioni e permette la formulazione precisa di importanti problemi ingegneristici. Consideriamo ad esempio la configurazione d’equilibrio e in cui si trova una struttura S reticolare, quando soggetta ad un carico d’esercizio. Indichiamo con ¯δ p e ¯δ v gli spostamenti e gli impulsi massimi attesi indotti dagli ulteriori carichi applicati ad S 9 e sia ε una misura del massimo spostamento tollerabile dai vincoli applicati per realizzare S. Perchè S sia sicura è necessario che e sia d’equilibrio stabile, cioè che, almeno per le perturbazioni considerate, S non si allontani troppo da e. Inoltre una progettazione in sicurezza dovrà richiedere, anche, una stima quantitativa dei valori per i coefficienti di stabilità δ p (ε, q∗ ) e δ v (ε, q∗ ), in modo che si possa verificare l’ulteriore condizione ¯δ v ≤ αδ v (ε, q∗ );

¯δ p ≤ αδ p (ε, q∗ ),

(22.62)

dove α < 1 è un opportuno coefficiente di sicurezza. Si può dimostrare che vale la seguente (per una dimostrazione rimandiamo ad Arnold): Proposizione 299 Criterio di stabilità di Dirichlet. Se q∗ è di minimo per U allora q∗ è di equilibrio stabile. L’inversione del criterio di Dirichlet ha presentato molte difficoltà. Si può tuttavia dimostrare che Proposizione 300 Se q∗ è di equilibrio stabile ed U ∈ C 3 allora q∗ è di minimo per U.

22.5.2

Moti nell’intorno di una configurazione di equilibrio stabile. Modale.

Analisi

Assicurarsi che una data struttura S sia, in esercizio, in una configurazione di equilibrio stabile e che i suoi coefficienti di stabilità verifichino la (22.62) non è sufficiente ad escludere che una data perturbazione periodica, sebbene di piccola intensità (sempre secondo un criterio del tipo (22.62)), non ne metta in pericolo la stabilità. Infatti è stato verificato sperimentalmente10 che se la perturbazione ha come frequenza una delle frequenze d’oscillazione propria del sistema cui è applicata allora, indipendentemente dalla sua intensità, si verificano i fenomeni di risonanza. Tali fenomeni, che comportano una crescita illimitata nel tempo dell’ampiezza delle 9 Consideriamo, per il momento, solo carichi stazionari applicati a partire da un certo istante t oppure impulsi applicati 0 sempre all’istante t0 . 1 0 Purtroppo nella pratica dell’ingegneria civile si è cominciato a tenere conto dei fenomeni di risonanza solo quando crolli catastrofici hanno permesso di verificare sperimentalmente che le previsioni teoriche (di molto precedenti e già utilizzate con successo in altri campi) erano fondate.

22.5. PICCOLI MOTI INTORNO AD UNA CONFIGURAZIONE D’EQUILIBRIO STABILE.

307

oscillazioni indotte dalla perturbazione, sono spesso molto pericolosi, mentre altrettanto spesso risultano utili: si pensi ad esempio alle impreviste oscillazioni indotte sul Tacoma bridge dai venti che soffiavano nella gola che permetteva di superare oppure, di converso, al principio di funzionamento della trasmissione del suono per mezzo di onde radio. In questa sottosezione si vuole vedere come le equazioni di Lagrange permettono di prevedere e studiare i fenomeni di risonanza. Le equazioni di Lagrange sono equazioni non lineari. quantitativo.

Cenni sul loro studio qualitativo e

Si noti che le equazioni di Lagrange non sono lineari e che la soluzione di un sistema non lineare è in generale molto complessa. Infatti solo in pochissimi casi è possibile integrare equazioni differenziali non-lineari in forma chiusa, cioè determinare l’insieme delle loro soluzioni in termini di funzioni elementari o serie di funzioni elementari. Tuttavia, grazie ad una serie impressionante di teoremi dovuti principalmente a Gauss, Laplace, Poincarè ed Arnold, è stato possibile studiare con metodi geometrici le proprietà delle soluzioni di vari tipi di equazioni di Lagrange. In alcuni casi sono possibili analisi qualitative di tali equazioni determinando per esempio: • gli attrattori del sistema, cioè punti (elementi dello spazio n-dimensionale delle configurazioni) verso i quali il moto del sistema tende a “convergere”; • un sottoinsieme dello spazio delle configurazioni all’interno del quale il moto rimane confinato. • l’effetto di deviazione da un moto dato causato da variazioni di dati iniziali o azioni esterne. Possiamo studiare le equazioni di Lagrange anche in modo quantitativo utilizzando metodi numerici. Infatti la già ricordata dimostrazione del teorema di esistenza ed unicità per la soluzione delle equazioni differenziali dovuta a Cauchy è, come si dice, una dimostrazione costruttiva: si basa sulla definizione di un algoritmo di calcolo che permette di costruire una successione di funzioni che converge alla soluzione cercata. Inoltre, cosa molto importante per le applicazioni, essa fornisce anche una stima dell’errore commesso se si sostituisce alla soluzione cercata una data approssimazione. E’ per questa ragione che l’avvento dei moderni calcolatori digitali, che comporta una sempre maggiore capacità di calcolo, ha reso ancora più importante il metodo Lagrangiano per la descrizione dell’evoluzione nel tempo dei sistemi fisici: quando si sia determinata una Lagrangiana affidabile nella descrizione di una data classe di fenomeni l’ingegnere interessato alle applicazioni può ora prevedere il comportamento del sistema che sta progettando con grande accuratezza ed affidabilità. È importante notare che non esiste nessun sistema finito-dimensionale in cui si conserva l’energia, che non evolva seguendo un sistema di equazioni di Lagrange. Ciò portò Laplace, in un revival del determinismo della scuola di Democrito, a chiamare addirittura queste equazioni differenziali “equazioni dell’Universo”: infatti assumendo che l’Universo sia formato da un numero finito di atomi ed accettando il primo principio della Termodinamica è facile arrivare alla conclusione che un suo modello sufficientemente accurato possa essere ottenuto introducendo un numero di parametri Lagrangiani finito ed una opportuna Lagrangiana. Per sostanziare questa affermazione di principio Laplace sviluppò la sua Meccanica Celeste, che descrive il comportamento del sistema solare con grande accuratezza. Si potrebbe obiettare che lo studio del moto del sistema solare ha poco interesse pratico: a questa obiezione può rispondersi osservando innanzitutto che la possibilità di orientarsi nella navigazione marina e poi aerea è stata ottenuta grazie allo studio del moto dei pianeti e delle stelle rispetto alla terra (e che la topografia ha grandemente profittato delle nostre conoscenze astronomiche) e poi che gli strumenti matematici sviluppati da Laplace per la sua Meccanica Celeste hanno trovato utilizzi di enorme importanza nelle altre branche della scienza. Si pensi soltanto all’importanza della trasformata di Laplace nella Teoria dei Circuiti e nella Teoria dei Segnali. Concludiamo questa sezione invitando il lettore a scrivere l’equazione di Eulero-Lagrange corrispondente alla Lagrangiana (di un sistema ad un grado di libertà x) L = exp(µt)

µ

¶ 1 1 2 2 mx˙ + kx . 2 2

Si scoprirà facilmente che tale equazione è quella del moto armonico smorzato: il lettore potrà così cominciare a dubitare del fatto che il formalismo Lagrangiano possa essere utilizzato solo per sistemi conservativi.

308

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

Linearizzazione delle equazioni di Lagrange nell’intorno di una configurazione di equilibrio stabile. Molto più semplice è la determinazione delle soluzioni approssimate dell’equazione di Lagrange nel caso di piccoli moti in prossimità di una configurazione di equilibrio stabile. Poichè le traiettorie di tali moti sono contenute in un intorno di diametro ε di una configurazione di equilibrio stabile mentre per la velocità lagrangiana vale la maggiorazione kq(t, ˙ q0 , q˙ 0 )k < d∗ ε, (22.63) si ¡intuisce che una buona approssimazione delle soluzioni ricercate si può ottenere trascurando tutti i termini ¢ O ε2 nelle equazioni di Lagrange. In maniera più precisa si può affermare che il procedimento di linearizzazione consiste nel supporre di poter determinare un parametro adimensionale η che misura l’intensità della perturbazione, cosicchè il problema di Cauchy da risolvere per le equazioni di Lagrange è dato dalla µ ¶ d ∂L ∂L ˙ (22.64) − = ηQ0 (t) + Q1 (t) (q − q∗ ) + Q2 (t)q, dt ∂ q˙ ∂q q(t0 ) = q∗ + ηp0 ,

q(t ˙ 0 ) = η p˙ 0 ,

(22.65)



dove ηQ0 (t)+Q1 (t) (q − q )+Q2 (t)q˙ rappresenta il vettore delle componenti lagrangiane delle perturbazioni applicate.e Q1 (t), Q2 (t) sono delle applicazioni lineari rispettivamente di argomento (q − q∗ ) e q. ˙ Possiamo ora formalizzare l’ipotesi che il sistema lagrangiano sia soggetto a piccoli moti: infatti assumeremo che per la soluzione q(·) del sistema (22.64),(22.65) e per le sue velocità e le accelerazioni valgano gli sviluppi11 (dove i = 0, 1, 2): q(t) = q∗ + ηp(t, p0 , p˙ 0 , Qi (·)) + O(η 2 ), q(t) ˙ = η p(t, ˙ p0 , p˙ 0 , Qi (·)) + O(η 2 ),

(22.66)

2

q ¨(t) = η¨ p(t, p0 , p˙ 0 , Qi (·)) + O(η ). Vale la seguente Proposizione 301 Equazione dei Piccoli Moti nell’intorno di una posizione di equilibrio stabile. L’equazione differenziale implicata dalla (22.64) per la funzione p(t, p0 , p˙ 0 , Qi (·)) è ¨ + K∗ p = Q0 (t) + Q1 (t)p + Q2 (t)p, ˙ A∗ p

(22.67)

dove A∗ è la matrice dell’energia cinetica calcolata in q∗ e K∗ è detta matrice delle rigidezze del sistema S ed è definita in termini dell’energia potenziale dalla ¯ ∂ 2 U ¯¯ ∗ ∗ K = (Khk ) = . (22.68) ∂qh ∂qk ¯q∗ Ovviamente perchè le (22.65) siano verificate deve essere p(t0 , p0 , p˙ 0 , Qi (·)) = p0 ,

p(t ˙ 0 , p0 , p˙ 0 , Qi (·)) = p˙ 0 .

Dimostrazione Poichè q∗ è di equilibrio, e sviluppando, dove richiesto, in serie di Taylor con punto iniziale q∗ si hanno le uguaglianze: ¯ ¯ n n X X ∂ 2 U ¯¯ ∂U ¯¯ ∂U (q) ∗ 2 ∗ = + (q − q ) + O(η ) = η Khk pk + O(η 2 ), (22.69) k k ∂qh ∂qh ¯q∗ ∂qh ∂qk ¯q∗ k=1

Ã

k=1

!

n n n n 1 XX 1 X X ∂ahk (q) ahk (q)q˙h q˙k = q˙h q˙k + O(η 2 ), 2 2 ∂qr h=1 k=1 h=1 k=1 ¯ n X ∂ahk ¯ ¡ ¢ ¯ ahk (q) = ahk (q∗ ) + qj − qj∗ + O(η 2 ) ⇒ A(q) = A∗ + O(η), ¯ ∂qj q∗ j=1 µ ¶ ∂A(q) d ∂T d ¨+O(η 2 ). = [A(q)q] ˙ = A(q)¨ q + q˙ T q˙ =ηA∗ p dt ∂ q˙ dt ∂q

∂T (q) ∂ = ∂qr ∂qr

(22.70)

(22.71)

(22.72)

1 1 Si noti che non è affatto assicurato che la seconda e terza delle seguenti equazioni derivino dalle precedenti: una funzione può variare “poco” in valore assoluto ma avere derivate “grandi”.

22.5. PICCOLI MOTI INTORNO AD UNA CONFIGURAZIONE D’EQUILIBRIO STABILE.

309

Ricordando la (22.55), sostituendo gli sviluppi trovati nel primo membro della (22.64) e considerando il coefficiente lineare in η, si ottiene la (22.67)12 . Ovviamente nella proposizione precedente non si è dimostrato (e non è facile farlo) che per piccoli valori della η la soluzione della (22.67) per mezzo delle (22.66) fornisce una buona approssimazione della soluzione del problema (22.64), (22.65). Vogliamo osservare qui esplicitamente che per una dimostrazione di un tale teorema di convergenza della funzione approssimante alla soluzione esatta bisognerà in ogni caso supporre che q∗ sia di equilibrio stabile, perché altrimenti anche una piccola perturbazione dei dati iniziali e/o delle forze applicate potrebbe allontanare indefinitamente il sistema da q∗ , rendendo gli sviluppi (22.69)-(22.72) inutilizzabili. Analisi Modale delle equazioni (22.67) Il sistema di equazioni (22.67) è un sistema lineare che generalizza al caso n−dimensionale le equazioni dell’oscillatore armonico. In questa sottosezione si vedrà, nell’ipotesi in cui q∗ è di minimo stretto per l’energia potenziale, come la soluzione di (22.67), quando Q1 (t) è simmetrica definita positiva ed indipendente dal tempo e Q2 (t) = 0, possa ridursi appunto alla soluzione di n equazioni armoniche disaccoppiate. Per ottenere il risultato annunciato abbiamo bisogno di ricordare alcuni risultati che sono stati trovati nel Capitolo 8 della Parte I sulla diagonalizzazione delle matrici simmetriche. Allo scopo di rendere più snella la notazione nelle formule che seguono introduciamo anche la notazione, ⎞ ⎛ λ1 0 · · · 0 ⎜ 0 λ2 · · · 0 ⎟ ⎟ ⎜ Diag {λ1 , λ2 , ...λn } := Diag {λi } := ⎜ . .. .. ⎟ , .. ⎝ .. . . . ⎠ 0 0 · · · λn dove {λ1 , λ2 , ...λn } = {λi } è una qualsiasi n-pla di numeri. Cominciamo con il notare che:

1. la matrice A∗ dell’energia cinetica in q∗ è strettamente definita positiva e quindi invertibile 2. la matrice K∗ è simmetrica, ed essendo q∗ un punto di minimo stretto, anche strettamente definita positiva, 3. Vale la seguente: Proposizione 302 Se una matrice C reale è il prodotto delle due matrici B−1 ed A reali e simmetriche e B è definita positiva, essa è diagonalizzabile13 . Dimostrazione Il fatto © che ª B sia definita positiva simmetrica implica che esiste una matrice ortogonale R ed una n-pla di numeri β 2i per cui risulta £ © ª¤ B = RT Diag β 2i R.

Per alleggerire ulteriormente la notazione usiamo le definizioni © ª D := Diag {β i } . D2 := Diag β 2i , Di conseguenza abbiamo che

¢ ¡ A − λB = RD D−1 RT ARD−1 − λI DRT ,

(I essendo la matrice identità). Utilizzando la (A.89) in Appendice A otteniamo che 2

2

det (A − λB) = (det R) (det D) det (P − λI) , 1 2 Il

calcolo di

∂T è semplice (si tenga conto della simmetria di ahk (q)): ∂ q˙   n n ∂T ∂ q˙k 1 [ ∂ 1 [ ∂ q˙h = ahk (q) (q˙h q˙k ) = ahk (q) q˙k + q˙h ∂ q˙l 2 h,k=1 ∂ q˙l 2 h,k=1 ∂ q˙l ∂ q˙l =

1 3 Ricordiamo

n n n [ 1[ 1 [ ahk (q) (δ hl q˙k + q˙h δ kl ) = (alk (q)q˙k + ahl (q)q˙h ) = alk (q)q˙k . 2 h,k=1 2 k=1 k=1

che una matrice P non singolare diagonalizza la matrice C se vale la seguente (22.77).

310

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

dove è stata introdotta la matrice simmetrica P := D−1 RT ARD−1 . Dal momento che 2

(det R) = 1,

2

(det D) =

n Y

β 2i ,

(22.73)

i=1

le radici del polinomio caratteristico det (A − λB) , coincidono con quelle del polinomio caratteristico det (P ¡ ¢ − λI) , e poiché la matrice B è invertibile, anche con quelle del polinomio caratteristico det B−1 A − λI . Sempre per il citato teorema di diagonalizzazione delle matrici simmetriche esistono esattamente n autovalori λi reali per la matrice P associati ciascuno ad un autovettore zi , in modo che l’insieme di vettori {zi } forma una base. Dal momento che si ha banalmente ¡ ¢ Pzi = D−1 RT ARD−1 zi = λi zi , è facile verificare che

³ ´ ¡ ¢ ¢ ¡ A RD−1 zi = λi RDzi = λi RD DRT RD−1 zi = λi B RD−1 zi .

(22.74)

Si può così concludere che l’insieme {λi } forma l’insieme degli autovalori della matrice C := B−1 A e che i relativi autovettori sono rispettivamente i vettori xi := RD−1 zi .Si noti che, essendo i vettori zi ortogonali e la matrice RD−1 non singolare, l’insieme {xi } forma una base. La matrice X le cui colonne sono gli autovettori xi ovviamente è non singolare e diagonalizza C. Infatti dalla (22.74) si deduce banalmente che X−1 CX = Diag {λi } . Si noti che, in generale, non è detto che la matrice X sia ortogonale. Infatti dalla catena di uguaglianze (dove il simbolo “·” denota il prodotto scalare Euclideo in IRn ) ³ ´ ³ ´ 0 = zi · zj = DRT xi · DRT xj = xi · RD2 RT xj = xi · Bxj ,

si deduce che i vettori della base {xi } sono ortogonali rispetto al prodotto scalare definito dalla (x, y) = x · By.

Si noti infine che se anche la matrice A è definita positiva, dal momento che valgono le uguaglianze Axi = λi Bxi ⇒ xi · Axi = λi xi · Bxi ,

(22.75)

allora tutti gli autovalori λi sono positivi. Moltiplicando a sinistra la (22.67) per A∗−1 se ne deduce la sua forma normale: p ¨ = −A∗−1 (K∗ + Q1 ) p + A∗−1 (Q0 (t) + Q2 (t)p) ˙ .

(22.76)

Si chiama sistema di coordinate modali per C := A∗−1 (K∗ + Q1 ) un sistema definito da una trasformazione che verifica la condizione ζ = P−1 p, con P :

P−1 CP = Λ,

(22.77)

essendo Λ una matrice diagonale del tipo Diag{λi } . Che un sistema di coordinate modali esista è assicurato dalla proposizione 302: i coefficienti λi che caratterizzano la matrice Λ sono gli autovalori di A∗−1 K∗ mentre le colonne ui di P sono i corrispondenti autovettori. Infatti, tenendo presente che la n−pla di vettori ui forma una base e quindi organizzati per colonne una matrice invertibile è semplice verificare che la (22.77) è equivalente al seguente insieme di equazioni: Cui = λi ui ,

(22.78)

cosicchè le λi sono le soluzioni dell’equazione secolare det (C − λI) = 0

(22.79)

Si noti che poichè q∗ è di equilibrio stabile, K∗ è strettamente definita positiva e conseguentemente tutti gli autovalori λi sono positivi. Nel sistema di coordinate modali le (22.76) tenendo conto delle

22.5. PICCOLI MOTI INTORNO AD UNA CONFIGURAZIONE D’EQUILIBRIO STABILE.

p = Pζ, diventano

˙ p˙ = Pζ,

p ¨ = P¨ ζ,

311

(22.80)

´ ³ ¨ ζ = −P−1 A∗−1 (K∗ + Q1 ) Pζ + P−1 A∗−1 Q0 (t) + Q2 (t)Pζ˙ ,

che, quando Q2 (t) = 0, diventano le.n equazioni disaccoppiate

¨ ζ i = −λi ζ i + fi (t),

(22.81)

dove fi (t) sono le componenti del vettore P−1 A∗−1 Q0 (t) , cui si devono aggiungere i dati iniziali 0 P−1 p0 = ζ(t0 ),

˙ 0 ). P−1 p˙ 0 = Pζ(t

(22.82)

Quindi la matrice P ha come colonne gli autovettori di C, i cui autovalori λi determinano le pulsazioni p p λ1 , ..., λn , (22.83)

degli n moti armonici14 (22.81). Tali pulsazioni sono dette pulsazioni proprie del sistema (22.76). Una volta risolti gli n problemi di dati iniziali (22.81,22.82) basta utilizzare la (22.80)1 per ottenere il moto p(t). Come è noto ciascuna delle equazioni (22.81) presenta risonanza quando nella trasformata di Fourier di fi (t) sia presente la frequenza corrispondente a λi : conseguentemente la forzante Q0 (t) applicata alla struttura, sebbene di ampiezza piccola (infatti è controllata con il parametro η) può indurre oscillazioni di ampiezza indefinitamente grande (posto che la si applichi per un intervallo di tempo opportunamente lungo). Si può concludere che nel progettare una struttura soggetta a carichi stazionari bisogna assicurarsi almeno che 1. si trovi in una configurazione d’equilibrio stabile; 2. l’intensità delle perturbazioni prevedibili dei carichi sia sufficientemente piccola così da assicurare l’efficacia dei vincoli applicati; 3. le sue frequenze proprie d’oscillazione siano lontane dalle frequenze attese delle sollecitazioni esterne.

1 4 Che

le equazioni considerate siano effettivamente moti armonici è assicurato dalla (22.75).

312

CAPITOLO 22. DINAMICA DEI SISTEMI FINITO-DIMENSIONALI

Bibliografia [1] Aris R (1978) Mathematical modelling techniques, Pitman, London, San Francisco. [2] Arnold VI (1979) Metodi Matematici della Meccanica Classica, Editori Riuniti, Roma. [3] Baldacci R (1983) Scienza delle Costruzioni, Vol. I-II, UTET, Torino. [4] Bigatti G (2000) La matrice di una nuova cultura tecnica. Storie di ingegneri (1750-1848), in Amministrazione, formazione e professione: gli ingegneri in Italia tra Sette e Ottocento, a cura di Luigi Blanco, Bologna, il Mulino. [5] Bowen RM, Wang C-C (1971) On displacement derivatives, Quarterly Journal of Mechanics and Applied Mathematics, 29 (1), 29-39. [6] Bowen RM, Wang C-C (1976a) Introduction to vectors and tensors, Vol. I: Linear and Multilinear Algebra, Plenum Press, New York. [7] Bowen RM, Wang C-C (1976b) Introduction to vectors and tensors, Vol. II: Vector and Tensor Analysis, Plenum Press, New York. [8] Boyer CB (1980) Storia della Matematica, Mondadori. [9] Chadwick P (1999) Continuum Mechanics. Concise theory and problems, Dover Publications, Inc., Mineola, New York. [10] Chalmers AF (1979) Che cos’è questa scienza: la sua natura e i suoi metodi, Mondadori. [11] Cheney W (2001) Analysis for Applied Mathematics, Springer-Verlag New York, Inc. [12] Colonnetti G (1941) Scienza delle Costruzioni, Einaudi, Torino. [13] D’Alembert J-B Le Rond (1968) Traité de dynamique. With a new introduction and bibliography by T. L. Hankins, Johnson Reprint Corp., New York. [14] Feynman R (1975) La fisica di Feynman. Vol. II, Inter European Editions. [15] Fichera G (1972a) Existence theorems in elasticity, in Handbuch der Physik, Vol. Ia/2, 347-389, SpringerVerlag, Berlin. [16] Fichera G (1972b) Boundary value problems of elasticity with unilateral constraints, in Handbuch der Physik, Vol. Ia/2, 391-424, Springer-Verlag, Berlin. [17] Finzi B (1946) Meccanica Razionale, Zanichelli Editore, Bologna. [18] Finzi B, Pastori M (1961) Calcolo tensoriale e applicazioni, Zanichelli Editore, Bologna. [19] Gurtin ME (1981) An Introduction to Continuum Mechanics, Academic Press, Inc. San Diego, California. [20] Kolmogorov AN, Fomin SV (1975) Introductory Real Analysis, Dover Publications, Inc., New York. [21] Kosi´nski W (1986) Field Singularities and Wave Analysis in Continuum Mechanics, Polish Scientific Publishers, Warszawa. [22] Landau LD, Lifchitz EM (1979) Teoria del Campo, Editori Riuniti, Edizioni Mir. [23] Levi-Civita, T. (1977) The absolute differential calculus (Calculus of Tensors), Dover Publications, Inc.. 313

314

BIBLIOGRAFIA

[24] Lombardo-Radice L (1965) Istituzioni di algebra astratta, Feltrinelli, Milano. [25] Marsden JE, Hughes JR (1993) Mathematical foundations of Elasticity, Dover Publications, Inc., New York. [26] Mendelson A (1983) Plasticity: Theory and Applications, Robert E. Krieger Publishing Company, Malabar, Florida. [27] Naghdi PM (1972) The theory of shells and plates, in: Handbuch der Physik, Vol. VIa/2, 425-640, Springer-Verlag, Berlin-Heidelberg-New York. [28] Noll W (1958) A mathematical theory of the mechanical behavior of continuous media, Archive of Rational Mechanics and Analysis, 2, 197-226, ristampato in Continuum mechanics, International Science Review Series, Vol. VIII, redatto da C. Truesdell, Gordon and Branch, New York, 1965. [29] Noll W (1972) A new mathematical theory of simple materials, Archive of Rational Mechanics and Analysis, 4 (1), 3-81. [30] Noll W (1974) Paper n.21, Selected Papers, Springer-Verlag. [31] Piola G (1845) Nuova analisi per tutte le questioni della meccanica, Memorie della Società Italiana Moderna di Matematica e Fisica, 24, 1-186. [32] Rivlin RS, Ericksen JL (1955) Stress-deformation relations for isotropic materials, Journal of Rational Mechanics and Analysis, 4, 323-425. [33] Rivlin RS (1960a) Some topics in finite elasticity, in Structural Mechanics, Pergamon Press, Inc., New York. [34] Rivlin RS (1960b) The formulation of constitutive equations in continuum physics II, Archive of Rational Mechanics and Analysis, 3, 262-272. [35] Russo L (1998) La rivoluzione dimenticata. Il pensiero scientifico greco e la scienza moderna, Feltrinelli. [36] Salençon J (1995a) Mécanique du Continu. Tome I: Concept gènèraux, AUF, Ellipses. [37] Salençon J (1995b) Mécanique du Continu. Tome II: Thèrmoélasticitè, AUF, Ellipses. [38] Signorini A (1930) Sulle deformazioni termoelastiche finite, Proc. 3rd International Congress in Applied Mechanics, 2, 80-89. [39] Schwartz L (1957) Théorie des Distributions, 2da ed., Hermann, Paris. [40] The Open University (1979a) Introduzione all’analisi ed all’algebra, Mondadori. [41] The Open University (1979b) Pensare per Modelli: schemi logici e strumenti di calcolo, Mondadori. [42] Tolotti C (1965) Lezioni di Meccanica Razionale, Liguori Editore, Napoli. [43] Truesdell CA, Toupin RA (1960) The classical field theories, in: Handbuch der Physik, Vol. III/1, 226-793, Springer-Verlag, Berlin-Göttingen-Heidelberg. [44] Truesdell CA, Noll W (1965) The non-linear field theory of mechanics, in: Handbuch der Physik, Vol III/3, 1-602, Springer-Verlag, Berlin-Heidelberg-New York. [45] Truesdell CA (1977) Rational Continuum Mechanics, Academic Press, Inc.. [46] Wang C-C (1969) A general representation theorem for constitutive relations, Archive for Rational Mechanics and Analysis, 32, 1-25. [47] Wang C-C (1976) Mathematical Principles of Mechanics and Electromagnetism. Part A: Analytical and Continuum Mechanics, Plenum Press, New York-London. [48] Washizu K (1982) Variational methods in Elasticity and Plasticity, 3za ed., Pergamon Press, Inc., Elmsford, New York.

Appendice A

RICHIAMI DI ALGEBRA Daremo nella presente appendice alcuni richiami a definizioni e risultati fondamentali inerenti a concetti necessari allo sviluppo della teoria presentata nel testo. Essendo i risultati qui esposti certamente noti al lettore, si ometteranno tutte le dimostrazioni, per le quali si rimanda alla letteratura specialistica.

A.1 A.1.1

Insiemi. Definizione e prime proprietà.

Un insieme è una collezione di oggetti ben definita; tali oggetti verranno nel seguito detti elementi dell’insieme. Denoteremo gli insiemi con lettere maiuscole dell’alfabeto latino; denoteremo, invece, con le lettere minuscole gli elementi di un insieme. Se x è un elemento dell’insieme X diremo che x appartiene ad X e scriveremo: x ∈ X.

(A.1)

Se invece x non è un elemento dell’insieme X diremo che x non appartiene ad X e scriveremo: x∈ / X.

(A.2)

Nel seguito indicheremo gli insiemi per mezzo di un elenco esplicito o implicito degli elementi che lo costituiscono, racchiusi tra parentesi graffe. Diremo che l’insieme Y è un sottoinsieme dell’insieme X se: x ∈ Y ⇒ x ∈ X,

(A.3)

Y ⊆ X.

(A.4)

X ⊆ X,

(A.5)

e scriveremo: Se X è un insieme, allora risulta necessariamente:

che si enuncia dicendo che ogni insieme è sottoinsieme di se stesso. Due insiemi X e Y si dicono coincidenti se, e solo se, risultano vere le seguenti relazioni Y ⊆ X, X ⊆ Y.

(A.6) (A.7)

Se è verificata la (A.6) ma non lo è la (A.7) si dice che Y è un sottoinsieme proprio dell’insieme X e si scrive: Y ⊂ X.

(A.8)

Y ⊂ X ⇒ Y ⊆ X,

(A.9)

Ovviamente si ha: ma non il viceversa. 315

316

APPENDICE A. RICHIAMI DI ALGEBRA

Diremo vuoto, e indicheremo con il simbolo ∅, ogni insieme privo di elementi, cioè ogni insieme così definito: x ∈ ∅ ⇐⇒ x 6= x. (A.10)

Se X è un insieme, allora risulta necessariamente:

∅ ⊆ X,

(A.11)

che si enuncia dicendo che l’insieme vuoto è contenuto in ogni insieme.

A.1.2

Operazioni tra insiemi.

Se X e Y sono insiemi, diremo loro unione insiemistica, che denoteremo nel seguito con X ∪ Y , l’insieme così definito: X ∪ Y = {x ∈ X ∨ x ∈ Y } ,

(A.12)

X ∩ Y = {x ∈ X ∧ x ∈ Y } ,

(A.13)

dove il simbolo ∨ rappresenta l’unione logica, e può essere letto con la parola latina “vel” che equivale a quella italiana “oppure” non intesa nella sua accezione mutuamente esclusiva. Se X e Y sono insiemi, diremo loro intersezione insiemistica, che denoteremo nel seguito con X ∩ Y , l’insieme così definito:

dove il simbolo ∧ rappresenta l’intersezione logica, e può essere letto con la parola italiana “e”. Per l’unione e l’intersezione insiemistiche sono verificate le seguenti proprietà. Se X, Y e Z sono insiemi allora si ha: 1. Proprietà commutativa dell’unione: X ∪ Y = Y ∪ X.

(A.14)

X ∩ Y = Y ∩ X.

(A.15)

(X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z).

(A.16)

2. Proprietà commutativa dell’intersezione:

3. Proprietà associativa dell’unione:

4. Proprietà associativa dell’intersezione: (X ∩ Y ) ∩ Z = X ∩ (Y ∩ Z).

(A.17)

5. Proprietà distributiva dell’unione rispetto all’intersezione: X ∪ (Y ∩ Z) = (X ∪ Y ) ∩ (X ∪ Z).

(A.18)

6. Proprietà distributiva dell’intersezione rispetto all’unione: X ∩ (Y ∪ Z) = (X ∩ Y ) ∪ (X ∩ Z).

(A.19)

X ∩ X = X.

(A.20)

7. Idempotenza dell’intersezione: Diremo disgiunti due insiemi X e Y tali che: X ∪ Y = ∅.

(A.21)

Se X è un insieme e Y è un sottoinsieme proprio di X; chiameremo complementare di Y in X l’insieme Y C così definito: Y C = {x ∈ X ∧ x ∈ / Y }. (A.22)

Ovviamente si ha:

(Y C )C = Y.

(A.23)

Relativamente alla nozione di complementare di un sottoinsieme Y in un insieme X sussistono le seguenti relazioni, note come leggi di De Morgan: (Y ∪ Z)C = Y C ∩ Z C ,

(A.24)

(Y ∩ Z) = Y

(A.25)

C

C

C

∪Z .

A.1. INSIEMI.

A.1.3

317

Relazioni ed applicazioni.

L’idea di ordinamento non è coinvolta nella definizione di insieme. Per esempio, l’insieme {a, b} è uguale all’insieme {b, a} . Per definire una coppia ordinata (a, b) , fissiamo un elemento dell’insieme {a, b} , ad esempio a, e definiamo la coppia ordinata (a, b) come la classe costituita dagli insiemi {a} ed {a, b} : (a, b) := {{a} , {a, b}} .

(A.26)

Tale coppia ordinata è evidentemente diversa dalla coppia ordinata (b, a) , data da: (b, a) = {{b} , {a, b}} .

(A.27)

È immediata conseguenza della definizione (A.26) la proprietà: (a, b) = (c, d) ⇔ a = c e b = d.

(A.28)

La nozione di coppia ordinata si estende facilmente a quella di n − pla ordinata. Diremo prodotto cartesiano degli insiemi X ed Y, che denoteremo nel seguito con il simbolo “×”, l’insieme costituito dalle coppie ordinate (x, y) con x ∈ X ed y ∈ Y : X × Y = {(x, y) : x ∈ X ∧ y ∈ Y } ,

(A.29)

X × Y 6= Y × X.

(A.30)

x R y.

(A.31)

È evidente che, in generale, Siano X e Y due insiemi non vuoti. Ogni sottoinsieme R del prodotto cartesiano X × Y definisce una relazione di X in Y. Se la coppia (x, y) ∈ R, diremo anche che x è in relazione con y e scriveremo: Se R = ∅, diremo che R è la relazione vuota di X in Y ; in tal caso nessun elemento di X risulta in relazione R con qualche elemento di Y . Se R è una relazione dell’insieme X nell’insieme Y ed x ∈ X, con il simbolo R(x) denoteremo il sottoinsieme degli elementi di Y che risultano in relazione R con x; pertanto risulta: R(x) = {y ∈ Y : (x, y) ∈ R} .

(A.32)

Se invece y ∈ Y , con il simbolo R−1 (y) denoteremo l’insieme degli elementi di X, ciascuno dei quali risulta in relazione R con y, cioè: R−1 (y) = {x ∈ X : (x, y) ∈ R} . (A.33)

Se X = Y allora R è una relazione su X. Sia R una relazione su X. Diremo che tale relazione è 1. riflessiva se

xRx ∀x ∈ X;

(A.34)

xRy ⇒ yRx ∀x, y ∈ X × X;

(A.35)

2. simmetrica se 3. transitiva se xRy e yRz ⇒ xRz

∀x, y, z ∈ X × X × X.

(A.36)

Una relazione R che sia riflessiva, simmetrica e transitiva è detta di equivalenza. Consideriamo come esempio di relazione R sull’insieme dei reali IR quella di uguaglianza. Essa è evidentemente riflessiva, essendo: a = a, ∀a ∈ IR. (A.37)

Risulta inoltre essere simmetrica e transitiva

a = b ⇒ b = a,

∀a, b ∈ IR,

a = b e b = c ⇒ a = c,

(A.38) (A.39)

ovvero R è una relazione di equivalenza su IR. Le relazioni di equivalenza sono fondamentali nella decomposizione di un insieme in sottoinsiemi a due a due disgiunti. Dato un insieme X, ogni sua rappresentazione come unione di una famiglia di sottoinsiemi a due a due disgiunti è detta decomposizione o partizione in classi. Una partizione di un insieme è fondata su un criterio in base al quale è possibile assegnare un elemento di X ad una certa classe.

318

APPENDICE A. RICHIAMI DI ALGEBRA

Proposizione 303 Un insieme X può essere ripartito in classi attraverso una relazione R (vista come criterio per assegnare due elementi alla stessa classe) se e solo se R è una relazione di equivalenza su X. Alla luce della precedente proposizione è giustificata la dizione decomposizione di un insieme in classi di equivalenza. Diremo che una relazione R su un insieme X è antisimmetrica se xRy e yRx ⇒ x = y

∀x, y ∈ X × X.

(A.40)

Una relazione R su un insieme X è detta un ordinamento parziale se è riflessiva, transitiva ed antisimmetrica. Ogni insieme X può essere ordinato parzialmente scegliendo: xRy ⇔ x = y

∀x, y ∈ X × X.

(A.41)

Diamo ora alcuni esempi. La relazione R ≡≤ su IR è un ordinamento parziale in quanto risulta: • riflessiva: • transitiva:

a ≤ a,

a ∈ IR;

a ≤ b e b ≤ c ⇒ a ≤ c,

• antisimmetrica:

a ≤ b e b ≤ a ⇒ a = b,

(A.42)

a, b, c ∈ IR;

(A.43)

a, b ∈ IR.

(A.44)

Sia F l’insieme delle funzioni di una variabile reale continue in un intervallo chiuso [a, b] ⊂ IR. Ponendo f R g ⇔ f (t) ≤ g (t)

∀t ∈ [a, b] ,

(A.45)

si ottiene un ordinamento parziale in F . Un ordinamento parziale R su un insieme X non vale in generale per ogni coppia di elementi di X: da ciò deriva il nome di ordine parziale su X. Sia R è un ordinamento parziale su un insieme X e siano x, y due elementi di tale insieme. Se almeno una delle seguenti x R y,

y R x,

(A.46)

non vale, allora x ed y sono non comparabili. Un insieme X è detto totalmente ordinato se è parzialmente ordinato e se, ∀x, y ∈ X vale solo una delle seguenti x R y ⇐⇒ x < y, (A.47) x R y ⇐⇒ x > y.

Ogni sottoinsieme di un insieme ordinato è evidentemente ordinato. L’insieme dei naturali e l’insieme dei reali nell’intervallo [0, 1] sono esempi di insiemi ordinati (con le usuali relazioni di “maggiore” e “minore”). Sia ora R una relazione dell’insieme non vuoto X nell’insieme non vuoto Y ; se accade che, per ogni x ∈ X, l’insieme R(x) è costituito esattamente da un elemento, diremo che R è una applicazione di X in Y . Pertanto, una applicazione di X in Y è una legge che ad ogni elemento di X associa esattamente un elemento di Y , precisamente quello appartenente ad R(x). Se f è un applicazione di X in Y scriveremo anche: f : X −→ Y.

(A.48)

Se f (x) = {y} scriveremo che f (x) = y; diremo allora che y e l’immagine di x nell’applicazione f . Se invece y ∈ Y , l’insieme f −1 (y) verrà detto controimmagine di y nell’applicazione f . La totalità degli elementi di Y , ciascuno dei quali sia l’immagine in f di qualche elemento di X, verrà nel seguito detta immagine di X e denotata con Im f ; pertanto risulta; Im f = {y ∈ Y : ∃ x ∈ X con f (x) = y} .

(A.49)

Se per l’applicazione f dell’insieme X nell’insieme Y risulta Im f = Y , diremo che f è un’applicazione suriettiva; pertanto, l’applicazione f risulta suriettiva se, e solo se, ogni elemento di Y risulta appartenente all’immagine di X in f .

A.2. GRUPPI.

319

Diremo poi che l’applicazione f di X in Y è iniettiva se ad elementi distinti di X corrispondono elementi distinti nell’immagine di X in f , cioè se: f (x) = f (x0 ) ⇒ x = x0 .

(A.50)

Una applicazione che risulti sia iniettiva che suriettiva si dice biiettiva. Una applicazione biiettiva di X in Y è anche detta corrispondenza biunivoca di X in Y .

A.2 A.2.1

Gruppi. Definizioni e prime proprietà.

Sia G un insieme non vuoto; diremo operazione binaria definita in G ogni applicazione ω di G × G in G; pertanto un’operazione binaria definita in G è una legge ω che ad ogni coppia ordinata (x, y) di elementi di G associa un elemento di G, da dirsi composto in di x ed y. Se ω : G × G −→ G è un’operazione binaria definita nell’insieme G, l’elemento ω((x, y)), cioè il composto in ω di x e y sarà anche denotato con il simbolo xωy. Diremo gruppo ogni coppia (G, ω), ove G è un insieme non vuoto ed ω è un’operazione binaria definita in G verificante i tre seguenti assiomi: 1. Proprietà associativa di ω: ∀x, y, z ∈ G xω(yωz) = (xωy)ωz.

(A.51)

∃ u ∈ G : ∀x ∈ G risulti uωx = xωu = x.

(A.52)

∀x ∈ G ∃ x0 ∈ G : xωx0 = x0 ωx = u.

(A.53)

2. Esistenza dell’elemento neutro:

3. Esistenza del simmetrico:

Se (G, ω) è un gruppo, l’elemento u di cui l’assioma (A.52) è detto elemento neutro rispetto all’operazione ω, e l’elemento x0 di cui all’assioma (A.53) è detto simmetrico di x, rispetto all’operazione ω. Se l’operazione binaria del gruppo (G, ω) è denotata con il simbolo “+”, allora il gruppo verrà detto additivo, l’elemento neutro di cui all’assioma (A.52) verrà denotato con il simbolo “0” ed il simmetrico dell’elemento x, di cui all’assioma (A.53), verrà detto opposto di x e denotato con il simbolo “−x”. Se l’operazione binaria del gruppo (G, ω) è denotata con il simbolo “·”, allora il gruppo verrà detto moltiplicativo, l’elemento neutro di cui all’assioma (A.52) verrà denotato con il simbolo “1” ed il simmetrico dell’elemento x, di cui all’assioma (A.53), verrà detto inverso di x e denotato con il simbolo “x−1 ”. Gli assiomi di gruppo richiedono l’esistenza dell’elemento neutro e del simmetrico di un elemento, ma non richiedono la loro unicità; al riguardo però si può dimostrare la seguente proposizione. Proposizione 304 Se (G, ω) è un gruppo allora l’elemento neutro di G è unico ed il simmetrico di ogni elemento x di G è anch’esso unico. Si può inoltre provare la seguente proposizione. Proposizione 305 Sia (G, ω) un gruppo. Se x, y e z sono elementi di G, allora si ha: Legge di cancellazione a destra: xωz = yωz ⇒ x = y.

(A.54)

Legge di cancellazione a sinistra: zωx = zωy ⇒ x = y.

(A.55)

Se oltre agli assiomi (A.51), (A.52) e (A.53) è verificata anche la proprietà commutativa: ∀x, y ∈ G (xωy) = (yωx),

(A.56)

allora il gruppo G verrà detto gruppo abeliano. Siano ora (G, ω) un gruppo e H un sottoinsieme di G. Diremo che H è un sottogruppo di G e scriveremo H ≤ G, se H risulta esso stesso un gruppo rispetto all’operazione ω definita in G. A tale proposito si può dimostrare che:

320

APPENDICE A. RICHIAMI DI ALGEBRA

Proposizione 306 Siano (G, ω) un gruppo ed H un sottoinsieme di G. Allora H risulta un sottogruppo di G, se, e solo se, risultano verificate le seguenti proprietà: H= 6 ∅, xωy ∈ H ∀x, y ∈ H, x0 ∈ H ∀x ∈ H.

(A.57) (A.58) (A.59)

Si può inoltre dimostrare: Proposizione 307 Siano (G, ω) un gruppo ed H un sottoinsieme di G. Allora H risulta un sottogruppo di G, se, e solo se, risultano verificate le seguenti proprietà: H 6= ∅, xωy ∈ H ∀x, y ∈ H. 0

(A.60) (A.61)

Se (G, ω) è un gruppo, allora (G, ω) è evidentemente un suo sottogruppo. È inoltre facile verificare che il gruppo ({u} , ω), nel quale l’insieme sottostante è costituito dall’elemento neutro di G, risulta essere esso stesso un sottogruppo di (G, ω). Diremo sottogruppo proprio di (G, ω) ogni suo sottogruppo diverso da (G, ω) e da ({u} , ω).

A.3 A.3.1

Campi. Definizione.

Sia (IK, +, ·) una terna ove (IK, +) sia un gruppo commutativo tale che, denotato con IK∗ la totalità degli elementi non nulli (cioè diversi dall’elemento nullo) di IK, la coppia (IK∗ , ·) sia un gruppo abeliano. Diremo che (IK, +, ·) è un campo se (vedi (A.62)): a (b + c) = ab + ac

A.4 A.4.1

∀ a, b, c ∈ IK.

(A.62)

Matrici. Definizioni e prime proprietà.

Sia ora IK un campo. Se Jn è l’insieme dei primi n naturali non nulli, cioè Jn = {1, 2, ..., n}, diremo matrice ad m righe ed n colonne ad elementi in IK, ogni applicazione A : Jm × Jn −→ IK del prodotto cartesiano di Jm per Jn nel campo IK. Se A((i, j)) = aij denoteremo la matrice A anche con il simbolo A = (aij )

i = 1, 2, ..., m;

j = 1, 2, ..., n.

In generale la matrice A è rappresentata con una tabella del tipo: ⎞ ⎛ a11 a12 · · · a1n ⎜ a21 a21 · · · a2n ⎟ ⎟ ⎜ ⎜ .. .. .. ⎟ . .. ⎝ . . . . ⎠ am1

am2

···

(A.63)

(A.64)

amn

I pedici i e j che compaiono nella (A.63) si dicono indice di riga e indice di colonna (rispettivamente) del generico elemento aij della matrice A. La totalità delle matrici ad m righe ed n colonne ad elementi nel campo IK verrà nel seguito denotata con il simbolo M(m × n, IK). Denoteremo con il simbolo Ai ∈ M(1 × n, IK) la i-ma riga della matrice A definita in (A.63) e scriveremo di conseguenza: ¡ ¢ Ai = ai1 ai2 · · · ain . (A.65) Similmente denoteremo con il simbolo Aj ∈ M(m × 1, IK) la j-ma colonna della matrice A definita in (A.63) e scriveremo di conseguenza: ⎞ ⎛ a1j ⎜ a2j ⎟ ⎟ ⎜ (A.66) Aj = ⎜ . ⎟ . ⎝ .. ⎠ amj

A.4. MATRICI.

321

Diremo matrice trasposta della matrice A = (aij ) ∈ M(m × n, IK) la matrice AT = (bij ) ∈ M(n × m, IK) tale che: bij = aji

i = 1, 2, .., n; j = 1, 2, .., m.

(A.67)

Diremo quadrata (di ordine n) ogni matrice A ∈ M(n × n, IK). Diremo simmetrica ogni matrice quadrata tale che: A = AT .

(A.68)

Diremo matrice identica di ordine n ogni matrice quadrata A = (aij ) tale che: aij =

½

1 0

per i = j per i = 6 j

i, j = 1, 2, .., n;

(A.69)

nel seguito indicheremo tale matrice con il simbolo In . Diremo matrice nulla ogni matrice A = (aij ) ∈ M(m × n, IK) tale che: aij = 0

i = 1, 2, .., m; j = 1, 2, .., n;

(A.70)

nel seguito indicheremo tale matrice con il simbolo 0. Sia A = (aij ) ∈ M(m × n, IK) una matrice e k ∈ IK uno scalare. Diremo prodotto della matrice per uno scalare la matrice C = (cij ) ∈ M(m × n, IK) tale che: cij = kaij

i = 1, 2, .., m; j = 1, 2, .., n.

(A.71)

Diremo matrice opposta di una matrice A = (aij ) ∈ M(m × n, IK) ogni matrice C = (cij ) ∈ M(m × n, IK) tale che: cij = −aij

i = 1, 2, .., m; j = 1, 2, .., n.

(A.72)

Siano A = (aij ) e B = (bij ) due matrici appartenenti a M(m×n, IK), allora diremo loro somma la matrice C = (cij ) ∈ M(m × n, IK) tale che: cij = aij + bij

i = 1, 2, .., m; j = 1, 2, .., n.

(A.73)

Siano A = (aij ) ∈ M(m × n, IK) e B = (bjh ) ∈ M(n × q, IK) due matrici, allora diremo loro prodotto righe per colonne la matrice C = (cih ) ∈ M(m × q, IK) tale che: cih =

n X

aij bjh

i = 1, 2, .., m; h = 1, 2, .., q.

(A.74)

j=1

Siano ora A, B, C ∈ M(m × n, IK), D ∈ M(n × p, IK), E ∈ M(p × q, IK), F ∈ M(r × m, IK), siano k, h ∈ IK due scalari, sia poi “ + j la somma definita in (A.73), e “ ” il prodotto definito in (A.74). Allora valgono le seguenti proprietà:

A + B = B + A, (A + B) + C = A + (B + C), C(DE) = (CD)E, F (A + B) = F A + F B, (A + B)D = AD + BD, (DE)T = E T DT , k(A + B) = kA + kB, (k + h)A = kA + hA, (kh) = k(hA), k(DE) = (kD)E = D(kE).

(A.75) (A.76) (A.77) (A.78) (A.79) (A.80) (A.81) (A.82) (A.83) (A.84)

322

A.4.2

APPENDICE A. RICHIAMI DI ALGEBRA

Determinante.

Quella che daremo in queste note non è una definizione rigorosa, ma piuttosto una regola operativa comunemente utilizzata per il calcolo esplicito del determinante di una matrice quadrata. Sia, a tal fine, A = (aij ) ∈ M (n × n, IK) una matrice quadrata. Diremo complemento algebrico i+j dell’elemento aij della matrice A il prodotto del numero (−1) per il determinante della matrice quadrata Aij di M ((n − 1) × (n − 1) , IK) che si ottiene dalla A eliminandovi la i-esima riga e la j-esima colonna. Nel seguito denoteremo il complemento algebrico di aij con il simbolo e aij . Diremo poi determinante di una matrice quadrata A = (aij ) ∈ M (n × n, IK) di ordine n la applicazione: det : M (n × n, IK) −→ IK

(A.85)

che indicheremo nel seguito con il simbolo det (A) oppure |A|, tale che, comunque scelta la j-esima riga oppure la j-esima colonna di A, risulti: n X det A = aij e aij (Laplace). (A.86) i=1

Osserviamo esplicitamente che quella fornita in (A.86) è una definizione ricorsiva, in quanto la nozione di complemento algebrico di un elemento di una matrice (n × n) fa riferimento alla nozione di determinante di una matrice ((n − 1) × (n − 1)). È dunque necessario, al fine della consistenza di tale definizione, fornire una regola di calcolo per un caso base. A tal proposito diremo determinante di una matrice quadrata A = (a11 ) di ordine 1 lo scalare a11 . Daremo ora alcune proprietà fondamentali dei determinati. Siano A, B ∈ M (n × n, IK) e k ∈ IK; allora valgono le seguenti proprietà: ¡ ¢ det (A) = det AT , (A.87) n det (kA) = k det (A) , (A.88) det (AB) = det (A) det (B) (Binet). (A.89) Diremo infine singolare ogni matrice il cui determinante sia nullo.

A.4.3

Aggiunta ed inversa.

Sia A = (aij ) ∈ M (n × n, IK) una matrice quadrata. È allora individuata una matrice A0 = M (n × n, IK), che diremo aggiunta di A, in cui generico elemento è così definito: aji . a0ij = e

¡ 0 ¢ aij ∈ (A.90)

Il generico elemento a0ij della matrice aggiunta A0 è cioè il complemento algebrico dell’elemento aij di AT . Sia A = (aij ) ∈ M (n × n, IK) una matrice non singolare (cfr. prop. 55). Allora esiste la sua inversa A−1 ∈ M (n × n, IK) e si ha: −1 A−1 = (det A) A0 , (A.91) dove A0 è l’aggiunta di A. Risulta inoltre:

A.4.4

Rango.

¡ ¢ −1 det A−1 = (det A) .

(A.92)

Daremo nel seguito diverse definizioni di rango di una matrice per poi sottolineare la loro equivalenza. Sia A = (aij ) ∈ M (n × m, IK) una matrice ad n righe ed m colonne ad elementi nel campo IK. Diremo estratta dalle righe Ai1 , Ai2 , ..., Air e dalle colonne Aj1 , Aj2 , ..., Ajc di A la matrice B = (bij ) ∈ M (r × c, IK) tale che: bhk = aih jk h = 1, 2, ..., r k = 1, 2, ..., c. (A.93) Diremo minore di ordine p della matrice A il determinante di ogni sottomatrice quadrata B ∈ M (p × p, IK) estratta da p righe e p colonne di A. Diremo poi rango per minori della matrice A l’ordine del massimo minore non nullo estratto da A. Nel seguito denoteremo il rango per minori con il simbolo Rm (A). Diremo rango per colonne di A, cioè il massimo numero di colonne indipendenti di A, cioè a norma della proposizione 59, la dimensione di Im L, ove L è l’applicazione lineare n m LN A,N 0 : IK −→ IK

(A.94)

A.4. MATRICI.

323

associata ad A quando in IKn ed in IKm sono fissate le rispettive basi naturali N ed N 0 . Diremo invece rango per righe di A il massimo numero di righe indipendenti di A. Denoteremo il rango per colonne ed il rango per righe della matrice A con i simboli Rc (A) e Rr (A), rispettivamente. È possibile dimostrare che le tre definizioni fornite sono del tutto equivalenti. Si ha dunque: ∀A ∈ M (n × m, IK)

Rm (A) = Rc (A) = Rr (A) .

(A.95)

Per questa ragione nel presente testo faremo riferimento unicamente al concetto di rango, al quale ci riferiremo con il simbolo R (A).

324

APPENDICE A. RICHIAMI DI ALGEBRA

Indice analitico allungamento, 217 analisi modale, 309 angolo di attrito, 291 di scorrimento, 221 applicazione affine, 144 continua, 146 di traslazione, 143 differenziabile, 146 distanza tra due punti, 145 lineare, 21 associata ad una matrice, 29 multilineare, 82 tra insiemi, 318 ascissa curvilinea, 159 asse istantaneo di rotazione, 195, 218 assetto, 191 assioma costitutivo, 258 dell’obiettività della potenza, 225, 227 delle potenze virtuali, 246 delle reazioni vincolari, 230 atlante, 149 atto di moto, 302 rigido, 194 rotatorio, 195 traslatorio, 195 automorfismo, 22 materiale, 262 autosoluzione, 39 autospazio, 46, 125 autovalore, 46, 125 molteplicità algebrica, 48 molteplicità geometrica, 51 autovettore, 46, 125 azione, 298 a distanza, 225 di contatto, 235 barra, 208 base, 11 anolonoma, 151 duale, 79 fisica, 152 naturale, 151 ortogonale, 57 ortonormale, 61 prodotto, 84

reciproca, 103, 105, 151 basi simili, 115 Beltrami, criterio di resistenza di, 292 bilancio della massa, 214 Binet, formula di, 322 cambiamento di base, 33 di base nello spazio duale, 79 di base ortonormale, 63 di coordinate, 148 di unità di misura, 182 campi scalari, vettoriali e tensoriali, 147 campo, 320 carico superficiale, 242 carta, 148, 199 funzione coordinata di una, 148 Cauchy continuo di, 199, 211, 231 equazione di equilibrio indefinito, 242 lemma di, 233 postulato di, 231 taglio di, 231, 236 tensore di, 232 teorema del tetraedro di, 232, 234 Cauchy-Green, tensore destro di, 216 Cauchy-Poisson, teorema di, 238 Cayley-Hamilton, teorema di, 126 centro istantaneo di rotazione, 204 Christoffel, simboli di, 156 simmetria, 156 superficiali, 163 cinematica, 181 linearizzata, 219 coesione, 291 combinazione lineare, 5 commutazione, teorema di, 141 compatibilità cinematica, 278 complemento algebrico, 322 complemento ortogonale, 63 componente di un tensore, 85, 88 di un vettore, 60 configurazione attuale, 187, 211 di confronto , 187 di confronto non distorta, 264 di equilibrio, 305 continuo rigido, 191 325

326 contrazione, 96 completa, 101, 109 di ordine N, 97 esterna, 97 semplice, 96, 109 controimmagine, 318 coordinate di un punto, 148 di un vettore in una base, 26 di una curva in una carta, 153 di una funzione in una carta, 154 lagrangiane, 191 coppia, 227 Coriolis, accelerazione di, 194 corpo elastico, 265 Coulomb, criterio di resistenza di, 291 covettore, 79, 84 Cramer, teorema di, 40 criterio di resistenza, 287 curva, 149 coordinata, 149 integrale, 159 materiale, 213 curvatura di una curva, 159 gaussiana, 166 media, 166 principale, 165 D’Alembert modello di, 296 relazione simbolica di, 304 De Morgan, leggi di, 316 decomposizione additiva, 139 in parte sferica e parte deviatorica, 121 polare, 140, 216 deformazione finita, 216 infinitesima, 219 omogenea, 272 delta di Kronöcher, 87 derivata covariante, 153 lungo curve, 157 superficiale, 163 del determinante, 119 delle funzioni composte, 147 materiale, 212 descrittori di stato, 188 descrizione euleriana, 188 lagrangiana, 188 determinante di un tensore doppio, 118 di una matrice, 322 determinismo meccanico, 301 deviatore, 121 degli sforzi, 288, 290, 292

INDICE ANALITICO diade, 113 diagonalizzazione, 45 degli endomorfismi simmetrici, 68 di una matrice, 48 difetto di ortogonalità, 217, 221 diffeomorfismo, 147 differenza tra punti, 143 dimensione dello spazio biduale, 82 dello spazio dei tensori doppi antisimmetrici, 131 dello spazio dei tensori doppi simmetrici, 127 dello spazio duale, 78 di uno spazio tensoriale, 84 di uno spazio vettoriale, 16 Dirichlet, criterio di stabilità di, 306 divergenza, 157, 168 superficiale, 163 teorema della, 170 dominio, 146 di elasticità, 285 endomorfismo, 22 diagonalizzabile, 46 simmetrico, 66 energia cinetica, 302 elastica di deformazione, 281, 285 potenziale, 304 epimorfismo, 22 equazione caratteristica, 125 costitutiva, 259 per il primo tensore di Piola-Kirchhoff, 273 per il secondo tensore di Piola-Kirchhoff, 273 dei piccoli moti, 308 equazioni cardinali della dinamica, 228 locali di bilancio euleriane, 249 lagrangiane, 255 equiproiettività, 196 estensione semplice, 282 Eulero, angoli di, 137, 192 Eulero-Lagrange equazioni di, 301 teorema di, 301 Fermat, principio di, 298 fluido semplice, 264 forma debole del bilancio della forza euleriano, 250 del bilancio della forza lagrangiano, 253 delle equazioni cardinali della dinamica, 229 forma di un continuo, 186 forma multilineare, 82 forza, 223, 225 di contatto, 225 esterna attiva, 230 esterna reattiva, 230

INDICE ANALITICO interna, 246 risultante, 226 Fourier coefficiente di, 60, 297 serie di, 296 Fredholm, teorema dell’alternativa di, 64 Frenet, formule di, 160 funzionale, 298 d’Azione, 300 di risposta del materiale, 259 funzione cinematica, 209 di carico, 287 di configurazione di un sistema, 301 lagrangiana, 299 piazzamento, 187 piazzamento rigido, 190 scalare isotropa, 266 tensoriale isotropa, 266 Galileo, assiomi di invarianza, 182 Gauss-Weingarten formule di, 164 tensore di, 164 generatori, 7 geometria gaussiana, 160 Gibbs, croce di, 133 gradi di libertà, 191, 200 gradiente, 147, 157, 168, 300 di spostamento, 219 di velocità, 214 di velocità virtuale, 248 superficiale, 163 Gram-Schmidt, metodo di ortogonalizzazione di, 61 Grassman, relazione di, 17 Green-Saint-Venant, tensore di deformazione di, 217 gruppo, 319 abeliano, 319 di simmetria materiale, 263 Hamilton, teorema di, 304

327 kernel, 22 Kirchhoff, assioma di, 225, 230 Lamé, moduli di, 277 Laplace, regola di, 322 lavoro delle azioni di contatto, 279 legge del parallelogramma, 225 Levi-Civita, indicatore di, 114, 120 Liapunov, stabilità dell’equilibrio secondo, 306 linea dei nodi, 192 lineare dipendenza, 7 indipendenza, 7 linee di curvatura, 166 macchina, 202 materiale conservativo, 281 elastico, 258 semplice, 259 matrice, 320 aggiunta, 322 associata ad un prodotto scalare, 55 associata ad una applicazione lineare, 31 cinematica, 200 dei coefficienti, 38 dell’energia cinetica, 303 delle rigidezze, 308 di rotazione, 136, 191 di trasformazione delle traslazioni, 182 diagonale, 45 estratta, 322 identica, 321 inversa, 322 invertibile, 35 minore di una, 322 nulla, 321 quadrata, 321 simmetrica, 321 singolare, 322 trasposta, 321 matrici simili, 45 meccanica Lagrangiana, 295 modulo di taglio, 283 momento risultante, 226 monomorfismo, 22 morfismo, 175 moto, 194, 201 di un continuo, 187 impulsivo, 201 isocrono, 299 rigido, 194 stazionario o estremale, 300 virtuale, 245 Mozzi, teorema di, 195

immagine, 22, 318 insieme, 315 intersezione, 316 ordinamento di un, 317 parzialmente ordinato, 318 totalmente ordinato, 318 unione, 316 insieme di punti aperto, 146 connesso, 146 limitato, 146 intorno, 146 invarianti principali, 118 isomorfismo, 22, 23 Noll canonico tra uno spazio vettoriale ed il suo biassiomatica di, 223 duale, 82 principio del determinismo di, 259 principio dell’azione locale di, 259 tra spazi tensoriali, 100

328 regola di, 263 teorema di rappresentazione di, 261 norma, 59 euclidea, 59 nucleo, 22 obiettività della forza, 229 della potenza, 228 principio di, 260 omomorfismo, 77 ortogonalità, 54 osservatore, 181 inerziale, 183 solidale, 191 parametri lagrangiani, 191, 199 particella materiale, 181, 187 Piola-Kirchhoff primo tensore degli sforzi di, 253 secondo tensore degli sforzi di, 253 Poisson effetto, 282 rapporto di, 282 polinomio caratteristico, 47, 136 polo dell’atto di moto, 195 potenza, 226 virtuale, 245 delle forze esterne, 247, 252 delle forze interne, 248, 250 potenziale elastico, 281 pressione, 231 prima forma fondamentale, 162 principio di azione e reazione, 225 di minima azione, 298 problema isoperimetrico, 298 processo dinamico, 258 prodotto cartesiano, 317 diadico, 113 duale, 83 tra tensori, 101 righe per colonne, 321 scalare, 53 definito positivo, 57 naturale, 127 non degenere, 57 reale, 57, 72 tra tensori, 110 tra tensori doppi, 126 tensore, 84, 86 fattorizzazione universale, 95 triplo, 114, 213 vettore, 114 vettore, regola della mano destra, 115 vettore, regola della mano sinistra, 115 pseudo-tensore, 121 pulsazioni proprie, 311

INDICE ANALITICO punto, 143 di frontiera, 146 esterno, 146 interno, 146 rango, 322 per colonne, 322 per minori, 322 per righe, 323 rappresentazione spettrale, 129 reazioni vincolari, 230 regione a forma di guscio, 166 a forma di piastra, 166 di uno spazio puntuale euclideo, 146 relatività galileiana, 182 relazione, 317 di equivalenza, 317 di similitudine tra matrici, 45 risonanza, 311 Rivlin ed Ericksen, teorema di, 270 rotazioni, 190 rotore, 168 Rouché-Capelli, teorema di, 38 scalare (elemento di un campo), 3 scorrimento puro, 282 seconda forma fondamentale, 164 sforzo cilindrico, 289 di taglio, 231 isotropo, 289 medio, 288 residuo, 274 triassiale, 289 uniassiale, 288 shifter, 167 simbolo di permutazione, 114, 120 sistema di coordinate, 148 cartesiane, 149 cartesiane ortogonali, 149 cilindriche, 150 curvilinee, 150 gaussiane, 161 modali, 310 principali, 165 referenziali, 211 sferiche, 150 spaziali, 211 sistema lineare, 38 omogeneo, 38 sistemi di forze equivalenti, 229 solido aleotropo, 283 anisotropo, 264 elastico anisotropo, 266 elastico isotropo, 266 isotropo, 264 omogeneo, 272

INDICE ANALITICO semplice, 264 somma di sottospazi, 16 di un punto ed un vettore, 144 diretta, 18 sottospazio, 5 ortogonale, 55 spazio affine, 143 assoluto delle posizioni, 183 biduale, 80 caratteristico, 125 degli stati, 199 delle configurazioni, 184, 199 duale, 78 nullo, 5 puntuale euclideo, 143, 183 vettoriale, 3 delle traslazioni, 143, 183 orientazione per uno, 115 spostamento, 187 angolare, 217 virtuale, 302 Stokes, teorema di, 171 struttura, 202 isostatica, 202 piana, 209 reticolare, 209 superficie coordinata, 149 orientabile, 161 Sylvester, criterio di, 72 taglio ottaedrico, 293 taglio semplice, 282 tensione componenti, 238 direzioni principali, 240 principale, 240 quadrica indicatrice, 240 tensore, 83 aggiunto, 122 antisimmetrico, 131 cartesiano, 103 contratto, 88 di una forma bilineare, 89 degli sforzi, 232, 236 deviatorico, 121 di deformazione, 212 di deformazione finita, 216 di deformazione infinitesima, 219 di elasticità, 274, 276, 277, 280, 283 simmetria, 280 di rotazione finita, 216 di rotazione infinitesima, 219 doppio, 113 legge di trasformazione delle componenti, 87 metrico, 105, 113, 152, 156 superficiale, 162

329 ordini di covarianza e controvarianza, 83 ortogonale, 134 parte deviatorica, 281 parte sferica, 281 radice quadrata, 129 rappresentazione controvariante, 107 rappresentazione covariante, 105 semplice, 86 sferico, 121 simmetrico, 127 assi principali, 131 definito positivo, 129 semi-definito positivo, 129 trasposto, 116 unimodulare, 264 teorema delle forze vive, 303 traccia, 96, 168 di un tensore doppio, 118 trasformazione covariante, 105 Tresca, criterio di resistenza di, 289 triedro principale, 159 variazione ammissibile, 299 varietà affine, 149 velocità angolare, 194, 195 di deformazione, 218 lagrangiana, 218 virtuale, 248 di rotazione, 218 virtuale, 248 euleriana, 188 lagrangiana, 187, 201 virtuale, 245 versore, 60 vettore, 3 assiale, 133, 193 binormale, 159 della tensione di Cauchy, 231 delle componenti lagrangiane, 304 materiale, 190 normale principale, 159 posizione, 183, 190 tangente, 159 traslazione assoluta, 183 velocità lagrangiana, 297 vincolo, 200 bilaterale, 200 esterno, 200 interno, 205 molteplicità di un, 200 unilaterale, 200 Voigt, trasformazione di, 283 von Mises criterio di resistenza di, 292 tensione equivalente di, 293 Wang, lemma di, 268 Young, modulo di, 282