fìsica

Guarda l'indice

Definizione

sf. [sec. XIII; f. di fisico]. In senso lato, lo studio della natura nei suoi molteplici aspetti e quindi la spiegazione, secondo una visione razionale, dell'insieme dei fenomeni che in essa avvengono. In senso stretto, in contrapposizione soprattutto al campo d'indagine della chimica, lo studio relativo a tutti quei fenomeni naturali, detti appunto fisici, che non coinvolgono trasformazioni di corpi o di sostanze.

Significato e campo d'azione della fisica

Significato e campo d'azione della fisica si sono evoluti nel tempo proprio per il carattere speculativo e interpretativo che essa ha sempre avuto. La antica, a prescindere dall'interpretazione in senso causalistico di alcuni fenomeni da parte della scuola di Alessandria, rimase strettamente legata alla filosofia. Tale metodologia mutò solo col Rinascimento, in seguito all'introduzione del metodo sperimentale che segnò l'inizio della classica. Nel successivo sviluppo della fisica si verificò la suddivisione in settori ben distinti, rispondenti ai molteplici aspetti sotto cui si manifestano i fenomeni naturali: meccanica, termologia, acustica, elettrologia, ottica, magnetismo. Questa suddivisione, con le relative branche derivate, è seguita in prima approssimazione e per motivi d'ordine pratico, derivati dallo stretto rapporto con la tecnologia, ma non risponde alla problematica aperta dalla grande massa di scoperte effettuate nel sec. XX. Si è venuto così delineando l'indirizzo metodologico della moderna che ha preso l'avvio dal rifiuto del meccanicismo, proprio della fisica classica, dall'introduzione di nuovi metodi d'indagine sperimentale e di nuovi modelli matematici e, soprattutto, da due rivoluzionarie teorie: quella della relatività e quella della meccanica quantistica. La fisica contemporanea si prefigge non tanto di formulare leggi particolari quanto di indagare e comprendere l'intima struttura della materia e di definire le reali connessioni e l'interdipendenza tra i fenomeni che si verificano a ogni livello d'organizzazione della materia stessa. L'estrema specializzazione delle ricerche ha portato da una parte a definire i campi d'indagine della fisica in senso stretto (fisica atomica, vedi atomo, fisica nucleare, vedi nucleo, fisica molecolare, fisica dello stato solido, vedi solido, fisica del plasma, vedi plasma, fisica dello spazio, fisica quantistica), e dall'altra al sorgere di scienze interdisciplinari (astrofisica, chimica-fisica, biofisica ecc.) che analizzano e interpretano i rapporti d'interdipendenza fra micro- e macrocosmo, entrambi intesi come risultato dell'intima connessione, disposizione e funzionalità di insiemi di enti infinitesimali sostanzialmente uguali.Tra le scienze interdisciplinari che vedono la fisica come protagonista vi sono la fisica medica (vedi oltre), che fornisce alla medicina potentissimi strumenti di diagnosi e di cura, e la fisica computazionale (vedi oltre), che invece è uno strumento matematico e informatico fornito alla fisica, tanto potente da costituire una vera e propria nuova branca della fisica a fianco della fisica teorica e della fisica sperimentale.

Cenni storici: l'età greca

L'inizio della fisica, come quello delle scienze in generale, si colloca tradizionalmente nel mondo culturale greco del sec. VI a. C., quando alcune delle scuole presocratiche cercarono di spiegare i fenomeni naturali mediante astrazione di cose sensibili come gli elementi primordiali, la terra, l'acqua, l'aria e il fuoco (Talete, Anassimandro, Anassimene), o mediante concetti astratti quali i numeri della scuola pitagorica, per giungere infine alla spiegazione atomistica di Leucippo e Democrito che costituì la prima grande concezione meccanicistica in cui tutta la realtà, anima compresa, è materiale e composta di atomi mobili in uno spazio vuoto. Questa concezione, per le particolari condizioni sociali e culturali della Grecia, fu sconfitta nel sec. IV a.C. dai grandi sistemi di Platone prima, e di Aristotele poi. Per Platone l'ordine che si riscontra tra le cose e nei cicli non è il risultato del caso, bensì deriva da un'intelligenza che mira al bene generale e l'accadere di ogni fenomeno realizza quindi uno scopo. Platone identificò i veri principi di tutte le cose in enti geometrici (superfici, triangoli ecc.) dalla cui composizione derivano i costituenti primi degli oggetti, cioè i poliedri regolari, ciascuno dei quali rappresenta l'entità elementare di un certo corpo e ne determina, con la propria figura, le proprietà fisiche. Così il fuoco risulterebbe costituito da tetraedri regolari, l'aria da ottaedri, l'acqua da icosaedri, la terra da cubi. Aristotele, reagendo al pensiero platonico, tentò di fondare la fisica sull'osservazione empirica, all'interno di una generale concezione del mondo. L'osservazione comune mostra la regolarità dei fenomeni celesti, la circolarità dei moti degli astri intorno alla Terra, la loro uniformità e continuità; mostra inoltre che sulla Terra ci sono corpi che cadono (per esempio, una pietra) e corpi che salgono (il fumo, il fuoco ecc.) e che i fenomeni che vi si svolgono non sono, in generale, né uniformi né eterni. Di qui l'idea aristotelica dei due mondi distinti: quello celeste e quello terrestre. Il mondo celeste, incorruttibile e inalterabile, è costituito da sfere concentriche, ognuna delle quali sostiene un pianeta, limitato dalla sfera delle stelle fisse; i moti delle sfere, considerati naturali ed eterni, sono impressi da un motore primo immobile. Il mondo terrestre o sublunare, fermo al centro dell'Universo, corruttibile e alterabile, è un miscuglio di vari elementi che tendono a portarsi verso i loro luoghi naturali, rappresentati dalle sfere concentriche della terra, dell'acqua, dell'aria e del fuoco. I moti conseguenti sono considerati naturali in contrapposizione a quelli violenti che ostacolano o deviano gli oggetti dalla realizzazione di questo fine. Per Aristotele, qualsiasi moto violento ha bisogno di una forza per compiersi e la sua velocità risulta direttamente proporzionale alla forza e inversamente proporzionale alla resistenza del mezzo nel quale si compie. Poiché nel vuoto la resistenza è nulla, la velocità di un corpo dovrebbe essere infinita. Di qui l'esclusione del vuoto dal sistema aristotelico (horror vacui). La concezione aristotelica, per la sua coerenza e la capacità di giustificare il sistema astronomico di Tolomeo e di fornire una visione finalistica del mondo accettata dal cristianesimo, ebbe per secoli un incontrastato successo. La fisica ha tuttavia avuto nell'antichità altri momenti molto importanti per i successivi sviluppi nel periodo moderno. Basti ricordare i nomi di Euclide e Archimede (sec. III a.C.). Il primo fu autore di un vero e proprio trattato di ottica geometrica, basato sull'ipotesi della propagazione rettilinea della luce. Il secondo gettò le basi della statica e dell'idrostatica; studiò acutamente i problemi dell'equilibrio dei corpi arrivando a enunciare i principi della leva e dei baricentri e il concetto di momento di una forza rispetto a una retta; formulò inoltre il principio che porta il suo nome e il concetto di peso specifico relativo. L'impostazione matematica, poggiante su esperienze eseguite con molta perizia, fa dell'opera di Archimede il punto più alto raggiunto dalla fisica antica. Ragioni economiche e culturali impedirono tuttavia l'ulteriore sviluppo dell'indirizzo metodologico proposto dalla scuola di Alessandria, di cui Archimede fu il massimo rappresentante. Infatti la società antica, anche perché basata sul lavoro degli schiavi, non favorì quelle innovazioni nel campo della tecnica che avrebbero permesso il proseguimento, secondo questa concezione moderna, degli studi già avviati.

Cenni storici: il riesame della fisica aristotelica da Leonardo a Galileo

Il sistema filosofico aristotelico e la fisica che ne era parte integrante rimasero il patrimonio fondamentale di tutta la cultura medievale. Non mancarono tuttavia alcuni significativi contributi dovuti soprattutto all'arabo Alhazen (sec. XI), che riprese gli studi di ottica compiendo esperienze con gli specchi sferici, cilindrici, conici e occupandosi del fenomeno della rifrazione. In quello stesso periodo la scoperta della proprietà direttrice dell'ago magnetico pose all'attenzione degli studiosi gli strani fenomeni del magnetismo. Più tardi riaffiorarono e presero consistenza antichi problemi della fisica aristotelica rimasti irrisolti. Perché una freccia continua il suo moto nonostante sia cessata la forza agente? Le scuole dei fisici di Parigi e di Oxford (sec. XIV) cominciarono a considerare criticamente la teoria del moto di Aristotele. Successivamente, i risultati conseguiti in campo tecnico sollevarono problemi di idraulica, di balistica, di resistenza dei materiali. Personaggi nuovi, legati a classi sociali attive e intraprendenti, fecero la loro comparsa. L. da Vinci, con le sue numerosissime invenzioni, con gli studi di meccanica, di idraulica e di idrostatica (principio dei vasi comunicanti) fu il rappresentante più illustre degli “ingegneri” rinascimentali. Accanto a questi particolari contributi, ulteriormente sviluppati da G. Benedetti, R. Tartaglia e G. Cardano, che fecero ritenere sempre più inadeguata la fisica aristotelica dominante, vanno segnalati alcuni decisivi eventi del sec. XVI. Primo fra tutti la pubblicazione delle opere di Archimede, che consentì il recupero della tradizione di fisica tecnica e matematica dell'antichità; in secondo luogo la ripresa del platonismo e del pitagorismo e il rinnovato interesse per la filosofia della natura con B. Telesio e G. Bruno; infine l'introduzione del sistema astronomico di N. Copernico che, ipotizzando l'eliocentrismo, non solo si poneva in netta antitesi con il sistema cosmologico aristotelico ripreso e perfezionato da Tolomeo, ma era anche del tutto incompatibile con la fisica di Aristotele. Non disponendo tuttavia di una teoria alternativa del moto, il sistema copernicano era soggetto a gravi obiezioni. Se la Terra ruota su se stessa, perché non si osserva una caduta dei corpi verso occidente? Perché una palla di cannone non percorre minor distanza se sparata verso oriente? In tale situazione Copernico più che chiudere apriva tutta una serie di nuovi problemi, resi ancor più complicati dall'ipotesi delle traiettorie ellittiche introdotta da G. Keplero per dar conto delle irregolarità osservate nel moto dei pianeti. Fu G. Galilei che affrontò i più importanti di questi problemi e pose le prime basi della nuova fisica. Il perfezionamento e l'uso scientifico del cannocchiale e le sistematiche osservazioni delle macchie del Sole e di Venere, delle meteore e la scoperta dei satelliti di Giove lo portarono a negare l'esistenza di due mondi nettamente distinti, uno dei quali corruttibile e l'altro inalterabile. Il mondo è uno solo e, contrariamente a quanto sostenuto da Aristotele, le leggi che se ne ricavano studiando i fenomeni terrestri hanno validità per tutto l'Universo. Restava il problema di una nuova teoria del moto e Galilei si rese conto che per risolvere la questione occorreva compiere una rigorosa critica dell'esperienza quotidiana che sembrava legittimare la concezione di Aristotele. Per Galilei tale esperienza non può costituire la base della scienza: troppo instabile e imprecisa, non si presta infatti a un discorso rigoroso e matematico. La nuova scienza non deve perciò occuparsi degli oggetti così come si offrono ai nostri sensi, ma deve invece compiere una netta distinzione negli oggetti tra qualità primarie e secondarie. Solo per le prime (figura, moto e posizione) è possibile una trattazione matematica precisa e oggettiva, mentre le seconde (odore, sapore) sono del tutto soggettive. Riprendendo su questa nuova base lo studio del moto, Galilei confutò decisamente la tesi aristotelica dei luoghi naturali e della “leggerezza” o “pesantezza” in sé dei corpi: tutti i corpi sono gravi e l'andare in su o in giù dipende soltanto dalla loro gravità specifica relativa al mezzo ambiente. Alla base della nuova dinamica, Galilei pose due principi fondamentali: il principio d'inerzia e quello di relatività. Il primo scardina la distinzione aristotelica fra moti naturali e moti violenti. Il secondo consente di conservare le stesse forme matematiche delle leggi meccaniche per tutti i sistemi inerziali, mediante semplici formule di adattamento dette trasformazioni di Galilei, e toglie ogni valore alle obiezioni aristoteliche al moto della Terra. A questo rinnovamento della fisica contribuì anche la precisa enunciazione da parte di Galilei della legge di caduta dei gravi. Restava però aperta un'importantissima questione: stante il principio d'inerzia, di che tipo erano le forze che trattenevano i pianeti nelle loro orbite ellittiche?

Cenni storici: Newton e la teoria della gravitazione universale

Fu I. Newton che, forte degli studi di Galilei sulla caduta dei gravi e di C. Huygens sulle forze centrifughe, risolse il problema con una geniale ipotesi: la forza che trattiene i pianeti attorno al Sole è la stessa che provoca la caduta di un grave sulla Terra. La teoria della gravitazione universale che portava a compimento la rivoluzione scientifica veniva formulata da Newton nella celebre opera Philosophiae naturalis principia mathematica del 1687. In quest'opera, tutti i corpi vengono ridotti alla considerazione di un punto (il loro baricentro) al quale si attribuisce una massa, definita come la quantità di materia posseduta dai corpi, indipendente dal loro stato di moto o di quiete. Newton collocò tutti i fenomeni in uno spazio e in un tempo assoluti al fine di conferire un solido fondamento alla trattazione matematico-meccanicistica della nuova fisica, nella quale le relazioni tra gli eventi sono di tipo rigorosamente causale-deterministico. Nonostante l'impianto meccanicistico della trattazione, non mancarono obiezioni da parte dei cartesiani, i quali ravvisavano nella forza gravitazionale a distanza un concetto di tipo magico o misterioso. Newton oppose a simili obiezioni un radicale rifiuto affermando che la nuova scienza si limitava a prendere atto dell'esistenza di tale forza e a darne la più precisa formulazione matematica. Newton condusse molte ricerche sulla natura della luce e, in opposizione alla teoria di Huygens secondo cui la luce consiste di onde propagantisi nel mezzo etereo che riempie l'Universo, sostenne che la luce consiste di corpuscoli, diversi per i vari colori che, lanciati dai corpi luminosi nello spazio, danno luogo a tutti i fenomeni di riflessione e rifrazione. L'indagine newtoniana condizionò, nelle sue direttrici fondamentali, gli sviluppi successivi della fisica. Nel Settecento infatti, gli studi si svolsero seguendo due distinti indirizzi. Da una parte, in base ai grandi progressi conseguiti in campo matematico, si operò per conferire alla meccanica newtoniana maggior rigore analitico e completezza. Ne sono esempi significativi la Meccanica analitica (1788) di G.L. Lagrange, che conclude le ricerche iniziate da L. Euler e J. D'Alembert, e la Meccanica celeste (1799-1825) di P.S. Laplace. Dall'altra parte si ebbe un intensificarsi di ricerche in vari settori della fisica, favorite dal progresso tecnico e dal prevalere degli indirizzi empirico-razionalistici in campo filosofico. In tal modo lo sviluppo degli studi sull'elettricità e sul magnetismo (B. Franklin, A. Volta e L. Galvani), sul calore (A.L. Lavoisier e P.S. de Laplace), sull'ottica (studio dell'acromatismo delle lenti) e sull'acustica (problema delle lamine vibranti), portarono in breve a un complesso arricchimento di tutta la fisica. La tendenza prevalente era quella di spiegare i nuovi fenomeni ricorrendo ai concetti fondamentali della meccanica newtoniana (massa, velocità e accelerazione delle particelle, forze proporzionali all'inverso del quadrato delle distanze ecc.).

Cenni storici: la fisica del XIX secolo

Su questa linea di ricerca G. Green e S.D. Poisson, sollecitati agli inizi del sec. XIX dai successi conseguiti dalle indagini di C.A. Coulomb sulle forze elettriche e magnetiche, cercarono di conferire a tale settore una rigorosa trattazione matematica che potesse significare una sua riduzione analitica alla meccanica. Lo stesso tipo di studi fu svolto da J. Fourier per il calore. Ma questi propositi e speranze erano destinati a trovare ostacoli sempre più consistenti. La nascita della termodinamica (S. Carnot), scienza legata alle ricerche intorno alle macchine termiche e al grande sviluppo dell'industrializzazione, sembrò spostare tutta la questione in favore del nuovo concetto di energia. Infatti, se non era possibile ridurre la scienza fisica alla meccanica sembrava però effettuabile la sua riduzione ai nuovi principi di conservazione di energia, capaci di sostenere anche la meccanica. Ma anche questa tendenza urtava contro varie difficoltà. La scoperta dell'induzione elettromagnetica, dell'elettrolisi, della polarizzazione della luce, lo studio dei gas, l'effetto Joule, l'effetto fotoelettrico presentavano un quadro della situazione troppo contraddittorio per il compimento dell'impresa. Inoltre, con l'affermarsi della teoria cinetica dei gas e della meccanica statistica nel tentativo di spiegare il comportamento dei gas mediante i moti disordinati delle molecole che li costituiscono, si giunse (L. Boltzmann) all'idea di legge probabilistica. Il secondo principio della termodinamica venne a perdere, in tale contesto, la caratteristica di legge naturale per assumere quella di legge altamente probabile. Quantunque la maggior parte dei fisici ritenesse allora possibile ricondurre le leggi statistiche nell'ambito delle leggi meccaniche ordinarie, il principio di causalità deterministica fu per la prima volta posto seriamente in dubbio. La crisi definitiva del meccanicismo, cioè la sua inadeguatezza a dare interpretazioni accettabili della realtà, si rese sempre più evidente con l'introduzione nei singoli settori della fisica di nuove teorie, quali: la teoria ondulatoria della luce di A. Fresnel che, nell'ipotesi dell'onda luminosa trasversale (le cui oscillazioni avvengono cioè perpendicolarmente alla direzione di propagazione), spiegò i fenomeni della polarizzazione, dell'interferenza e della diffrazione; la teoria matematica dell'induzione elettromagnetica di A.M. Ampère e il concetto di linea di forza mediante il quale M. Faraday riuscì a costruire un importante modello per i dielettrici. Un tentativo di parziale sintesi di questi vari risultati fu operato da J.C. Maxwell che, riprendendo criticamente i lavori di Faraday e riconsiderando il problema dei dielettrici dal punto di vista matematico, pervenne, nel 1873, a una teoria unitaria dell'ottica, dell'elettricità e del magnetismo fondata sul concetto di campo e condensata in quattro famosissime equazioni. La sistemazione dell'elettromagnetismo operata da Maxwell, pur costituendo un notevole successo teorico, lasciava aperti grossi problemi la cui soluzione avrebbe determinato un radicale mutamento teorico della fisica. Negli ultimi decenni del sec. XIX si intensificò inoltre l'analisi critica dei fondamenti della meccanica newtoniana e si pose in dubbio la concezione secondo cui i principi fondamentali e i concetti primitivi della meccanica debbano costituire la base ultima di tutta la fisica. In questa linea si pongono, oltre ad alcuni studi di H. Hertz, i fondamentali lavori epistemologici di E. Mach, di J.H. Poincaré e di P. Duhem. All'interno della nuova fisica maxwelliana, il primo problema che i fisici si trovarono ad affrontare fu quello riguardante i sistemi inerziali. Nella meccanica newtoniana esiste tutta una classe infinita di sistemi di riferimento (appunto i sistemi inerziali) per i quali le leggi della meccanica rimangono invarianti, non mutano cioè la loro espressione formale, rispetto alle trasformazioni galileiane delle coordinate. Le equazioni di Maxwell non hanno tali caratteristiche, non ammettono cioè, rispetto alle trasformazioni galileiane, sistemi inerziali. H.A. Lorentz propose di risolvere la grave difficoltà mantenendo intatto il quadro spazio-temporale classico e introducendovi alcune novità concettuali (il tempo locale, la contrazione ecc.) interpretabili fisicamente nel quadro anzidetto.

Cenni storici: Einstein e i fondamenti della fisica relativistica del XX secolo

A. Einstein, invece, in una memoria del 1905, affrontava la questione rivoluzionando l'intero quadro della meccanica classico-newtoniana. Influenzato dalle critiche epistemologiche, in specie da Mach, Einstein ridefinì il concetto di contemporaneità di eventi sulla base delle operazioni di misura effettivamente eseguibili. Ciò portava a respingere l'idea di tempo assoluto introdotta da Newton e ad assumere il concetto di tempo relativo a un sistema di riferimento. Alla base della meccanica, Einstein pose due nuovi principi fondamentali, il principio di relatività e il principio della costanza della velocità della luce (quest'ultimo chiaramente in contrasto con la meccanica di Galilei-Newton), dei quali dedusse, per via matematica, le formule di trasformazione di Lorentz e altri sorprendenti risultati. Tra questi, l'accertata variabilità della massa con la velocità (tra il 1909 e il 1919 studiando gli elettroni emessi nel decadimento β), l'effetto di rallentamento del tempo in “orologi” in movimento, cioè in sistemi fisici che possono, in qualche modo, dare una misura del tempo (verificato nell'allungamento del tempo di vita medio di particelle in moto relativistico, vicino cioè, alla velocità della luce, rispetto a quello delle stesse particelle a riposo: per tale verifica furono usate misure sui mesoni osservati nei raggi cosmici) e la sostanziale identità tra massa ed energia, affermata nella famosa formula E=mc², dove c è la velocità della luce, (la prima verifica sperimentale fu fatta nel 1932 da J. Cockcroft e E. Walton in una reazione nucleare, bombardando atomi di 7Li con protoni ¹H (nuclei di idrogeno) e ottenendo dalla loro reazione nucleare la produzione di due particelle α (nuclei di elio, 4He): confrontando la massa delle particelle incidenti con quella dei prodotti della reazione nucleare poterono constatare un difetto di massa Δm corrispondente a una energia Δmc²=17,35 MeV). Tale risultato, che fu la base, qualche decennio più avanti, della fisica nucleare, trovò tragica conferma nell'esplosione della bomba atomica di Hiroshima. Questi studi, approfonditi ed estesi, portarono Einstein a formulare nel 1916 la teoria della relatività generale, in cui veniva posto il principio fondamentale che le leggi della fisica dovessero valere per qualsiasi sistema comunque in moto, dovessero cioè essere invarianti non solo rispetto alle trasformazioni di Lorentz (relatività ristretta), ma rispetto a ogni trasformazione. Ciò condusse a negare il carattere euclideo tridimensionale dello spazio e a collegare strettamente il tipo di geometria da esso assunto con la particolare distribuzione delle masse nello spazio. Fu necessario inoltre orientare gli studi verso un maggior approfondimento matematico per poter elaborare una teoria sintetica abbastanza soddisfacente della gravitazione, dei campi e della relatività. Tali indagini, pur mantenute all'interno del quadro causale-deterministico, implicarono una profonda riconsiderazione delle basi sulle quali poggiava la fisica classica e contribuirono enormemente all'affermazione della moderna consapevolezza scientifica, sviluppatasi anche in rapporto ai tentativi di spiegare i nuovi fenomeni riscontrati nella scala atomica. La teoria della relatività generale è stata fondamentale nello sviluppo della cosmologia e dell'astrofisica moderne. Negli anni 1960 e 1970 le proprietà generali dello spazio-tempo come descritto dalle equazioni di campo della relatività generale sono state indagate a fondo da R. Penrose, S. Hawking e G. Ellis, sviluppando tecniche matematiche innovative nel tentativo di unificare la teoria della relatività generale con le teorie quantistiche. I risultati di queste ricerche hanno permesso lo studio e la comprensione, per esempio, dei buchi neri e delle condizioni in cui si può essere trovato l'Universo nei primi istanti dopo la sua formazione secondo la teoria del big-bang.

Cenni storici: i quanti di Max Planck

Negli ultimi decenni del sec. XIX, lo studio degli elettroni, la scoperta dei raggi X e della radioattività naturale, l'effetto fotoelettrico, avevano posto all'attenzione dei fisici un nuovo campo di fenomeni non facilmente interpretabili alla luce della teoria elettromagnetica maxwelliana. Le indagini successive attorno ai fenomeni di radiazione del corpo nero, i tentativi di ricondurli all'elettromagnetismo o alla termodinamica, costituirono un punto critico, in questa fase della ricerca, che fu superato nel 1900 con l'introduzione della nuova fisica dei quanti a opera di M. Planck. Per spiegare i fenomeni di radiazione del corpo nero, Planck introdusse una costante, il cui significato fisico era quello di trasformare i processi di trasferimento d'energia, sino ad allora considerati continui e trattati con il calcolo integrale, in pacchetti discontinui che venivano sommati tra di loro. Questa ipotesi sollevò perplessità tra i fisici, notevolmente accresciute quando Einstein nel 1905 estese l'utilizzazione di tale costante a tutti i fenomeni di radiazione dei fotoni o quanti di luce e all'emissione degli elettroni nell'effetto fotoelettrico. Tale costante finì poi per comparire anche nel modello atomico proposto da N. Bohr nel 1913, modello che, nonostante il suo successo (esso riuscì a spiegare, infatti, in maniera eccellente la serie delle righe di emissione dell'atomo di idrogeno, e fu confermata successivamente in un famoso esperimento da J. Franck e G.L. Hertz), comporta assunzioni molto difficilmente compatibili con la meccanica classica e con l'elettromagnetismo (secondo tali leggi, per esempio, una carica elettrica in moto accelerato emette radiazione con spettro continuo, e, perdendo energia, descrive un moto a spirale fino a collassare sul nucleo intorno a cui orbita).

Cenni storici: nascita della meccanica quantistica

Anche da ciò risultava la necessità di costruire una nuova meccanica, compito cui ci si accinse intorno agli anni Venti del sec. XX partendo dalla considerazione dell'esistenza dei fotoni, ormai confermata anche dalla scoperta dell'effetto Compton e dell'effetto Raman, e dalla necessità di ricorrere alla teoria delle onde per dar conto della frequenza che compare nella definizione del fotone e nella spiegazione dei fenomeni di interferenza. A ciò si aggiunga che, nella scala atomica, il modello di Bohr suggeriva di introdurre il dualismo onda-corpuscolo anche per gli elettroni e gli altri costituenti elementari della materia. Per superare questa difficoltà occorreva perciò che una nuova meccanica desse conto della presenza di detto dualismo. Anche qui, come nel caso della relatività, la diversità delle proposte coinvolgeva un preciso giudizio sulla fisica classica e sulla sua metodologia. L. de Broglie sostenne che il dualismo onda-corpuscolo è un fatto innegabile: per salvare il quadro classico di spiegazione occorre riprendere la teoria delle onde di Fresnel, confrontarne le equazioni con quelle della meccanica analitica nella formulazione datane da W. Hamilton, e studiare quelle soluzioni (onde) che presentino singolarità di un certo tipo (corpuscolo). Difficoltà matematiche, allora insormontabili, costrinsero però de Broglie e i suoi sostenitori a dichiarare impraticabile la via da loro stessi proposta e ad accettare, sia pure con riluttanza, al congresso Solvay del 1927, la meccanica quantistica fondata e sostenuta dal gruppo di Copenaghen e in particolare da N. Bohr e W. Heisenberg, per i quali, al contrario, solo una rinuncia definitiva alle rappresentazioni tradizionali poteva consentire la piena spiegazione delle leggi atomiche. La fisica classica subì quindi un mutamento che può essere paragonato alla rivoluzione scientifica di Galilei e Newton. La causalità deterministica, pilastro delle teorie fisiche precedenti, viene accantonata, la probabilità assume nuovi significati, il concetto e lo strumento di misura subiscono radicali modifiche nel loro significato, il rapporto matematica-natura-teoria viene completamente rivisto. I dati sperimentali della fisica atomica (le frequenze di transizione) vengono, nella meccanica quantistica, direttamente incapsulate in tabelle matematiche (le matrici) le quali ammettono certe regole di calcolo che implicano, tra l'altro, la non commutabilità del loro prodotto. Prendendo come base della teoria un'ipotesi relativa alla differenza tra i prodotti commutati delle matrici rappresentanti le quantità di moto e le coordinate corrispondenti delle particelle, la meccanica quantistica perviene all'importantissimo principio di indeterminazione: le grandezze caratteristiche delle particelle ammettono, per principio, un limite nella precisione simultanea delle loro misure. Secondo Bohr, tali grandezze sono “complementari” nel senso che, contrariamente alla nozione intuitiva di immagine completa di una particella, non possono venire usate contemporaneamente: una esclude l'altra e viceversa. W. Pauli formulò il principio di esclusione, secondo il quale solo un singolo elettrone può occupare un dato stato quantico. Secondo la meccanica quantistica ogni elettrone può essere descritto da un insieme di numeri quantici, che ne definiscono il suo orbitale (guscio, o shell) o stato di energia, il suo momento angolare e l'orientazione del momento in un campo magnetico: in ogni orbitale possono esistere una molteplicità di stati elettronici, ogni stato essendo identificato da un insieme di numeri quantici diverso da tutti gli altri. La periodicità della tavola degli elementi e il periodo di ripetizione di elementi dal comportamento chimico analogo poteva essere spiegato dalla meccanica quantistica completata dal principio di esclusione di Pauli. I successi conseguiti dalla nuova meccanica facilitarono il suo accoglimento tra i fisici, anche se la profondità della frattura effettuata nei confronti della fisica classica destò forte perplessità e avversione in fisici quali Einstein ed E. Schrödinger, che non erano disposti ad accettare tutte le molteplici conseguenze della nuova teoria (prima tra tutte, quella di incrinare il principio di causalità alla base del determinismo). Il dibattito continuò negli anni successivi e sia le difficoltà incontrate dalla meccanica quantistica nel controllare e spiegare il nuovo mondo delle particelle elementari, sia la difficoltà di effettuare una sintesi tra il suo impianto teorico e quello della relatività generale determinarono la ripresa e la riconsiderazione della vecchia proposta di de Broglie. E. Schrödinger, nel 1926, diede una formulazione della meccanica quantistica in termini di una funzione d'onda descritta da un'equazione differenziale alle derivate parziali, l'equazione di Schrödinger, partendo dalle idee di de Broglie, il quale aveva proposto una rappresentazione delle particelle in termini di onde (a ogni particella dotata di momento p, de Broglie associò una lunghezza d'onda λ=h/p). La conferma sperimentale della validità di tale descrizione si ebbe a opera di C.J. Davisson e L.H. Germer in un esperimento di diffrazione di elettroni su un reticolo cristallino di nichel, dove furono osservate frange del tutto simili a quelle prodotte dalla diffrazione di un'onda luminosa. L'interpretazione comunemente accettata della funzione d'onda di Schrödinger fu data da M. Born, il quale interpretò il quadrato del modulo della funzione d'onda come la probabilità di trovare la particella descritta da essa in un determinato stato (cioè in una determinata posizione, con un determinato momento ecc.). Nel 1927, W. Pauli incluse nella formulazione di Schrödinger anche la dipendenza dallo spin elettronico, il momento angolare intrinseco (cioè non legato al suo moto nello spazio, a differenza del momento angolare orbitale) scoperto sperimentalmente da G. Uhlenbeck a S. Goudsmit nel 1925.

Cenni storici: una nuova formulazione della teoria quantistica

Un'altra formulazione più generale della nuova meccanica quantistica fu proposta nel 1926 da P.A.M. Dirac, il quale propose una equazione d'onda per l'elettrone, che ebbe molto successo e fu ampiamente usata negli anni seguenti. Gran parte del successo dell'equazione proposta da Dirac deriva dal fatto che, se si richiede che vengano soddisfatti i vincoli della relatività ristretta, lo spin viene introdotto in maniera naturale in tale formulazione. Una peculiarità dell'equazione di Dirac è quella di ammettere per ogni stato dell'elettrone caratterizzato da energia positiva uno stato “compagno” con energia negativa. Gli stati di una particella libera con energia negativa non hanno senso fisico, e l'interpretazione che ne fu data (dopo diversi e contrastanti tentativi) fu quella di stati corrispondenti a particelle con carica elettrica di segno opposto a quello dell'elettrone. Per diversi anni tale interpretazione del risultato dell'equazione di Dirac fu controversa, e solo nel 1933 fu scoperta nei raggi cosmici l'antiparticella dell'elettrone, il positrone. Tale successo della formulazione della teoria quantistica dimostrava oramai lo stato di maturazione e comprensione profonda raggiunto, tale da poter predire l'esistenza di particelle non ancora osservate. La teoria quantistica fu dunque applicata a moltissimi campi della fisica, fornendo spiegazioni a effetti rimasti inspiegati dalla fisica classica, come, per esempio, la struttura fine dello spettro dell'idrogeno, l'energia di legame nelle molecole più semplici, la conducibilità elettrica e termica nei metalli (spiegata utilizzando il concetto di elettrone libero nei metalli, soggetto al principio di esclusione di Pauli). Lo studio coerente dell'interazione tra radiazione e materia condusse ad una trattazione quantistica del campo elettromagnetico: J.S. Schwinger e R. Feynman (1948), e precedentemente S. Tomonaga (1943) costruirono indipendentemente una teoria relativistica della elettrodinamica quantistica (Quantum ElectroDynamics, o QED), per mezzo della quale fu possibile dar conto di effetti assai dettagliati dovuti all'interazione del campo elettromagnetico generato dall'elettrone con se stesso. Uno è il cosiddetto spostamento di Lamb (Lamb shift, dal nome del suo scopritore) di alcune righe dello spettro dell'atomo di idrogeno spiegato da H.A. Bethe (1947); un altro è l'anomalia (rispetto alla teoria di Dirac) nel valore del momento magnetico dell'elettrone misurata da P. Kush e H.M. Foley e spiegata da Schwinger nel 1949.

Cenni storici: fisica nucleare e fisica delle particelle fondamentali

Tutti i principali settori di ricerca della fisica del sec. XX hanno subìto influenze fondamentali, e in alcuni casi affondano le loro radici, nelle teorie della relatività e della meccanica quantistica. La fisica nucleare (vedi nucleo) può essere fatta iniziare con la scoperta della radioattività dell'uranio da parte di H. Becquerel (1894), e dal lavoro pionieristico di Marie e Pierre Curie e di E. Rutherford, il quale identificò tre tipi di radiazione emessa dagli elementi radioattivi (i raggi α, quelli β e quelli γ) e dedusse dai suoi esperimenti un modello di atomo simile a quello poi proposto da Bohr; essa trovò proprio nella nuova meccanica quantistica lo strumento teorico per la descrizione formale di questa serie di osservazioni. Le esperienze misero in evidenza due nuovi tipi di forze: la forza nucleare forte, responsabile del legame tra le particelle costituenti il nucleo atomico e assai più intensa (da qui il suo nome) della repulsione elettrostatica sulle distanze tipiche del raggio nucleare, e la forza nucleare debole (più debole, appunto, rispetto alla forza forte), che E. Fermi (1934) introdusse per spiegare il decadimento β, dopo che Pauli aveva introdotto, per spiegare tale fenomeno, una nuova particella, il neutrino (1931). Il modello dell'atomo fu completato con la scoperta del neutrone (1932), una particella neutra di massa analoga al protone, presente nei nuclei atomici. È con H. Yukawa (1935) che viene introdotta l'idea che la forza tra particelle potesse essere descritta come forza di scambio, mediata a sua volta da un'altra particella (nel caso della forza forte, a tale particella fu dato il nome di mesone). Questo concetto ebbe grande successo e si estese anche a tutta la fisica delle particelle fondamentali. La fisica nucleare balzò alla ribalta con la fissione dell'isotopo dell'uranio U-235 e con la prima reazione a catena a opera di Fermi (1942), prologo alle bombe nucleari utilizzate dagli USA durante la seconda guerra mondiale. Oltre che nello studio del nucleo atomico, la fisica nucleare è applicata in astrofisica è applicata in astrofisica e nello studio della materia nucleare a densità molto elevate. In particolare, la fisica nucleare è di grande importanza per le teorie cosmologichee per lo studio della formazione degli elementi (nucleosintesi) all'interno delle stelle e nelle fasi iniziali dell'Universo.Parallelamente alla fisica nucleare si andò sviluppando la fisica delle particelle fondamentali, o fisica delle alte energie, o fisica fondamentale. L'atto di nascita di questo settore chiave della fisica si può considerare la scoperta dell'elettrone (sir J.J. Thomson, 1897) e poi del protone e del fotone. Essa ha le sue basi nei concetti della meccanica quantistica, nell'equazione di Dirac per l'elettrone e nella elettrodinamica quantisitca (QED). La fase pionieristica della fisica delle particelle ebbe grande impulso dalla scoperta dei raggi cosmici (prima sorgente naturale di particelle energetiche) e giunse a maturità con la costruzione dei primi acceleratori di particelle, dagli anni Trenta in poi. La costruzione di acceleratori di particelle sempre più potenti portò, dagli anni Quaranta del sec. XX in poi, alla scoperta di una grande quantità di nuove particelle, che furono classificate in diverse famiglie. L'introduzione, da parte di M. Gell-Mann e, indipendentemente, di E. Zweig (1964) dei quark (costituenti elementari degli adroni) permise di razionalizzare il quadro assai complesso delle particelle note fino ad allora. Progressi teorici notevoli si ebbero con la teoria di S. Weinberg, S. Glashow e A. Salam (1967) che unificò la forza debole e quella elettromagnetica. Il “modello standard”, la teoria delle particelle e delle forze, o interazioni, fondamentali, ha unificato tre delle quattro interazioni fondamentali della natura (debole, forte e elettromagnetica, lasciando al di fuori solo la gravitazione), spiegando, e spesso predicendo, in maniera eccellente la gran parte delle osservazioni sperimentali.

Cenni storici: la cosmologia come branca della fisica

Il grande quadro che alla fine del sec. XX vedeva descritte le leggi della fisica in un numero limitato di teorie e leggi ha spinto i fisici a inoltrarsi ulteriormente verso una maggiore unificazione di tali teorie e leggi. All'inizio del sec. XXI era fortemente sentita la necessità di rendere conto di tutte le interazioni all'interno di un'unica interazione che, al di là del modello standard, spiegasse insieme l'interazione elettrodebole (interazione elettromagnetica e interazione debole), l'interazione forte (spiegata dalla cromodinamica quantistica) e l'interazione gravitazionale. Le teorie più avanzate, basate da una parte sugli sviluppi della matematica (teoria delle stringhe e teorie di supersimmetria) facevano intravedere tale possibilità anche attraverso la considerazione di tutta una serie di particelle non ancora osservate (particella di Higgs e particelle supersimmetriche, vedi particella), ma forse accessibili allo studio mediante una nuova generazione di acceleratori di particelle e in particolare del Large Hadron Collider (LHC) del CERN di Ginevra. La ricerca delle nuove particelle previste dalle teorie di supersimmetria e la ricerca del gravitone (mediatore dell'interazione gravitazionale) è stata e continua a essere effettuata anche mediante osservatori astronomici orbitanti e laboratori sotterranei. Contemporaneamente, la fisica delle particelle elementari si è sempre più legata alla cosmologia e all'osservazione dell'Universo. In questo campo, la teoria dell'inflazione, l'osservazione in grande dettaglio della radiazione cosmica di fondo, la scoperta dell'energia oscura che spinge l'Universo a un'espansione accelerata e altri fenomeni, a volta del tutto inaspettati, hanno aperto ancora nuove strade allo studio del mondo fisico. In particolare, la teoria dell'inflazione, è sembrata prospettare una molteplicità di universi di cui il nostro è solo uno degli innumerevoli possibili, peraltro assolutamente staccati dalla nostra possibilità di osservazione.

Cenni storici: la simulazione di fenomeni fisici

Intanto, insieme all'enunciazione di nuove teorie fisiche e cosmologiche, sono stati sviluppati acceleratori di particelle di ultima generazione in grado di gettar luce sullo stato della materia primordiale e sulla asimmetria tra materia e antimateria. Sono anche entrati in funzione avanzatissimi strumenti astronomici che son giunti sin quasi a osservare l'atto di creazione dell'Universo. Ma soprattutto ha raggiunto la maturità un altro strumento di ricerca che si è aggiunto agli strumenti sperimentali, come gli acceleratori, e agli strumenti di osservazione come i telescopi di tutte le specie (dai telescopi ottici ai telescopi per onde gravitazionali): il computer. I moderni supercomputer e la capacità di simulare in tempi ragionevoli miliardi di anni di evoluzione cosmica hanno ampliato in modo esponenziale la riproduzione di situazioni fisiche molto complesse non più in laboratorio, ma all'interno di programmi di calcolo. Ha raggiunto così la maturità la nuova branca della fisica, distinta dalla fisica teorica, dalla fisica sperimentale e dalla fisica osservativa (al telescopio) e cioè la cosiddetta computazionale. Nata come strumento per l'esecuzione automatica di grandi moli di calcolo, la fisica computazionale ha presto acquistato dignità di vera e propria disciplina. Attraverso di essa si possono risolvere equazioni differenziali che descrivono sistemi idealizzati, in particolare sistemi non lineari la cui soluzione analitica non sia nota. La possibilità di controllare esattamente le condizioni dell'esperimento (puramente numerico e cioè simulato) permette di riprodurre situazioni difficilmente ottenibili in esperimenti. In alcuni casi la fisica computazionale ha introdotto nuovi modelli per spiegare i fenomeni fisici: modelli fittizi con regole evolutive ad hoc, apparentemente senza attinenza con la descrizione fisica convenzionale, ma facili da implementare numericamente e che, entro certi limiti, sono equivalenti a equazioni derivate per via teorica. Esempi di tali modelli sono le teorie di campo su reticolo, in cui, per esempio, le equazioni della cromodinamica quantistica vengono risolte in uno spazio discreto, cioè in un reticolo, oppure gli automi cellulari utilizzati per la descrizione della turbolenza nei fluidi. Nello studio dei sistemi caotici e nella risoluzione di modelli cosmologici o di evoluzione stellare la fisica computazionale spesso costituisce l'unica possibilità per svolgere un “esperimento” riproducibile e ben controllato.

Cenni storici: la fisica della complessità

Unificazione delle leggi della fisica in un'unica legge, la cosiddetta teoria del tutto, unificazione di fisica e cosmologia, simulazione e manipolazione della realtà al computer, non rappresentano tuttavia vere e proprie rivoluzioni concettuali della fisica. A larghe linee si può affermare che la storia della fisica ha vissuto tre rivoluzioni, l'ultima delle quali, pur non essendo immediatamente apparente, è però altrettanto radicale delle prime due. La prima rivoluzione, rappresentata dalla nascita e dallo sviluppo della fisica di Galileo e di Newton, ha fondato per la prima volta la fisica su basi strettamente deterministiche. La conoscenza delle leggi della meccanica e l'osservazione della realtà in un determinato istante sembravano consentire la perfetta conoscenza del mondo in un qualsiasi istante successivo. La seconda rivoluzione, quella della relatività di Einstein accompagnata all'indeterminazione intrinseca alle leggi della meccanica quantistica, ha invece mostrato che è possibile fare previsioni solo all'interno a un certo grado di probabilità. Il che ha sostituito il probabilismo al determinismo newtoniano. La terza rivoluzione ha mostrato che non è possibile fare previsioni certe neanche all'interno delle più semplici leggi della meccanica puramente newtoniana. L'impossibilità di determinare esattamente le condizioni iniziali anche del più semplice sistema fisico ha portato già all'inizio del sec. XX il fisico e matematico J.H. Poincaré a teorizzare l'impossibilità di determinare lo stato futuro di qualunque sistema macroscopico, fosse anche la posizione di un corpo del Sistema Solare in un determinato anno. Questa profonda indeterminazione fu riscoperta nel 1963 dal meteorologo E. Lorenz quando si avvide che, basandosi su modelli meteorologici anche semplicissimi, il semplice ‘battito d'ali di una farfalla' avrebbe modificato radicalmente le previsioni. È nata così la fisica dei sistemi complessi, basata sul concetto di caos deterministico.

La fisica medica

Settore interdisciplinare di enorme importanza scientifica che comprende l'insieme delle applicazioni della fisica alla medicina. Due campi hanno assunto particolare rilievo: la radioterapia antitumorale e la diagnostica per immagini. La radioterapia, tradizionalmente basata sull'utilizzo di massicce dosi di radiazioni prodotte dal cobalto 60 (cobaltoterapia) e da irradiazioni con raggi X, è andata progressivamente integrandosi con l'uso di acceleratori di particelle dedicati (lineari e circolari) e, principalmente, con l'adroterapia. Tecniche fisiche di irradiazione a bassa energia sono anche utilizzate insieme a sostanze sensibilizzanti per distruggere masse tumorali superficiali o all'interno di cavità. È questa la terapia fotodinamica (PDT, Photo Dynamic Therapy) in cui le cellule tumorali vengono marcate con sostanze sensibili alla luce e poi distrutte con questa. Nell'ambito della fisica medica, ha acquistato sempre maggior rilevanza l'utilizzo del laser, per esempio come bisturi e, in oculistica, per il trattamento della cornea e della retina, ma anche nel trattamento di tumori superficiali.

Bibliografia

E. Hoppe, Geschichte der Physik, Braunschweig, 1926; M. Gliozzi, Storia della fisica, Torino, 1962; A. Einstein, L. Infeld, L'evoluzione della fisica, Torino, 1967; U. Forti, Storia della scienza, 6 voll., Varese, 1969; L. Geymonat, Storia del pensiero filosofico e scientifico, 6 voll., Milano, 1972; I. Asimov, Il libro di fisica, Milano, 1990.

Media


Non sono presenti media correlati

Collegamenti