[Fisica] Le grandezze fisiche

Le grandezze fisiche

Una grandezza fisica è una proprietà di un corpo o di un fenomeno che può essere misurata ed è espressa mediante un numero. Il peso – per esempio quello di un tavolo – è una grandezza: la si può misurare con uno strumento adatto (la bilancia) e la si può esprimere attraverso un valore numerico. La simpatia o l’appetito, invece, non sono grandezze: possiamo esprimere un’opinione sulla simpatia di un nostro amico e possiamo dire se siamo affamati oppure no, ma non possiamo misurare la simpatia e l’appetito, né esprimerli numericamente.

Le unità di misura

Per misurare una grandezza dobbiamo metterci d’accordo su qual è l’unità di misura da utilizzare. Per esempio per le distanze usiamo il metro. 

Misurare quindi significa confrontare una grandezza con una grandezza campione presa come riferimento e alla grandezza di riferimento si assegna un valore numerico pari a 1. Tale grandezza si chiama unità di misura. Di conseguenza: misurare una grandezza significa stabilire quante volte l’unità di misura è contenuta in tale grandezza.

I campioni di riferimento sono cambiati nel tempo, grazie ai progressi compiuti dalla tecnologia. Un esempio di questi cambiamenti è rappresentato dal metro, l’unità di misura della lunghezza. Dal 1791 al 1960, il campione di riferimento al quale era stata attribuita la lunghezza di 1 metro era una barra di metallo (costituita per il 90% da platino e per il 10% da iridio) resistente e inalterabile, custodita a Parigi. Da questo campione di riferimento ne sono stati ricavati altri identici, distribuiti negli altri Paesi.

Le grandezze fisiche fondamentali

Le grandezze fisiche fondamentali del Sistema Internazionale (SI) sono sette:

GRANDEZZAUNITA' DI MISURASIMBOLO
Lunghezzametrom
Massakilogrammokg
Temposecondos
Corrente elettricaampereA
TemperaturakelvinK
Intensità luminosacandelacd
Quantità di sostanzamolemol

Le grandezze fisiche derivate

Le grandezze derivate, che sono la maggior parte delle grandezze fisiche “derivano” dalle grandezze fondamentali anzi dette e le più importanti sono:

GRANDEZZAUNITA' DI MISURASIMBOLO
Areametro quadrato
Volumemetro cubo
Velocitàkilometri all'ora ; metri al secondo
Accelerazionemetri al secondo quadrato
Lavoro e CaloreJouleJ
PotenzaWattW
Differenza di potenzialeVoltV
ResistenzaOhm
FrequenzaHertzHz

La notazione scientifica

La notazione scientifica è un metodo che permette di scrivere numeri molto grandi oppure numeri molto piccoli in una modalità sintetica attraverso l’utilizzo delle potenze del 10. Essa consiste nell’ottenere sempre un numero compreso tra 1 e 10 (anche decimale) moltiplicato per la potenza del 10 e equivalente al numero originale.

Esempi:

30.000.000=3\cdot 10^7

0,00000456=4,56\cdot 10^{-6}

Gli strumenti di misura

Per misurare una grandezza è indispensabile utilizzare uno strumento di misura adeguato.
Gli strumenti sono dotati di proprietà particolari che li rendono più o meno adatti a compiere una certa misurazione. Quando prepariamo un dolce, per pesare gli ingredienti va bene una bilancia da cucina, mentre quando pesiamo le sostanze in laboratorio dobbiamo usare bilance di precisione perché le misure devono essere molto più accurate. In che cosa differiscono i due tipi di bilancia? La principale differenza è la sensibilità, cioè la più piccola variazione del valore della grandezza che uno strumento può rilevare. In molte bilance da cucina la sensibilità è 10 g, mentre la sensibilità di una qualsiasi bilancia di laboratorio è almeno 1/100 di grammo. Dalla sensibilità dello strumento dipende il numero di cifre che compongono la misura. La portata degli strumenti ci dà un’indicazione della variazione massima della grandezza che possiamo misurare con quello strumento.

Facciamo un esempio. I termometri ad uso medico hanno una portata di circa 6 °C, dato che sono in grado di misurare temperature comprese tra i 35 °C e i 41 °C. Quelli per misurare la temperatura dell’aria hanno una portata ben maggiore.
Un’altra caratteristica da considerare nella scelta dello strumento da utilizzare è la sua prontezza, cioè la rapidità con cui lo strumento fornisce la misura richiesta. Nel caso degli strumenti a ultrasuoni che stanno sostituendo il metro nelle misurazioni professionali, la prontezza è di circa 1 secondo, cioè il tempo necessario perché sul display compaia il valore della lunghezza misurata. In alcuni casi la prontezza dipende dai nostri sensi, come quando misuriamo una lunghezza con un righello. Possiamo suddividere gli strumenti di misura in due diverse tipologie:

  • gli strumenti analogici possiedono un indice mobile (per esempio, un ago) che si sposta lungo una scala composta da tacche e numeri;
  • gli strumenti digitali sono dotati di un display sul quale si legge direttamente il numero che corrisponde al valore della grandezza.
La sensibilità è la più piccola variazione che lo strumento può misurare.
La portata è il valore massimo che lo strumento può misurare.

Incertezza

E’ impossibile ottenere una misura esatta: infatti a ogni misura è associata un’incertezza che può essere più o meno grande.

L’incertezza legata a una misura è dovuta a due ragioni:

  • gli strumenti hanno una sensibilità limitata, per cui non sono in grado di distinguere grandezze che differiscono per meno di una certa quantità;
  • nell’effettuare una misura si compiono inevitabilmente degli errori.

Incertezza dello strumento

La lunghezza di un foglio di carta se la misuriamo con un righello, è 29,7 cm. Questa misura sembra esatta ma il foglio potrebbe essere lungo 27,72 cm o 27,75 cm e il righello che ha una sensibilità di 1 mm non è in grado di distinguere i decimi di millimetro. Anche se usassimo uno strumento più sensibile come un calibro, potremmo misurare i decimi di millimetro (27,72 cm) ma saremmo incerti sui centesimi di millimetro, quindi si capisce che è impossibile ottenere una misura del tutto priva di incertezze.

Errori casuali

Gli errori casuali variano in modo imprevedibile da una misura all’altra e influenzano il risultato a volte per eccesso, altre per difetto.

Errori sistematici

Gli errori sistematici avvengono sempre nello stesso verso: o sempre per eccesso, o sempre per difetto.

Valore medio

Per esprimere con maggiore probabilità una misura corretta si utilizza il valore medio e l’errore assoluto.

Se si ripete una misura più volte si sceglie come risultato il valore medio, cioè il rapporto tra la somma delle misure effettuate e il numero delle misurazioni:

V_M=\frac{V_1+V_2+V_3+ ... + V_n}{n}

più misure vengono effettuate più il risultato finale si avvicinerà a quello corretto.

L’errore assoluto

L’errore assoluto è uguale alla differenza tra il valore più grande e il valore più piccolo rilevato diviso 2,

E_a=\frac{V_{MAX}-V_{MIN}}{2}

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

error: Contenuto protetto !!