Wiki90: Enciclopedia degli stili anni '90 sul Web
In questo articolo esploreremo a fondo l'argomento Correlazione (statistica) e tutti gli aspetti ad esso correlati. Dalla sua origine al suo impatto sulla società attuale, attraverso la sua evoluzione nel tempo e la sua influenza su diversi ambiti di studio. Correlazione (statistica) è un argomento di grande importanza sia storicamente che nel contesto attuale, ed è fondamentale comprenderlo per avere una visione completa della sua rilevanza nel mondo di oggi. Attraverso questo articolo analizzeremo in modo approfondito ogni aspetto di Correlazione (statistica) e forniremo una panoramica dettagliata che ci aiuta a comprenderne il ruolo e il significato oggi.
In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità. La correlazione non dipende da un rapporto di causa-effetto quanto dalla tendenza di una variabile a cambiare in funzione di un'altra.
Detto altrimenti correlazione non significa causazione.
Il termine apparve per la prima volta in un'opera di Francis Galton, Hereditary Genius (1869). Non fu definita in modo più approfondito (la moralità di un individuo e la sua instabilità morale sono non correlate).
Otto anni dopo, nel 1877, lo stesso Galton scoprì che i coefficienti di regressione lineare tra X e Y sono gli stessi se a entrambe le variabili viene applicata la deviazione standard σx e σy: Galton utilizzò in realtà lo scarto interquartile, definendo il parametro "coefficiente di co-relazione" e abbreviando "regressione" in r.
In base alle caratteristiche presentate, la correlazione può definirsi:
Inoltre, le correlazioni possono essere:
Il grado di correlazione tra due variabili viene espresso tramite l'indice di correlazione. Il valore che esso assume è compreso tra −1 (correlazione inversa) e 1 (correlazione diretta e assoluta), con un indice pari a 0 che comporta l'assenza di correlazione; il valore nullo dell'indice non implica, tuttavia, che le variabili siano indipendenti.
I coefficienti di correlazione sono derivati dagli indici, tenendo presenti le grandezze degli scostamenti dalla media. In particolare, l'indice di correlazione di Pearson è calcolato come rapporto tra la covarianza delle due variabili e il prodotto delle loro deviazioni standard:
Va comunque notato che gli indici e i coefficienti di correlazione siano da ritenersi sempre approssimativi, a causa dell'arbitrarietà con cui sono scelti gli elementi: ciò è vero, in particolare, nei casi di correlazioni multiple.
Contrariamente a quanto si potrebbe intuire, la correlazione non dipende da un rapporto di causa-effetto quanto dalla tendenza di una variabile a cambiare in funzione di un'altra. Le variabili possono essere tra loro dipendenti (per esempio la relazione tra stature dei padri e dei figli) oppure comuni (relazione tra altezza e peso di una persona).
Nel cercare una correlazione statistica tra due grandezze, per determinare un possibile rapporto di causa-effetto, essa non deve risultare una correlazione spuria.
Se e sono variabili aleatorie, l'errore standard associato al coefficiente di correlazione è:
dove è il coefficiente di correlazione e è la numerosità campionaria.
Controllo di autorità | Thesaurus BNCF 15575 · LCCN (EN) sh85033032 · GND (DE) 4165343-9 · BNF (FR) cb11978503n (data) · J9U (EN, HE) 987007567883105171 |
---|