Gli indici di posizione e di variabilità non esauriscono il complesso di informazioni contenute nei dati quantitativi. Potrebbe infatti capitare che due variabili abbiano la stessa media e la stessa deviazione standard ma differiscano per il peso dei valori più grandi o più piccoli rispetto al valore centrale. Per migliorare la capacità di descrizione dei dati e rendere più accurata l’operazione di sintesi, quando si descrivono variabili quantitative è quindi sempre consigliabile calcolare anche i cosiddetti indici di forma, cioè asimmetria e curtosi. Nello specifico, in questo articolo ci concentreremo sull’asimmetria statistica.
Indice
A cosa serve studiare l’asimmetria?
In molto contesti operativi è importante avere indicazioni sulla forma della distribuzione, al fine di sapere se i dati osservati assumono in prevalenza valori inferiori (o superiori) a quello medio o si distribuiscono approssimativamente in maniera simmetrica attorno alla misura di tendenza centrale. In particolare, in questo articolo ci concentreremo sull’asimmetria statistica.
Ad esempio, in ambito finanziario l’asimmetria può essere utile ad un broker per sapere se i rendimenti giornalieri di un titolo si collocano più frequentemente sopra o sotto il valore medio e se tendono a disporsi in modo simmetrico intorno ai valori di moda, media e mediana. Un sociologo potrebbe invece sfruttare l’asimmetria per studiare come si distribuiscono le disuguaglianze dei redditi ed operare confronti tra le forme di più sottopopolazioni. In ambito medico, l’asimmetria può invece, ad esempio, aiutare a distinguere quelle che sono fluttuazioni casuali dei parametri (che tendono ad essere simmetriche) e quelle che invece sono vere e proprie devianze dalla norma.
Significato dell’asimmetria in statistica
In concetto di asimmetria statistica (skewness in inglese) riprende quello di asimmetria geometrica. Per comprendere cosa si intende con questo termine possiamo quindi partire da quello che si studia a scuola rispetto alla simmetria.
In geometria, una figura è simmetrica rispetto a un asse se la sua forma, da una parte e dall’altra di tale asse, è uguale ma ribaltata. Ad esempio, quella a sinistra è una figura simmetrica, mentre quella a destra no.
Tuttavia, la perfetta asimmetria non è così frequente da trovare nei fenomeni reali a causa delle fluttuazioni casuali. Pensa al viso di una persona: due occhi, un naso, una bocca, due orecchie, il tutto posto alla stessa distanza da una linea immaginaria che parte dal centro della fronte ed arriva al centro del mento. Tuttavia, le due parti non sono mai esattamente identiche, ovvero non vi è mai perfetta simmetria. Se non hai mai provato, ti invito a prendere una qualsiasi foto frontale di un viso, a ritagliarla a metà in verticale e quindi a ribaltare prima la parte destra su quella sinistra e poi viceversa. Visto che differenza?
Ma, tornando alla statistica, che cosa si intende allora con asimmetria?
Da un punto di vista formale, l’asimmetria è la proprietà di una distribuzione osservata che indica assenza di specularità rispetto ad un qualsiasi asse verticale. In passato, per definire questa condizione si utilizzava anche il termine “obliquità”, oggi però in disuso.
Quindi, una distribuzione si dice asimmetrica se non è possibile individuare un asse verticale che suddivida la distribuzione in due parti specularmente uguali. Infatti, l’asse è una linea lungo la quale possiamo piegare la figura ottenendo due metà identiche tra loro e una distribuzione si definisce asimmetrica quando, invece di essere speculare, è “tirata” in una direzione.
Il concetto di asimmetria in statistica ha senso quindi solo per variabili quantitative o qualitative ordinali per cui è possibile valutare la distribuzione.
Cosa significa distribuzione di frequenza asimmetrica?
La curva di frequenza di una distribuzione asimmetrica è caratterizzata da una distribuzione diversa dei dati tra parte destra e sinistra del valore centrale. Nella pratica, una distribuzione sarà asimmetrica quando parte sinistra e destra di una distribuzione non sono tra loro specchiate. Come abbiamo detto, si dice infatti asimmetrica una distribuzione di frequenza la cui forma non si presenta speculare rispetto alla posizione centrale, ovvero all’asse centrale.
Ad esempio, la distribuzione Chi Quadrato o la F di Fisher sono per definizione distribuzioni asimmetriche, in quanto possono assumere solo valori positivi ed il loro picco è vicino allo zero per poi avere una coda lunga che teoricamente si estende fino a più infinito. Al contrario, la distribuzione Normale o t di Student sono per definizione distribuzione simmetriche, in quanto caratterizzate da un picco centrale e da due code della stessa lunghezza.
Come capire se una distribuzione è simmetrica o asimmetrica?
Quando i dati sono distribuiti uniformemente su entrambi i lati dell’asse centrale, la distribuzione è simmetrica. Ad esempio, sia una distribuzione che ha una forma campanulare (come la distribuzione Normale) sia una distribuzione con forma a U (come la distribuzione quadratica) sono simmetriche.
Quando i dati non sono distribuiti uniformemente su entrambi i lati del picco la distribuzione è asimmetrica. In altre parole, la distribuzione è asimmetrica quando una parte della distribuzione si presenta più allungata dell’altra.
Un primo metodo empirico per individuare la presenza di asimmetria è verificare se la mediana si colloca approssimativamente a metà tra i valori del primo e terzo quartile. Condizione necessaria ma non sufficiente affinché una distribuzione sia simmetrica è infatti che le posizioni del primo e del terzo quartile siano approssimativamente simmetriche rispetto alla mediana. Quindi, se il valore mediano è molto più vicino al primo quartile che al terzo, o viceversa, allora sicuramente si è in presenza di asimmetria.
Un secondo metodo per individuare la presenza di asimmetria è confrontare i valori di media e mediana della variabile. La media aritmetica coincide infatti sempre con la mediana quando il baricentro della distribuzione (determinato dalla media) corrisponde con il suo valore centrale (determinato dalla mediana).
Questa situazione può verificarsi sia quando la distribuzione presenta un picco centrale (ed allora anche la moda corrisponderà al valore di media e mediana) sia quando la distribuzione ha una forma ad U e quindi il valore centrale coincide con quello che lo statistico Domenico Piccolo ha definito “anti-moda”, cioè il valore meno frequente della distribuzione.
Quindi, se il valore medio è diverso dal valore mediano sicuramente si è in presenza di asimmetria.
Lo spostamento maggiore della media rispetto alla mediana dal picco centrale deriva dal fatto che la mediana è un indice di posizione più robusto rispetto alla media. Infatti, nel calcolo della media rientrano tutte le osservazioni, quindi anche quelle potenzialmente più estreme (come gli outliers). Nel calcolo della mediana invece si tiene conto solo dell’osservazione (se la numerosità del campione è dispari) o delle due osservazioni (se la numerosità campionaria è pari) che si trovano al centro della distribuzione ordinata in modo crescente o decrescente.
Tuttavia, il fatto che la media coincida con la mediana è condizione necessaria ma non sufficiente per definire una distribuzione simmetrica. Può, infatti, capitare che una distribuzione risulti asimmetrica pur avendo media e mediana coincidenti. Vediamone un esempio.
Esempio asimmetria statistica
Immagina di dover analizzare le risposte a due domande (A e B) di un questionario. La domanda A chiede quanto i clienti di un ristorante fossero soddisfatti del tempo di attesa. La domanda B chiede quanto gli stessi clienti fossero soddisfatti del menù. Le risposte possibili sono su scala Likert a 7 punti (da 1=per nulla soddisfatto a 7=del tutto soddisfatto). Analizzando le frequenze di risposta (ovvero quanti clienti hanno dato uno specifico punteggio) otteniamo la seguente tabella:
Calcoliamo adesso il punteggio medio ottenuto alle due domande. Poiché i dati provengono da una tabella di frequenza, in questo caso è necessario utilizzare la formula della media ponderata (LINK).
La soddisfazione media per i tempi di attesa (domanda A) è pari a:
(7*1+6*2+5*3+4*4+5*3+6*2+7*1) / 28 = 3
La soddisfazione media per il menù (domanda B) è invece pari a:
(1*1+2*2+3*3+4*4+5*5+6*6+7*7) / 28 = 5
Calcoliamo adesso il punteggio mediano per le stesse domande. Nella tabella di frequenza, le risposte sono già ordinate in modo crescente e quindi non ci resta che trovare a quale modalità corrisponde il valore centrale. Essendo in tutto 28 i clienti, il punteggio mediano sarà dato dalla media dei due valori centrali: cioè 14 e 15.
La soddisfazione mediana per i tempi di attesa è pari a 3, in quanto abbiamo che il 50% dei clienti ha dato punteggio pari o inferiore a 3.
La soddisfazione mediana per il menù è invece pari a 5, in quanto abbiamo che il 50% dei clienti ha dato punteggio pari o inferiore a 5.
Per entrambe le domande quindi il valore della media coincide con quello della mediana (cioè a 3 per la domanda A ed a 5 per la domanda B). Tuttavia, nessuna delle due distribuzioni è simmetrica. Nello specifico, la domanda A sui tempi di attesa presenta un’asimmetria positiva, mentre la domanda B sul menù un’asimmetria negativa.
Tipi di asimmetria statistica
In statistica esistono due tipi di distribuzioni asimmetriche, positive e negative.
Asimmetria nulla o simmetria
Una distribuzione di probabilità si definisce simmetrica quando la sua funzione di probabilità o la sua funzione di densità di probabilità sono simmetriche rispetto ad un particolare valore x, che corrisponde alla posizione dell’asse centrale.
In pratica, questo significa che, nelle distribuzioni simmetriche, le due parti della distribuzione a destra e sinistra dell’asse centrale hanno esattamente la stessa lunghezza e la media coincide con il valore della mediana. Se poi la distribuzione è unimodale (cioè ha un solo picco centrale, come nel caso della distribuzione Normale), allora anche il valore della moda coinciderà con quello degli altri due indici di posizione e quindi avremo media=mediana=moda.
Asimmetria positiva (a destra)
In una distribuzione positivamente asimmetrica la coda più lunga si trova a destra dell’asse centrale. Proprio per questo, l’asimmetria positiva è anche detta asimmetria a destra.
Se poi la distribuzione è unimodale e non vi è troppa disparità tra la lunghezza delle code, si avrà che il valore della media sarà maggiore di quello della mediana che a sua volta è maggiore di quello della moda.
Asimmetria positiva: Moda<Mediana<Media
Asimmetria negativa (a sinistra)
In una distribuzione negativamente asimmetrica la coda è più lunga a sinistra dell’asse centrale. Proprio per questo, l’asimmetria negativa è anche detta asimmetria a sinistra.
Se poi la distribuzione è unimodale e non vi è troppa disparità tra la lunghezza delle code, il valore della media sarà minore del valore della mediana, che a sua volta sarà minore di quello della moda.
Asimmetria negativa: Media<Mediana<Moda
Come individuare graficamente l’asimmetria statistica
Come abbiamo visto, il concetto di asimmetria statistica riprende quello di asimmetria geometrica. Nelle distribuzioni asimmetriche la direzione dell’asimmetria (destra o sinistra) è infatti determinata da quale lato della distribuzione risulta più allungato.
Pertanto, prima ancora che attraverso gli indici numerici che vedremo più avanti, l’asimmetria può essere studiata visivamente attraverso la costruzione dei grafici univariati per variabili quantitative.
Nello specifico, i grafici più utilizzati a questo scopo sono l’istogramma, il grafico di densità ed il boxplot.
La seguente figura riporta un esempio di come la stessa asimmetria positiva si presenta da questi tre diversi punti di vista:
Quando invece la distribuzione è almeno approssimativamente simmetrica, la distribuzione dei dati visivamente si può presentare come nell’esempio qui sotto:
Istogramma
L’istogramma è un grafico che permette di visualizzare la forma di una distribuzione e, di conseguenza, anche la sua asimmetria. La direzione dell’asimmetria indica infatti da quale parte dell’istogramma è concentrata la minor parte delle osservazioni.
Nelle distribuzioni asimmetriche a destra (asimmetria positiva), la parte di destra dell’istogramma è più lunga di quella di sinistra, ove invece si concentra la maggior parte delle osservazioni.
Al contrario, nelle distribuzioni asimmetriche a sinistra (asimmetria negativa), la parte di sinistra dell’istogramma è più lunga di quella a destra, ove invece si ha il picco più alto delle osservazioni.
Grafico di densità
Un’alternativa all’istogramma per rappresentare l’asimmetria è il grafico di densità, ovvero la sua approssimazione continua (in termini tecnici, si parla di smooth). Come puoi vedere dal grafico, anche in questo caso l’asimmetria si individua osservando se la parte sinistra della distribuzione è speculare con quella a destra.
Boxplot
Il boxplot, detto anche diagramma a scatola e baffi, è un’altra tipologia di grafico che permette di individuare distribuzioni asimmetriche.
All’interno della scatola (che rappresenta la porzione di dati compresi tra primo e terzo quartile) la posizione della linea che rappresenta la mediana ci dice, oltre che qual è il valore centrale della distribuzione, anche se i dati sono o no asimmetrici.
- Se la mediana è più vicina al quartile superiore rispetto che a quello inferiore, allora significa che i dati hanno un’asimmetria negativa.
- Se invece la mediana fosse più vicina al quartile inferiore rispetto che al quartile superiore, allora significa che i dati hanno un’asimmetria positiva.
Quando la distribuzione è invece perfettamente simmetrica la mediana si colloca esattamente in posizione centrale rispetto alla scatola, ovvero alla stessa distanza tra primo e terzo quartile. Inoltre, se la distribuzione è simmetrica, il valore della mediana coincide con quello della media (nei boxplot precedenti la media è rappresentata dal quadratino nero).
Le linee che escono dai lati della scatola, ovvero i baffi (whiskers), sono anch’essi indicativi della presenza di asimmetria di una distribuzione. In una distribuzione perfettamente simmetrica, baffo superiore ed inferiore hanno infatti la stessa lunghezza. Se invece un baffo è più corto dell’altro significa che si è in presenza di asimmetria.
Come si calcola l’asimmetria statistica?
Per descrivere una variabile quantitativa hai a disposizione tre tipologie di indici numerici:
- indici di posizione (come media e mediana)
- indici di variabilità (come deviazione standard e range interquartile)
- indici di forma (asimmetria e curtosi)
Pertanto, da un punto numerico l’asimmetria si calcola basandosi sui cosiddetti indici di asimmetria. Come abbiamo già accennato, la peculiarità di questi indici è data dalla loro capacità di distinguere tra tre diverse situazioni: simmetria, asimmetria negativa ed asimmetria positiva.
Quali sono gli indici di asimmetria statistica?
Indice di asimmetria basato sui quartili
Un primo indice di asimmetria è calcolabile partendo dai quartili della distribuzione. In pratica, ordinando i dati dal più piccolo al più grande, il valore centrale corrisponderà alla mediana (Q2). Se poi prendi i valori ordinati dal più piccolo a Q2, il valore centrale corrisponderà al primo quartile (Q1). Se invece prendi i valori ordinati da Q2 al più grande, il valore centrale corrisponderà al terzo quartile (Q3).
L’indice di asimmetria basato sui quartili si basa proprio sulla differenza tra la distanza che separa il terzo quartile dalla mediana (𝑄3 − 𝑄2) e quella che separa la mediana dal primo quartile (𝑄2 − 𝑄1).
Indice di asimmetria basato sui quartili = (𝑄3 − 𝑄2) – (𝑄2 − 𝑄1).
- Se la distribuzione è simmetrica, la quantità (𝑄3 − 𝑄2) risulta pari alla quantità (𝑄2 − 𝑄1), e quindi l’indice di asimmetria sarà pari a 0.
- Se la mediana è più vicina al primo quartile che al terzo, allora l’indice assume valori positivi
- Se la mediana è più vicina al terzo quartile che al primo, allora l’indice assume valori negativi
Indici di asimmetria basati sulla media
Un secondo indice di asimmetria è calcolabile tramite la differenza tra la media aritmetica e la mediana. In una distribuzione simmetrica la differenza sarà sempre pari a 0.
Inoltre, in una distribuzione unimodale e simmetrica anche la differenza tra la media aritmetica e la moda sarà pari a 0. Pertanto, un altro indice di asimmetria basato sulla media è dato dalla differenza tra media e moda.
Tuttavia, la differenza tra questi indici di posizione non fornisce certezza se l’asimmetria sia positiva o negativa. Soprattutto quando la variabile è di tipo ordinale e la distribuzione presenta più di un picco, potrebbe ad esempio capitare che il valore della media sia inferiore a quello della mediana pur in presenza di asimmetria positiva. E viceversa: potrebbe capitare che il valore della media sia superiore a quello della mediana pur in presenza di asimmetria negativa.
Indici di asimmetria statistica normalizzati
Entrambi gli indici di asimmetria visti finora si basano su una differenza che è una misura dimensionale influenzata dai valori della distribuzione e pertanto non permette il confronto tra distribuzioni che presentano unità di misura o ordini di grandezza diversi tra loro. Per superare questa limitazione ed ottenere una misura normalizzata e non dimensionale dell’asimmetria statistica si utilizzano gli indici di asimmetria normalizzati.
In particolare, le tre principali tipologie di indici di asimmetria normalizzati sono:
- indice di asimmetria di Yule-Bowley (dato dal rapporto tra al numeratore l’indice di asimmetria basato sui quartili ed al denominatore il range interquartile): questo indice assume valore 0 quando la distribuzione è simmetrica, valore +1 quando la distribuzione presenta il grado massimo di asimmetria positiva (cioè Q2=Q1), valore -1 quando la distribuzione presenta il massimo grado di asimmetria negativa (cioè Q2=Q3)
- indici di asimmetria di Pearson, che racchiudono a loro volta tre diversi indici, tutti basati sul rapporto tra una differenza con la media al numeratore e la deviazione standard al denominatore, e che hanno però il limite di poter essere usati solo per distribuzioni unimodali:
- indice di asimmetria di moda di Pearson (al numeratore c’è la differenza tra media e moda)
- primo coefficiente di asimmetria di Pearson (al numeratore c’è il triplo della differenza tra media e moda)
- secondo coefficiente di asimmetria di Pearson (al numeratore c’è il triplo della differenza tra media e mediana)
- indice di asimmetria di Fisher (detto anche gamma uno), è definito come la media aritmetica delle terze potenze della variabile standardizzata in quanto è dato dal rapporto tra il momento di ordine 3 ed il cubo della deviazione standard.
Calcolo asimmetria con i software statistici
Come calcolare l’asimmetria su Excel?
Excel ha una funzione già predefinita per il calcolo dell’asimmetria, che puoi utilizzare attraverso lo Strumento di analisi dati selezionando la voce Statistiche descrittive | Riepilogo statistiche oppure tramite la funzione=ASIMMETRIA(X)
Il parametro x è l’intervallo di celle che contiene i valori della distribuzione. La funzione restituisce l’indice di asimmetria della distribuzione. Se l’indice è nullo, la media è uguale alla mediana e la distribuzione è simmetrica.
In particolare, l’indice di asimmetria proposto da Excel si basa sulla seguente formula, che sostanzialmente riprende l’indice di asimmetria di Fisher con il calcolo normalizzato del momento terzo:
Su Excel è disponibile anche un’altra formula di asimmetria =ASIMMETRIA.P(X) che si utilizza però molto più raramente in quanto considera i dati disponibili come l’intera popolazione e non come un campione.
Come calcolare l’asimmetria su SPSS?
Utilizzando il percorso Analizza | Statistiche descrittive | Esplora , SPSS calcolerà in automatico l’asimmetria così come tutti gli altri indici descrittivi numerici.
In alternativa, seguendo il percorso Analizza | Statistiche descrittive | Descrittive, l’indice di asimmetria può essere richiesto flaggandolo dal bottone Opzioni
In entrambi i casi, SPSS calcola lo stesso indice di asimmetria campionaria di Excel ed il relativo errore standard in tutti i casi in qui le unità campionarie sono almeno pari a 3 e la varianza è superiore a 10 alla -20. La formula dell’indice di asimmetria proposto da SPSS è uguale a quella utilizzata da Excel.
Come calcolare l’asimmetria su Jamovi?
Dal menù principale, seleziona Analizza | Descrittive e nel riquadro Descrittive seleziona Asimmetria tra le misure di Distribuzione. Anche in questo caso, la formula utilizzata è la stessa di SPSS ed Excel.
Come si interpreta l’indice normalizzato di asimmetria?
Pur derivando da formule diverse, i principali indici di asimmetria normalizzati calcolati dai software possono essere interpretati tutti allo stesso modo:
- indice =0: perfetta simmetria nei dati
- indice >0: asimmetria positiva (a destra)
- indice <0: asimmetria negativa (a sinistra)
Nel caso in cui l’asimmetria riguardi una scala di risposta di tipo Likert, si possono considerare come soglie quelle proposte da Muthén e Kaplan (1985): se il valore è compreso tra -1 e +1 non ci si deve attendere una distorsione sostanziale dalla condizione di simmetria e pertanto si può concludere che la variabile ha una distribuzione almeno approssimativamente simmetrica.
Questa soglia può essere utilizzata anche per variabili quantitative, ma in quest’ultima situazione un’alternativa più precisa si ottiene utilizzando il test sull’asimmetria.
Test dell’asimmetria
Il test sull’asimmetria valuta il rapporto tra l’indice di asimmetria ed il suo errore standard, stimato nella radice quadrata di 6 diviso per la numerosità campionaria.
Se il valore ottenuto da questo rapporto è inferiore a 2, possiamo affermare con una certa tranquillità che i dati hanno una distribuzione almeno approssimativamente simmetrica. Questo perché il rapporto tra l’indice di asimmetria ed il suo errore standard restituisce un valore standardizzato z che può essere confrontato con le probabilità della distribuzione Normale: un valore pari a 1.96 (quindi quasi 2) corrisponde ad una probabilità del 5%, mentre un valore pari a 2.58 corrisponde ad una probabilità dell’1% che l’asimmetria della distribuzione sia significativamente diversa da quella di una distribuzione Normale.
Asimmetria statistica e outliers
Un outlier rappresenta un’osservazione anomala, ovvero un valore così lontano dagli altri da porre il dubbio statistico che possa provenire da una popolazione diversa da quella oggetto di studio. Questi valori anomali possono verificarsi per vari motivi, tra cui:
- refuso nei dati: ad esempio, cifre invertite, virgola spostata, doppioni nelle cifre, numeri errati
- diversità biologica: se all’interno della popolazione c’è molta variabilità tra le unità statistiche (ad esempio, quando in un campione costituito da macchine sono incluse sia utilitarie che supercar)
- casualità: per caso alcuni valori possono risultare diversi dagli altri (questo capita più frequentemente nei campioni di piccole dimensioni)
- errori sperimentali: ad esempio, misurazioni errate o problemi nella tracciatura delle unità statistiche
- distribuzioni asimmetriche: ad esempio, variabili come il reddito, il tempo di attesa e la concentrazione di un farmaco hanno in genere una distribuzione log-normale. Questa distribuzione è caratterizzata da una forte asimmetria in cui si osservano comunemente alcuni grandi valori lontani da tutti gli altri, ovvero la coda più lunga ed allungata si estende sempre verso destra.
Una forte asimmetria può quindi essere interpretata come un indicatore della possibile presenza di outliers ma non necessariamente come un problema. La scelta di come gestirli deve essere presa quindi volta per volta in base alla tipologia di variabili considerate.
Come aggiustare l’asimmetria statistica?
Alcune trasformazioni delle variabili permettono di ridurne l’asimmetria. In particolare, alcune agiscono senza alterare le proprietà metriche (es. il livello di misurazione) delle variabili originali e quindi possono essere considerate come trasformazioni “light”, mentre altre portano a maggiori alterazioni nei dati e pertanto sono trasformazioni “strong”. Nella pratica, le prime è preferibile partire sempre dalle prime, che spesso si rivelano sufficienti quando l’asimmetria è moderata (indici di asimmetria compresi tra |1| e |2|, e ricorrere alle seconde solo in caso di asimmetrie più consistenti (valori di asimmetria maggiori di |2|) in cui l’applicazione delle prime non fornisce gli esiti attesi.
In particolare, in caso di asimmetria positiva:
- trasformazione “light”: calcolo del logaritmo in base 10 oppure della radice quadrata
- trasformazione “strong”: calcolo del reciproco (1/X)
Per l’asimmetria negativa, è necessario utilizzare una costante (K) di solito uguale a 1+ il valore più elevato nella distribuzione originale. In questo modo si riesce ad evitare di ritrovarsi nella situazione di effettuare operazioni non consentite, come il logaritmo di 0 o la radice quadrata di un numero negativo.
- Trasformazione “light”: calcolo del logaritmo in base 10 oppure della radice quadrata
- Trasformazione “strong”: calcolo del reciproco
In alcuni casi, una forte asimmetria determinata da distribuzioni fortemente concentrate sui valori estremi potrebbero esse dovuta al cosiddetto effetto pavimento (floor effect) o effetto soffitto (ceiling effect) e potrebbe capitare che neanche le trasformazioni “strong” riescano a far rientrare l’asimmetria in valori compresi tra 1 e -1. Quando si verifica questa situazione, una soluzione può essere quella di considerare le variabili quantitative che presentano tali violazioni come ordinali, accorpando i valori meno frequenti in classi. In questo modo è infatti possibile rendere più equilibrata la distribuzione delle frequenze. Questo approccio si rivela particolarmente risolutivo anche in caso di variabili di tipo Likert
Quando una relazione è simmetrica?
In statistica, una relazione è simmetrica se e solo se, prese due qualsiasi variabili X e Y, vale che la relazione tra X ed Y equivale alla relazione tra Y e X. Ad esempio, il coefficiente di correlazione è una misura simmetrica, mentre il coefficiente di regressione non lo è.
Asimmetria statistica: e adesso?
Hai già dato un’occhiata ai miei webinars sui grafici e test statistici? Ti aiuteranno a fare chiarezza ed a comprendere meglio cosa significano in pratica molte delle espressioni statistiche più utilizzate nel corso di un’analisi dati.