Come è possibile ridurre al minimo gli errori di tipo 1 e di tipo 2?

Risposta:

La probabilità di un errore di tipo 1 (rifiuto di una vera ipotesi nulla) può essere minimizzata selezionando un livello minore di significatività #alpha# prima di fare un test (che richiede un più piccolo #p#-valore per il rifiuto #H_{0}#).

Una volta impostato il livello di significatività, la probabilità di un errore di tipo 2 (mancato rifiuto di un'ipotesi nulla falsa) può essere minimizzata selezionando una dimensione del campione più grande o scegliendo un valore alternativo "soglia" del parametro in questione che è più lontano dal valore nullo. Questo valore alternativo di soglia è il valore assunto per il parametro quando si calcola la probabilità di un errore di tipo 2.

Per essere "onesto" da prospettive intellettuali, pratiche e forse morali, tuttavia, il valore di soglia dovrebbe essere scelto in base alla minima differenza "importante" dal valore nullo che vorresti essere in grado di rilevare correttamente (se è vero ). Pertanto, la cosa migliore da fare è aumentare la dimensione del campione.

Spiegazione:

Il livello di significato #alpha# di un test di ipotesi è uguale alla probabilità di un errore di tipo 1. Pertanto, impostandolo su un valore inferiore, riduce la probabilità di un errore di tipo 1. "Impostandolo più in basso" significa che hai bisogno di prove più forti contro l'ipotesi nulla #H_{0}# (tramite un inferiore #p#-valore) prima di rifiutare il null. Pertanto, se l'ipotesi nulla è vera, avrai meno probabilità di rifiutarla per caso.

Ridurre #alpha# per ridurre la probabilità di un errore di tipo 1 è necessario quando le conseguenze di un errore di tipo 1 sono gravi (forse le persone moriranno o si spenderanno inutilmente molti soldi).

Una volta un livello di significato #alpha# è stato deciso. Per ridurre la probabilità di un errore di tipo 2 (perché anche le conseguenze potrebbero essere gravi), è possibile aumentare la dimensione del campione o scegliere un valore alternativo del parametro in questione che sia più lontano dal valore null.

Aumentando la dimensione del campione, si riduce la variabilità della statistica in questione, il che ridurrà le sue probabilità di non trovarsi nella regione di rifiuto quando la sua vera distribuzione campionaria indicherebbe che dovrebbe essere nella regione di rifiuto.

Scegliendo un valore di soglia del parametro (in base al quale calcolare la probabilità di un errore di tipo 2) che è più lontano dal valore null, si riduce la possibilità che la statistica di test sarà vicina al valore null quando la sua distribuzione di campionamento indicherebbe che dovrebbe essere lontano dal valore nullo (nella regione di rifiuto).

Ad esempio, supponiamo che stiamo testando l'ipotesi nulla #H_{0}:mu=10# contro l'ipotesi alternativa #H_{a}:mu>10# e supponiamo di decidere su un piccolo valore di #alpha# ciò porta a rifiutare il null se #bar{x}>15# (questa è la regione del rifiuto). Quindi un valore alternativo di #mu=16# comporterà una probabilità inferiore al 50% di non riuscire a rifiutare in modo errato #H_{0}# quando #mu=16# è considerato vero, mentre un valore alternativo di #mu=14# comporterà una probabilità superiore al 50% di non riuscire a rifiutare in modo errato #H_{0}# quando #mu=14# si presume che sia vero. Nel primo caso la distribuzione campionaria di #bar{x}# è centrato su 16 e l'area sotto di essa a sinistra di 15 sarà inferiore al 50%, mentre in quest'ultimo caso la distribuzione campionaria di #bar{x}# è centrato su 14 e l'area sotto di essa a sinistra di 15 sarà maggiore del 50%.

Lascia un commento