Domanda:
Quali sono le possibilità che tiri 6 dadi a 6 facce che ci sia un 6?
Marcos
2020-07-27 00:37:02 UTC
view on stackexchange narkive permalink

Più in generale, qual è la probabilità che n dadi a n facce escano almeno dal lato con il numero più alto ("n")?

Il mio pensiero grossolano è che ogni lato ha 1/6 di probabilità, quindi 6 di loro (1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6) equivalgono al 100% dil'ora, ma ovviamente non è così.

2 monete che ottengono una T (diciamo), hanno 3/4 delle volte che almeno una sarà una T (per ogni 2 lanci di monete).Ma questo è il 75% per un lancio di dadi 2d2, qual è la formula generale per NdN?

Sono abbastanza sicuro che abbiamo già un paio di domande che riguardano questo.
Questo risponde alla tua domanda?[Quante volte devi tirare un dado a 6 facce per ottenere ogni numero almeno una volta?] (Https://stats.stackexchange.com/questions/48396/how-often-do-you-have-to-roll-un-da-morire-a-6 facce-per-ottenere-ogni-numero-almeno una volta)
$ m = n-1 $, ovvero $ P = 1 - \ left (\ frac {n-1} {n} \ right) ^ n $
@NathanChappell: Grazie!Questa è la soluzione più pulita finora!
Sei risposte:
gunes
2020-07-27 00:52:06 UTC
view on stackexchange narkive permalink

La probabilità che un dado non venga visualizzato $ n $ è $ 1-1 / n $ .La probabilità di non trovare $ n $ in nessuno dei $ n $ dadi è $ (1-1 / n) ^ n $ .Se sottrai questo valore da $ 1 $ , sarà probabile che si presenti almeno un $ n $ quando lanci $ n $ dadi, cioè

$$ p = 1- (1-1 / n) ^ n \ rightarrow 1-e ^ {- 1} $$ poiché $ n $ va a $ \ infty. $

Nel caso in cui si tenti di tirare almeno un 6 su 6 tiri di dadi a 6 facce (la domanda del titolo), questo ci dà circa una probabilità del 66,5%.
Nathan Chappell ha una formula più semplice nel commento alla domanda sopra.Purtroppo non ho tempo né è subito evidente come ridurre la tua formula alla sua.
L'interno delle parentesi è lo stesso se presti attenzione @Marcos $$ \ left (1- \ frac {1} {n} \ right) = \ left (\ frac {n-1} {n} \ right) $$
@gunes: Ah, sì, grazie.Sono arrivato alla stessa conclusione dopo aver scritto quel commento - un'equivalenza che non avevo mai visto prima in algebra.Piuttosto, non avevo immaginato di fare 1 = n / ne di riorganizzare i termini.È un trucco algebrico comune, ma non avevo mai avuto il contesto per farlo da solo.
Come arrivi alla conclusione nella tua seconda frase?Questo è LONTANO.Non l'ho visto in combinatoria.Se puoi spiegarlo, te ne do il merito.Non importa ... Penso di vederlo ora.Ti do il merito ...
Se P (non restituire $ n $) = $ p $ per un dado, allora per $ n $ dadi, è $ p ^ n $, che era la mia seconda frase
Stephan Kolassa
2020-07-27 00:54:36 UTC
view on stackexchange narkive permalink

L'evento $ A: = $ "almeno un dado compare sul lato $ n $ "è il complemento dell'evento $ B: = $ " tutti i dadi vengono visualizzati su $ n $ lati ".

Quindi $ P (A) = 1-P (B) $ . Che cos'è $ P (B) $ ?

Tutti i dadi sono indipendenti, quindi

$$ P (\ text {all $ n $ dice si presentano su non $ n $ lati}) = P (\ text {un dado singolo risulta diverso da $ n $}) ^ n = \ bigg (\ frac {n-1} {n} \ bigg) ^ n. $$

Quindi

$$ P (A) = 1- \ bigg (\ frac {n-1} {n} \ bigg) ^ n. $$

Fidati ma verifica. Mi piace farlo in R:

  > nn <- 6
> n_sims <- 1e5
> sum (replicate (n_sims, any (sample (1: nn, nn, replace = TRUE) == nn))) / n_sims
[1] 0.66355
> 1 - ((nn-1) / nn) ^ nn
[1] 0.665102
 

Sembra buono. Prova con altri valori di nn . Ecco una trama:

dice

  nn <- 2: 100
grafico (nn, 1 - ((nn-1) / nn) ^ nn, type = "o", pch = 19, ylim = c (1-1 / exp (1), 1))
abline (h = 1-1 / exp (1), col = "red")
 

Notiamo come è la nostra probabilità nel limite

$$ P (A) = 1- \ bigg (\ frac {n-1} {n} \ bigg) ^ n = 1- \ bigg (1- \ frac {1} {n} \ bigg) ^ n \ to 1- \ frac {1} {e} \ approx 0.6321206 \ quad \ text {as} n \ to \ infty, $$

a causa di un'identità che coinvolge $ e $ .

BruceET
2020-07-27 01:15:36 UTC
view on stackexchange narkive permalink

Le risposte di @StephanKolassa (+1) e @gunes (+1) vanno entrambe bene. Ma questo problema può essere risolto con riferimento a binomiale e Poisson distribuzioni come segue:

Se $ X_n $ è il numero di n visti in $ n $ span> lancia un dado $ n $ a lato, quindi $ X_n \ sim \ mathsf {Binom} (n, 1 / n), $ in modo che $ P (X_n \ge 1) = 1 - P (X_n = 0) = 1- (1-1 / n) ^ n. $

Poiché $ n \ rightarrow \ infty, $ uno ha $ X_n \ stackrel {prob} {\ rightarrow} Y\ sim \ mathsf {Pois} (\ lambda = 1), $ con $ P (Y \ ge 1) = 1 - P (Y = 0) = 1 -e ^ {- 1}. $

Nathan Chappell
2020-07-28 15:15:01 UTC
view on stackexchange narkive permalink

La risposta può essere ottenuta semplicemente contando anche gli eventi descritti, sebbene la risposta accettata sia più elegante . Considereremo il caso del dado e si spera che la generalizzazione sia ovvia. Lasciamo che lo spazio degli eventi sia composto da tutte le sequenze di numeri da $ \ {1,2, ..., 6 \} $ di lunghezza $ 6 $ . Ecco alcuni esempi (scelti a caso):

  3 2 3 5 6 1
1 1 2 5 2 4
1 2 1 1 6 3
4 4 3 3 4 2
6 1 1 6 3 4
6 3 5 4 5 1
 

Il punto è che il nostro spazio ha un totale di $ 6 ^ 6 $ eventi e, data l'indipendenza, supponiamo che ognuno di essi sia probabile quanto l'altro (distribuito uniformemente). Dobbiamo contare quante sequenze contengono almeno un $ 6 $ . Dividiamo lo spazio che stiamo contando in base al numero di $ 6 $ visualizzati, quindi considera il caso in cui esattamente uno $ 6 $ viene visualizzato. In quanti modi possibili questo può accadere? I sei possono apparire in qualsiasi posizione (6 diverse posizioni), e quando lo fa le altre 5 posizioni possono avere uno qualsiasi dei 5 simboli diversi (da $ \ {1,2, ... , 5 \} $ ). Quindi il numero totale di sequenze con esattamente un $ 6 $ è: $ \ binom {6} {1} 5 ^ 5 $ . Allo stesso modo per il caso in cui ci sono esattamente due $ 6 $ : otteniamo che ci sono esattamente $ \ binom {6} {2} 5 ^ 4 $ tali sequenze. Ora è il momento di divertirsi con le somme :

$$ \ sum_ {k = 1} ^ 6 \ binom {6} {k} 5 ^ {6-k} = \ sum_ {k = 0} ^ 6 \ binom {6} {k} 5 ^ {6-k} 1 ^ k - 5 ^ 6 = (5 + 1) ^ 6 - 5 ^ 6 $$

Per ottenere una probabilità da questo conteggio, dividiamo per il numero totale di eventi:

$$ \ frac {6 ^ 6 - 5 ^ 6} {6 ^ 6} = 1 - (5/6) ^ 6 = 1 - (1-1 / 6 ) ^ 6 $$

Penso che questo sia generalizzato abbastanza bene, poiché per qualsiasi $ n $ diverso da $ 6 $ ,valgono gli stessi identici argomenti, sostituisci solo ogni occorrenza di $ 6 $ con $ n $ e $ 5 $ con $ n-1 $ .

Vale anche la pena notare che questo numero $ 5 ^ 6 = \ binom {6} {0} 5 ^ 6 $ è il contributo di sequenze in cui non $ 6 $ si verifica ed è molto più facile da calcolare (come utilizzato nella risposta accettata).

Sextus Empiricus
2020-07-31 17:42:43 UTC
view on stackexchange narkive permalink

Ho trovato interessante la risposta di BruceET, relativa al numero di eventi. Un modo alternativo per affrontare questo problema è utilizzare la corrispondenza tra tempo di attesa e numero di eventi. L'uso di questo sarebbe che il problema potrà essere generalizzato in qualche modo più facilmente.

Visualizzazione del problema come un problema di tempo di attesa

Questa corrispondenza, come ad esempio spiegata / utilizzata qui e qui, è

Per il numero di tiri dei dadi $ m $ e il numero di risultati / eventi $ k $ tu ottenere: $$ \ begin {array} {ccc} \ overbrace {P (K \ geq k | m)} ^ {\ text {questo è quello che stai cercando}} & = & \ overbrace {P (M \ leq m | k)} ^ {\ text {lo esprimeremo invece}} \\ {\ small \ text {$ \ mathbb {P} $ $ k $ o più eventi in $ m $ rotoli di dadi}} & = & {\ small \ text {$ \ mathbb {P} $ rotoli di dadi inferiori a $ m $ dati $ k $ events}} \ end {array} $$

In parole: la probabilità di ottenere più di $ K \ geq k $ eventi (ad es. $ \ geq 1 $ volte 6) in più tiri di dadi $ m $ è uguale alla probabilità di aver bisogno di $ m $ o meno tiri di dado per ottenere $ k $ tali eventi.

Questo approccio riguarda molte distribuzioni.

  Distribuzione della distribuzione di
Tempo di attesa tra gli eventi numero di eventi

Poisson esponenziale
Erlang / Gamma di Poisson sovra / sottodisperso
Binomiale geometrico
Binomiale negativo binomiale sovra / sottodisperso
 

Quindi nella nostra situazione il tempo di attesa è una distribuzione geometrica. La probabilità che il numero di tiri di dadi $ M $ prima di tirare il primo $ n $ è inferiore a o uguale a $ m $ (e data una probabilità di ottenere $ n $ è uguale a $ 1 / n $ ) è il seguente CDF per la distribuzione geometrica:

$$ P (M \ leq m) = 1- \ left (1- \ frac {1} {n} \ right) ^ m $$

e stiamo cercando la situazione $ m = n $ in modo da ottenere:

$$ P (\ text {ci sarà un $ n $ rotolato all'interno di $ n $ rotoli}) = P (M \ leq n) = 1- \ left (1 - \ frac {1} {n} \ right) ^ n $$

Generalizzazioni, quando $ n \ to \ infty $

La prima generalizzazione è che per $ n \ to \ infty $ la distribuzione del numero di eventi diventa Poisson con il fattore $ \ lambda $ e il tempo di attesa diventa una distribuzione esponenziale con il fattore $ \ lambda $ . Quindi il tempo di attesa per lanciare un evento nel processo di lancio dei dadi di Poisson diventa $ (1-e ^ {- \ lambda \ times t}) $ e con $ t = 1 $ otteniamo lo stesso risultato $ \ approx 0.632 $ delle altre risposte. Questa generalizzazione non è ancora così speciale in quanto riproduce solo gli altri risultati, ma per la prossima non vedo così direttamente come potrebbe funzionare la generalizzazione senza pensare ai tempi di attesa.

Generalizzazioni, quando i dadi non sono giusti

Potresti considerare la situazione in cui i dadi non sono giusti. Ad esempio, una volta tirerai con un dado che ha 0,17 probabilità di tirare un 6, e un'altra volta tirerai un dado con 0,16 probabilità di tirare un 6. Ciò significa che i 6 saranno più raggruppati attorno ai dadi con polarizzazione positiva e che la probabilità di ottenere un 6 in 6 turni sarà inferiore alla cifra $ 1-1 / e $ . (significa che in base alla probabilità media di un singolo lancio, diciamo che l'hai determinata da un campione di molti lanci, non puoi determinare la probabilità in molti lanci con lo stesso dado, perché devi tenere conto della correlazione del dadi)

Quindi supponiamo che un dado non abbia una probabilità costante $ p = 1 / n $ , ma invece è tratto da una distribuzione beta con una media $ \ bar {p} = 1 / n $ e alcuni parametri di forma $ \ nu $

$$ p \ sim Beta \ left (\ alpha = \ nu \ frac {1} {n}, \ beta = \ nu \ frac {n-1} {n } \ right) $$

Quindi il numero di eventi per un particolare dado tirato $ n $ tempo sarà binomiale beta distribuito. E la probabilità per 1 o più eventi sarà:

$$ P (k \ geq 1) = 1 - \ frac {B (\ alpha, n + \ beta)} {B (\ alpha, \ beta)} = 1 - \ frac {B (\ nu \ frac {1} {n}, n + \ nu \ frac {n-1} {n})} {B (\ nu \ frac {1} {n}, n + \ nu \ frac {n-1} {n})} $$

Posso verificare computazionalmente che funziona ...

verification

  ### calcola il risultato per il lancio di dadi a n facce n volte
rolldice <- funzione (n, nu) {
  p <- rbeta (1, nu * 1 / n, nu * (n-1) / n)
  k <- rbinom (1, n, p)
  fuori <- (k>0)
  su
}

### calcola la media per un campione di dadi
meandice <- funzione (n, nu, reps = 10 ^ 4) {
  sum (replicate (reps, rolldice (n, nu))) / reps
}
meandice <- Vectorize ((meandice))
### simula e calcola la varianza n

set.seed (1)
n <- 6
nu <- 10 ^ seq (-1,3,0.1)
y <- meandice (n, nu)
grafico (nu, 1-beta (nu * 1 / n, n + nu * (n-1) / n) / beta (nu * 1 / n, nu * (n-1) / n), log = "x ", xlab = espressione (nu), ylab =" frazione di dadi ",
     main = "confronto simulazione (punti) \ n con formula basata su beta (linea)", main.cex = 1, tipo = "l")
punti (nu, y, lty = 1, pch = 21, col = "black", bg = "white")
 

.... Ma non ho un buon modo per risolvere analiticamente l'espressione per $ n \ to \ infty $ .

Con il tempo di attesa Tuttavia, con i tempi di attesa, posso esprimere il limite della distribuzione binomiale beta (che ora è più simile a una distribuzione beta di Poisson) con una varianza del fattore esponenziale dei tempi di attesa.

Quindi invece di $ 1-e ^ {- 1} $ stiamo cercando $$ 1- \ int e ^ {- \ lambda} p (\ lambda) \, \ text {d} \, \ lambda $$ .

Ora quel termine integrale è correlato alla funzione di generazione del momento (con $ t = -1 $ ). Quindi, se $ \ lambda $ è normalmente distribuito con $ \ mu = 1 $ e varianza $ \ sigma ^ 2 $ allora dovremmo usare:

$$ 1-e ^ {- (1- \ sigma ^ 2/2)} \ quad \ text {invece di} \ quad 1-e ^ {- 1} $$

Applicazione

Questi rotoli di dadi sono un modello giocattolo. Molti problemi della vita reale avranno variazioni e situazioni di dadi non completamente eque.

Ad esempio, supponi di voler studiare la probabilità che una persona possa ammalarsi a causa di un virus dato un certo tempo di contatto. Si potrebbero basare i calcoli per questo sulla base di alcuni esperimenti che verificano la probabilità di una trasmissione (ad esempio, qualche lavoro teorico, o alcuni esperimenti di laboratorio che misurano / determinano il numero / la frequenza di trasmissioni in un'intera popolazione per una breve durata), e quindi estrapolare questa trasmissione a un intero mese. Supponi di scoprire che la trasmissione è di 1 trasmissione al mese per persona, quindi potresti concludere che $ 1-1 / e \ circa 0,63 \% $ della popolazione riceverà malato. Tuttavia, questa potrebbe essere una sovrastima perché non tutti potrebbero ammalarsi / trasmettere con la stessa velocità. La percentuale sarà probabilmente inferiore.

Tuttavia, questo è vero solo se la varianza è molto grande. Per questo la distribuzione di $ \ lambda $ deve essere molto distorta. Perché, sebbene l'abbiamo espressa come una distribuzione normale in precedenza, i valori negativi non sono possibili e le distribuzioni senza distribuzioni negative in genere non avranno rapporti elevati $ \ sigma / \ mu $ , a meno che non siano molto distorti. Una situazione con un'inclinazione elevata è modellata di seguito:

Ora usiamo l'MGF per una distribuzione di Bernoulli (il suo esponente), perché abbiamo modellato la distribuzione come $ \ lambda = 0 $ con probabilità $ 1-p $ o $ \ lambda = 1 / p $ con probabilità $ p $ .

bernoulli example

  set.seed (1)
tasso = 1
tempo = 1
CV = 1
### calcola il risultato per ammalarti di tasso variabile
getsick <- function (rate, CV = 0.1, time = 1) {
            ### troncare cambia sd e media ma non molto se CV è piccolo
  p <- 1 / (CV ^ 2 + 1)
  lambda <- rbinom (1,1, p) / (p) * rate
  k <- rpois (1, lambda * time)
fuori <- (k>0)
  su
}


CV <- seq (0,2,0.1)
grafico (-1, -1, xlim = c (0,2), ylim = c (0,1), xlab = "coefficiente di varianza", ylab = "frazione",
     cex.main = 1, main = "se i tassi sono distribuiti bernouilli \ n frazione p con lambda / pe 1-p con 0")
per (cv in CV) {
  punti (cv, sum (replicate (10 ^ 4, getsick (rate = 1, cv, time = 1))) / 10 ^ 4)
}

p <- 1 / (CV ^ 2 + 1)
righe (CV, 1- (1-p) -p * exp (-1 / p), col = 1)
linee (CV, p, col = 2, lty = 2)

legenda (2,1, c ("simulazione", "calcolata", "percentuale di popolazione subsettibile")
       col = c (1,1,2), lty = c (NA, 1,2), pch = c (1, NA, NA), xjust = 1, cex = 0,7)
 

La conseguenza è. Supponi di avere $ n $ elevati e di non avere alcuna possibilità di osservare i tiri dei dadi $ n $ (ad es. a lungo), e invece controlli il numero di $ n $ tiri solo per un breve periodo per molti dadi diversi. Quindi potresti calcolare il numero di dadi che hanno tirato un numero $ n $ durante questo breve periodo e in base a quel calcolo cosa accadrebbe per $ n $ rotola. Ma non sapresti quanto gli eventi sono correlati all'interno dei dadi. Potrebbe essere che tu abbia a che fare con un'alta probabilità in un piccolo gruppo di dadi, invece di una probabilità equamente distribuita tra tutti i dadi.

Questo "errore" (o si potrebbe dire semplificazione) si riferisce alla situazione con COVID-19 in cui l'idea è che abbiamo bisogno del 60% delle persone immuni per raggiungere l'immunità di gregge. Tuttavia, potrebbe non essere così. L'attuale tasso di infezione è determinato solo per un piccolo gruppo di persone, può essere che questa sia solo un'indicazione dell'infezione tra un piccolo gruppo di persone.

Devo ammettere che il mio ultimo caso è in realtà molto banale e non questo framework più ampio e trucchi con funzioni generatrici di momenti, può essere fatto più facilmente ridimensionando semplicemente la popolazione.
... Tranne che, poiché il numero di lanci è finito, si possono enumerare tutti i possibili risultati.Questo è n ^ n per un dado a n facce.Una volta fatto ciò, è questione di contare quali rotoli hanno un #n.
@Marcos il mio approccio è per le persone a cui non piace contare (ad esempio, immagina che $ n $ sarebbe uguale a un milione o più, è ancora finito ma buona fortuna conteggio).E inoltre, come contate se i dadi non sono giusti ma seguono invece una distribuzione continua?-------- Detto questo, sono d'accordo che alla tua domanda specifica si possa rispondere facilmente.Il metodo qui è solo una visualizzazione aggiuntiva che può essere utile per problemi più complessi.
È vero, richiede una formula "meta-numerica" per contare le cifre dei numeri (come simboli piuttosto che come quantità).
@Marcos Non sono sicuro di cosa intendi contando ora.Considero questo problema non come un problema di conteggio quando $ n $ diventa grande.Bene, puoi contare le cose e magari creare espressioni che riassumano il conteggio, ma potresti non arrivare sempre (facilmente) a una soluzione.Capovolgere il punto di vista dal conteggio delle probabilità di un dato numero di eventi per un dato numero di lanci, a un dato numero di rotoli (tempo di attesa) per un dato numero di eventi, può essere uno strumento utile per semplificare notevolmente il problema (Sono d'accordo per questo problema specifico, che non è così difficile non è tanto necessario)
Grazie per la risposta, ma si trattava di lanci di dadi.Questo è così lontano che non riesco a colmare il divario.
@Marcos, Sono d'accordo che è un po 'di più.E hai già delle belle risposte.Ho aggiunto la mia risposta solo per il diverso punto di vista (tempo di attesa) oltre che per la generalizzazione (per il lettore interessato, o persone con lo stesso tipo di domanda sui dadi ma che hanno anche bisogno della generalizzazione).
GameBoi
2020-07-28 04:59:12 UTC
view on stackexchange narkive permalink

Semplifica e poi estendi. Inizia con una moneta. Una moneta è un dado con 2 facce (S = 2).

Lo spazio di probabilità esaustivo è

T | H

Due possibilità. Si soddisfa la condizione di tutte le teste. Quindi le tue probabilità di vincere tutte le monete con una moneta (n = 1) sono 1/2.

Quindi prova due monete (n = 2). Tutti i risultati:

TT | TH | HT | HH

Quattro possibilità. Solo uno corrisponde ai tuoi criteri. Vale la pena notare che la probabilità che una sia testa e l'altra croce è 2/4 perché due possibilità delle quattro corrispondono ai tuoi criteri. Ma c'è solo un modo per ottenere tutte le teste.

Aggiungi un'altra moneta (n = 3) ...

TTT | THT | HTT | HHT

TTH | THH | HTH | HHH

8 possibilità. Solo uno soddisfa i criteri, quindi 1/8 di possibilità per tutte le teste.

Il modello è (1 / S) ^ no (1/2) ^ 3.

Per i dadi S = 6, e ne abbiamo 6.

La probabilità di ottenere un 6 con un dato risultato è 1/6. I rotoli sono eventi indipendenti. Quindi usare 2 dadi per ottenere tutti i 6 è (1/6) * (1/6) o 1/36.

(1/6) ^ 6 è circa 1 su 46.656

In realtà stavo solo cercando la probabilità che QUALSIASI testa si presentasse, dato tanti tiri quante sono le facce sul dado.Ma, ciao amico, ho la mia risposta.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 4.0 con cui è distribuito.
Loading...