Problema del coleccionista de cupones

El «problema del coleccionista de cupones» consiste en determinar el número esperado o medio de cupones que hay que comprar para conseguir una colección de N cupones diferentes.

En cada compra se puede adquirir un único sobre que contiene un único cupón. Todas estas compras se realizan en el tiempo de forma independiente y cada cupón tiene la misma probabilidad de ser conseguido -en estadística diríamos que se trata de una muestra con reemplazamiento.

Ejemplos de este problema puede ser hacer una colección de N muñecos que vienen de uno en uno en cajas de galletas -no sabemos que muñeco viene en cada caja pero sí que todos ellos tienen la misma probabilidad de venir-, hacer una colección de N cromos sabiendo que en cada sobre viene un único cromo, etc.

La pregunta por tanto es, ¿cuántos sobres -cajas de galletas, etc- hay que comprar para obtener toda la colección?.

Se sabe que el valor esperado de sobres a comprar para grandes N es

$N \cdot \ln N$

Para conseguir una colección de 400 cromos el valor esperado de sobres a comprar es $400 \cdot \ln 400=2396$.

Veamos de dónde sale esto -es muy interesante.

Primero, refresquemos algunos conceptos:

¿Qué entendemos por el valor esperado? -más formalmente diríamos: esperanza matemática valor esperado de una variable aleatoria discreta.

Llamemos $p$ a la probabilidad de éxito.

Ahora supongamos que al lanzar una moneda:

  1. Si sale CARA: Obtienes 10 euros. $+10 \cdot p_1=$5
  2. Si sale CRUZ: Pagas 5 euros. $-5 \cdot p_2=-$2,5

En este caso $p_1$ y $p_2$ son iguales (probabilidad $\frac{1}{2}$), pero en otros ejemplos podría no ser así, por lo que lo generalizamos indicando que podrían ser valores distintos. Sumando ambos resultados tenemos +5 – 2,5=2,5

Como este resultado es positivo, ello significa que, a la larga, jugando a este juego el valor esperado de ganancia será 2,5

Llamamos $x_i$ al valor de cada suceso y $p_i$ a la probabilidad de ese $x_i$

En general, el valor esperado de un evento $x$ y lo denotamos como $E[x]$

$E[x]=x_1 \cdot p_1+x_2 \cdot p_2+…+x_n\cdot p_n=\sum_{i=1}^{n} {x_i \cdot p_i}$

Cuando la esperanza matemática es cero, $E[x] = 0$, el juego es equitativo, es decir, no existe ventaja para nadie.

Veamos un pequeño ejemplo:

Si una persona compra una papeleta en una rifa, en la que puede ganar un primer premio de 6.000 € o un segundo premio de 2000 € con probabilidades de: 0,002 y 0,003. ¿Cuál sería el precio justo a pagar por la papeleta?

$E[x] = 6000 \cdot 0,002 + 2000 \cdot 0,003 = 18 $€

 

Ensayos de Bernoulli.

Desde el punto de vista de la teoría de la probabilidad, llamamos experimientos o ensayos de Bernoulli a los que están modelados por una variable aleatoria que puede tomar sólo dos valores, 0 y 1. Habitualmente, se utiliza el 1 para representar el éxito.

$p$ es la probabilidad de ocurrencia del evento y $q=(1-p)$ lo contrario.

Los experimentos de Bernoulli tienen dos únicas posibles salidas/resultados así que pueden entenderse también como una respuesta del tipo Sí o No
Ejemplos de experimentos o ensayos de Bernoulli son:
¿Es la carta de arriba de la baraja un rey?
Lanzar una moneda al aire es también un ejemplo de experimento de Bernoulli. La cara suele denotar éxito y cruz fracaso.
Lanzar un dado en el que sacar un 1 es éxito y sacar otro valor es fracaso es otro ejemplo.
Un referendum en el que un votante puede votar sí o no.
En este tipo de ensayos, la esperanza es $p$.
Definimos una variable $x$ como $x = 1$ si éxito y $x= 0$ si fracaso

$E[X] = p \cdot 1 + (1 − p) \cdot 0 = p$

 

Distribución Geométrica.

Sus tres características principales son:

  • Hay uno o más ensayos de Bernoulli en los que todos son fallos excepto el último de ellos que es un éxito, es decir, repites lo que estás haciendo hasta obtener un éxito.
  • La probabilidad p de éxito y la q de fracaso es la misma siempre para cada ensayo (p+q=1).

Lo que mide la variable aleatoria geométrica es el número de pruebas que tienen que ocurrir para tener el primer éxito,  o dicho de otra forma, cuantas veces tenemos que observar, para observar el primer éxito.

Veamos un ejemplo. La probabilidad de obtener un 3 al lanzar un dado es $\frac{1}{6}$ y es la misma independientemente del número de veces que se lance el dado. La probabilidad de obtener un 3 en el quinto lanzamiento es:

$\frac{5}{6}\cdot\frac{5}{6} \cdot \frac{5}{6} \cdot \frac{5}{6} \cdot \frac{1}{6}$

(cuatro fracasos y un éxito)

 

x = número de ensayos independientes hasta conseguir el primer éxito.

Generalizando decimos que:

Si la probabilidad de éxito en cada lanzamiento es $p$, entonces la probabilidad de que en el n-esimo lanzamiento tengamos el primer éxito es

$P(x=n)=(1-p)^{n-1}     \cdot p$

En estos casos, la esperanza es $E[x]=\frac{1}{p}$ y nos dice cuantos lanzamientos esperamos lanzar hasta conseguir el primer éxito -aquí se incluye los fracasos más el ensayo final que es éxito.

Demostremos que $E[x]=\frac{1}{p}$

La variable aleatoria geométrica  $x$ mide el número de pruebas en las que ocurre el primer éxito. ¿Con qué eventos podemos trabajar?

Evento 1. Ocurre el  Exito E a la primera.

Evento 2: Ocurre el éxito a la segunda, es decir, tenermos un fracaso y un éxito $F \cdot E$. Hemos tenido que observar dos veces.

Evento 3. Ocurre el éxito a la tercera. $F \cdot F \cdot E$

Evento x. Sería $F_1 \cdot F_2 \cdot …\cdot F_{x-1} \cdot E$

Donde x es cuantas veces tengo que observar para obtener el primer éxito.

La probabilidad de que ocurra x es la probabilidad de la intersección de todos estos eventos, es decir

$P(x)=q^{x-1} \cdot p$  con x=1, 2, 3…

La probabilidad de los x-1 fracasos y luego el éxito.

Vamos a empezar ya con la demostración de que la experanza $E[x]=\frac{1}{p}$

$E[x]=\sum_{x=1}^{n} {x \cdot P(x) }=\sum_{x=1}^{n} {x \cdot      q^{x-1}  \cdot p} = p \cdot \sum_{x=1}^{n} {x \cdot      q^{x-1}  }$ =

Aquí un recordatorio sencillo de derivadas:

$\frac{d}{dq}[q^x] = x \cdot q^{x-1}$

Además, la derivada de la suma es igual a la suma de las derivadas.

Por lo tanto, podemos continuar

=$p \cdot \sum_{x=1}^{\infty} {\frac{d}{dq}[q^x]}=p \cdot  {\frac{d}{dq} [\sum_{x=1}^{\infty} {q^x}}]$=

Aquí otro recordatorio:

$\sum_{x=1}^{\infty} {q^x}$ cuando q<1 ,como es nuestro caso, converge a $\frac{q}{1-q}$

Continuemos:

= $p \cdot  \frac{d}{dq} [\frac{q}{1-q}]=p \cdot \frac{1}{(1-q)^2}=\frac{p}{p^2}=\frac{1}{p}$

Quod erat demonstrandum QED

 

Volvamos a suponer un experimento que consiste en el lanzamiento de un dado. ¿Cuál es el número esperado de intentos hasta obtener por ejemplo un 5?

Como $E[x]=\frac{1}{p}$  y $p=\frac{1}{6},,  E[x]=6$

El número de intentos para obtener el primer 5 es 6, si tiramos el dado 6 veces, esperamos que al menos uno sea un 5.

 

Volviendo al problema inicial, si tenemos N cupones, ¿cuál es el valor esperado de cupones a comprar para obtener todos y cada uno de los cupones?

Si la colección constase de 5 cupones:

Primera compra: la probabilidad de obtener un cupón que no tengo es: P(cupón nuevo)=$\frac{5}{5}$

Segunda compra: P(cupón nuevo)=$\frac{4}{5}$

Tercera compra: P(cupón nuevo)=$\frac{3}{5}$

Cuarta compra: P(cupón nuevo)=$\frac{2}{5}$

Quinta compra: P(cupón nuevo)=$\frac{1}{5}$

En general, si tengo 5 cupones, la probabilidad de obtener un cupón nuevo en la iteración i  es (consideramos la primera iteración i=0, la segunda i=1,…) es:

P(cupón nuevo)=$\frac{5-i}{5}$

Generalizando

$P_i=\frac{N-i}{N}$

La probabilidad de obtener el primero cupón es $P_0$, el segundo cupón $P_1$, el tercer cuón $P_2$, etc.

E[i-ésimo cupón nuevo]=$\frac{1}{p_i}$

El número esperado de intentos antes de obtener el i-ésimo cupón nuevo es $\frac{1}{p_i}$

Sustituyendo $p_i$ por su valor

E[i-ésimo cupón nuevo]=\frac{N}{N-i}

$E[n]=E[n-1]+\frac{1}{p_{n-1}}$

$E[n]=E[n-2]+\frac{1}{p_{n-1}}++\frac{1}{p_{n-2}}$

$E[n]=\frac{1}{p_0}+\frac{1}{p_1}+…+\frac{1}{p_{n-1}}$

$E[n]=\frac{N}{N}+\frac{N}{N-1}+…+\frac{N}{1}$

$E[n]=N \cdot (\frac{1}{N}+\frac{1}{N-1}+…+\frac{1}{1})$

$E[n]=N \cdot (1+\frac{1}{2}+\frac{1}{3}+…+\frac{1}{N})$

Lo que tenemos entre paréntesis el lo que llamamos el Número Armónico que para N grandes tiende a $\ln N$

es decir $E[n] \approx N \cdot \ln (N)$

QED

 

The following two tabs change content below.

Juanjo Bravo

Matemático. Entusiasta de las Matemáticas y de las TIC. Trabajo en el departamento de informática de un banco.