Llevamos casi dos días y todavía hay gente que sostiene –contrario a lo que expliqué– que la probabilidad de empate en las votaciones de la CUP era 1/3030. Voy a explicar ahora por qué está mal, muy mal, ese razonamiento.
Al asumir que la probabilidad es 1/3030 están asumiendo que la probabilidad de un 0-3030 a favor del no (o viceversa) tiene la misma probabilidad que un 30-3000 o 1515-1515.
Asumieron que los resultados de la votación siguen una distribución uniforme en vez de binomial, es un error enorme, monumental, de estadísticas básicas (y luego buscan fórmulas complicadísimas, argumentos retorcidos y hasta realidades inexistentes para justificarlo).
Intentaré explicarlo con una analogía sencilla.
Imaginad que tenéis cuatro monedas (o una que lanzáis cuatro veces, es equivalente al ser independientes). Representamos los resultados individuales con 0 si es cara y 1 si es cruz. Los resultados posibles son exactamente 16, o 2⁴ (son dos resultados posibles con cuatro monedas o tiradas):
0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111
Fijaros que solo hay un valor 4-0 (0000) y su probabilidad es 1/16.
¿Cuántos hay para un 3-1? Pueden ser el 0001, 0010, 0100 y 1000. Su probabilidad es 4/16 = 1/4, cuatro veces mayor.
¿Y para un empate 2-2? Son válidos 0011, 0101, 0110, 1001, 1010, 1100. Su probabilidad es la mayor: 3/8.
Con esto ya se descarta que las probabilidades en una votación sean equivalentes para cada uno de los valores. Por eso se usa la distribución binomial que expliqué en el apunte anterior.
Es decir, para este ejemplo la probabilidad de empate es: binomial(4, 2) / 2⁴ = 6/16 = 3/8. No, no es casualidad que ambos resultados sean idénticos.
Estás asumiendo que tienes información, te olvidas del principio de indiferencia
En primer lugar que sí hay información previa, en segundo lugar el principio de indiferencia (es más filosófico que matemático y mejor usado en Bayes) indica que a falta de información debes otorgarles una probabilidad equivalente. Pero hay que saber aplicarlo, sabiendo que son N decisiones independientes como N monedas, se debe aplicar el 0.5 (1/2) de probabilidad al lanzamiento de la moneda, no al número de caras o cruces que saldrán tras varios lanzamientos. No hace falta retroceder al conocimiento de probabilidades de principios de la Edad Media.
Si sabes que es un dado de 16 caras sí aplicas la probabilidad de 1/16 para cada cara, pero si son 4 monedas no puedes aplicar la misma fórmula. Aplicar el principio de indiferencia no significa hacer burradas sabiendo que son procesos completamente diferentes, un dado es un evento único, una votación o lanzamiento de monedas son varios sucesos independientes.
Pero estás asumiendo que la probabilidad del voto de cada persona es 0.5
¿Antes me pedías que aplique el principio de indiferencia -i.e. 0.5 de probabilidad a elecciones binarias- y ahora me criticas por hacerlo?
Ponte de acuerdo, pero como dije antes: además sí hay información previa que confirma que la probabilidad es muy próxima a 0.5. En las penúltimas votaciones hubo 1510 votos a favor del SÍ (1489 por la A y 28 por la C) versus 1512 a favor de NO. Esto da una probabilidad de 0.499…
Si se cuenta el resultado de la última, es exactamente 0.5. Diría que el margen de error al elegir 0.5 es bastante pequeño. ¿O tienes algo mejor?
Pero asumes que todos votan con la misma probabilidad
No es así, no hace falta. Si cada persona tiene sesgos hacia uno y hacia otro la media queda en 0.5. Puedes probarlo con este pequeño programa que simula que cada persona cambia su sesgo en cada votación.
De paso relee Teorema Central del Límite, de dónde viene la distribución normal y por qué aparece tanto en la naturaleza y actividades humanas que la hacen tan útil (pista: combinación de eventos aleatorios independientes).
De todas formas, si dices que 0.5 no es un valor adecuado, con la información disponible ¿qué valor propones? ¿qué probabilidad de empate obtienes? ¿por qué?
En cualquier caso, elijas la probabilidad que quieras el resultado no es una uniforme, habrás resultados con mucha más probabilidad que otros. Pero si eliges un p diferente a 0.5 deberías justificar muy bien por qué, no hay razones filosóficas ni teóricas ni empíricas.
La probabilidad de p puede variar de 0 a 1 y para todas las combinaciones la probabilidad p sí es 1/3030
Esto solo funciona si asumes que los resultados están uniformemente distribuidos. Pero es erróneo, los votos son los eventos independientes que determinan los resultados. ¿Por qué deberían ser equiprobables los resultados? Es como asegurar que la distribución de la altura o peso de las personas también están distribuidos uniformemente (sabemos que no es así sino que siguen una distribución normal, insisto con lo del Teorema Central del Límite).
Lo correcto es modelar a los votos independientes. Si la probabilidad de votar a uno u otro (el sesgo) es aleatoria con una distribución uniforme los resultados de las votaciones no son uniformes. La distribución de probabilidades tienen la siguiente forma (en %):
¿Te suena? Tampoco es casualidad que la probabilidad de empate tenga la mayor probabilidad y que para 3030 votos tenga el mismo valor, 1.45%.
Hablas de la normal pero usas distribución uniforme para la probabilidad de los votos
Vale, el siguiente gráfico es la distribución de probabilidades de una simulación con p siguiendo una distribución normal.
No tienes en cuenta los votos en blanco
Podría, pero debería usar distribuciones multinomiales, son más complejas -ni las controlo, la binomial es muy sencilla- y llegaríamos a probabilidades muy próximas. Pero puedes hacerlo tú si quieres, ya te indicaré los fallos que tengas (por ejemplo qué información usas para seleccionar las probabilidades de cada opción). Criticar es mucho más fácil que proponer, exponer y explicar.
No tienes en cuenta que la gente cambia de voto
Claro que la binomial los captura, se usan probabilidades, la gente puede cambiar su decisión de una votación a otra.
Ajá, entonces no tienes en cuenta los votos fijos
Porque no estamos seguros, pero de estarlo la probabilidad sería más alta que el 1.44% aproximado que di desde el inicio. Por ejemplo, supongamos que los 3022 mantienen sus votos, eso quiere decir que sólo hay 8 votos libres para llegar a los 3030.
Para que se produzca un empate debería haber 5 votos por el sí y 3 por el nó. En este caso la probabilidad es 56/2^8 = 56/256 = ¡21.875%!
Me estás dando aún más la razón de que el empate no era nada improbable, pero si hubiese comenzado con este cálculo me habrías dicho que estoy presuponiendo demasiadas cosas.
Si estás usando información previa deberías haber usado el Teorema de Bayes
Es un poco más complejo y llegaríamos a valores muy cercanos, pero vale, aquí va una solución (inspirada de este artículo).
Empezamos por la fórmula del Teorema de Bayes:
P(A|B) = P(A) P(B|A) / P(B)
Vamos a hablar de proporciones, nuestra hipótesis -el evento A- es que la proporción de votantes es idéntica para 3030 votantes. Es lo mismo que decir «tenemos en un cubo 3030 bolas, unas son rojas y otras azules, la hipótesis es que hay 1515 azules y rojas». Lo que estamos diciendo es:
Nuestra hipótesis A es que hay la misma proporción de votantes para la última votación, sabemos el resultado de la previa, B, fue 1510-1512, ¿cuál es la probabilidad de que ocurra A una vez que sabemos que ocurrió B?
Como no tenemos nada de información previa, la P(A) (o la probabilidad de que haya tantas rojas como azules) es igual a 1/3030 = 0.00033 (aquí sí usamos, correctamente, el principio de indiferencia para Bayes, idéntica probabilidad para las diferentes proporciones posibles).
Se produce una votación (o se sacan 3022 bolas) y salen 1510 rojas y 1512 azules. Este es el evento B, la información que tenemos.
¿Cuál es la probabilidad de que obtengamos este resultado si suponemos A?, es decir P(B|A). Esto se calcula de la siguiente forma, da como resultado:
P(B|A) = 0.0145
Ahora viene lo más complicado, el factor normalizador o P(B): la probabilidad total de que se obtenga 1510-1522 para todos los valores posibles. Siguiendo el método del artículo enlazado
nos queda que
P(B) = 0.0003308
Según el teorema de Bayes, la probabilidad de que haya la misma proporción de votos (P(A)) dado que sabemos P(B) y P(B|A) queda:
P(A|B) =0.00033 * 0.0145 / 0.0003308 = 0.01446
Es decir, prácticamente el mismo resultado 1.445 %
Estás haciendo el cálculo solo para par y 3030 votos
Por supuesto, de eso va, para exactamente ese número de votos, que además es par y produjo un empate exacto del que algunos dicen es muy improbable.
Con un número impar el empate exacto es imposible pero sería «técnico», con la misma distribución… y ya está explicado en el artículo anterior.
Sigues estando equivocado
Quizás, pude haberme equivocado en algún cálculo o cifra. Esto lo hago por hobby, no me pagan para un estudio pericial, admito correcciones. Aún así apuesto a que los resultados serán muy próximos a estos, y en ningún caso nada cercano a 0.033% que están dando incluso en los medios.
Es igual, estás equivocado
Me convenciste, en realidad seguro que hubo pucherazo, lo demuestran las probabilidades basadas en estudios muy rigurosos.
No es por llevarte la contraria pero quizás tengas razón
Quizás, usar las probabilidades correctamente no es sencillo aunque muchos lo crean y usen fórmulas muy complejas para justificar un cálculo inicial demasiado simplificado. De un extremo a otro y cada vez se entiende menos, pero insisten.
El post del otro día estaba muy bien. En éste ya te has flipado y te han salido ínfulas de egocentrista. Lo siento
El grave error de base en tu razonamiento es el de considerar una equiprobabilidad en el voto. La gente no vota según el resultado de lanzar una moneda al aire. De hecho tampoco tiene sentido considerar ninguna otra probabilidad conocida en el voto, porque si conocemos la probabilidad el resultado viene prácticamente dado, puesto que se obtiene una campana muy estecha y centrada en el valor correspondiente a esa probabilidad que das por conocida, en tu caso el 50%.
Si, como defiendes, por falta de información hubiera que asumir de forma general la equiprobabilidad del voto individual, el resultado de cualquier referendum estaría siempre próximo al empate, siendo la probabilidad de empate más alta cuanto más alto el número de votantes (votantes aleatorios del tipo monedas lanzadas al aire), porque la curva se estrecha cada vez más.
Precisamente porque la probabilidad es desconocida es por lo que hay que votar.
@albert
Me parece que ni has leído los 3 párrafos cortos en «Pero asumes que todos votan con la misma probabilidad». Tampoco creo que hayas visto y probado el simulador enlazado. Ni que hayas leído lo del teorema central del límite.
Es lo que tiene, que nadie lee.
«…para justificar un cálculo inicial demasiado simplificado»
Yo lo diria de otra manera: el calculo simplificado inicial que se vio en algunos tweets y graficos no era simplificado; era erroneo. En eso creo que no hay desacuerdo. Ocurre que hay un caso generico de probabilidad donde por diversas cancelaciones vuelve a aparecer la misma formula que en el simplificado, pero eso no quita para nada que sea erroneo, ni lo justifica. De hecho justificarlo es ademas un problema desde el punto de vista didactico, pues favorece que se siga intentando la misma simplificacion sin entenderla.
Una segunda cuestion es si el caso donde aparecen las cancelaciones es de aplicabilidad aqui o no, y ahi es donde ha estado el debate grande, aunque para mi menos interesante.
Enhorabuena por tu singular claridad y la abundancia de ejemplos. No es fácil explicar el porqué el modelo de suponer que los 3030 militantes de CUP tenían el equivalente a una moneda, es uno de los mejores modelos con la información que la mayoría tenemos. Y que otros modelos próximos conducen a estimaciones equivalentes.
Intentaré hacer un resumen:
Tenemos dos alternativas extremas:
1. – asumir que p (probabilidad de votar si/no) toma valor 0.5 ¡exactamente! (esto es, votar es lanzar una moneda), y entonces P(empate)=1.4%, o
2.- Asumimos que p toma cualquier valor entre 0 y 1 (esto es, no sabemos a priori como se distribuye el voto entre si o no), entonces cualquier resultado final es igualmente posible y P(empate) = 1/3031.
Entre estas “hipótesis extremas” (p=valor exacto 0.5, o p absolutamente desconocido) está la realidad, con una distribución a priori de p que no será ni lanzar una moneda, ni absoluto caos. Pero salvo para distribuciones de p que se encuentren muy restringidas y muy próximas a 0.5, el empate resulta muy improbable (por supuesto más cuanto más ancha asumamos la distribución de p). Si asumimos por ejemplo que p puede ser cualquier valor en el intervalo entre 0.4 y 0.6 (lo cual no me parece nada restrictivo), la probabilidad de empate cae por debajo de 0.2%. Si tomamos entre 0.25 y 0.75, la probabilidad de empate baja a 0.06%
El valor 1.4 %, correspondiente a asumir p=0.5, es el valor máximo de la probabilidad de empatar (salvo, claro, confabulaciones intencionadas, que lo harían aun más probable) y corresponde al caso en que la opinión SI/NO está completamente igualada (lo cual es una circunstancia muy particular… e improbable). En cambio, el valor 1/3031 NO es el valor mínimo de la probabilidad de empatar, pues hay distribuciones para las que la probabilidad de empatar es directamente cero o prácticamente cero.
Sobre lo de las votaciones previas, ya te comenté en twitter, pero no sé si lo leíste. Nadie se «sorprende» de que haya un empate exacto después de un «casi empate» en segunda ronda. Lo sorprendente es que 3030 personas extraídas de la población repartan sus si/no en exacta proporción. El que ya hubiera un casi empate indica que p está muy cerca de 0.5, lo cual ya era a priori poco probable (menos que el que no estuviera tan cerca, máxime teniendo en cuenta que «dos que duermen en el mismo colchón…» que dice el dicho), y luego en la tercera debe surgir la coincidencia exacta. La combinación de ambas probabilidades arrojará un resultado igual a 1/3031 si aceptamos que a priori (antes de primera votación) cualquier valor p era igual de probable.
Y no, Alejandro Rivero, no es erróneo ¿o crees que el hecho de que el resultado final sea 1/3031 es casualidad? Si asumimos el metaescenario «p puede tomar valor cualquiera entre 0 y 1 equiprobable» entonces todos los resultados (distribuciones SI/NO indiferentes a la ordenación de votantes) son equiprobables y la probabilidad de empate es 1 en 3031. -es un buen estimador de info cero.
El comentario del señor Bilbao no mereció los calificativos y ofensas recibidos, poniendo en duda sus conocimientos y otras lindezas, pues su estimación no es exacta (ninguna lo es, es estadística) pero es razonable.
Dado que en mi razonamiento no leerás nada que ponga en duda tus conocimientos, te ruego que no hagas como en twitter y no pongas en duda los míos.
Veamos
Imaginad que tenéis cuatro monedas (o una que lanzáis cuatro veces, es
equivalente al ser independientes). Representamos los resultados
individuales con 0 si es cara y 1 si es cruz. Los resultados posibles
son exactamente 16, o 2⁴ (son dos resultados posibles con cuatro
monedas o tiradas):
Esto es correcto, pero no (todas) las consecuencias que sacas de ello.
En particular no es obvio que una moneda equivale un voto, aunque sea
una asunción razonable (más, abajo).
En primer lugar que sí hay información previa, en segundo lugar el
principio de indiferencia (es más filosófico que matemático y mejor
usado en Bayes) indica que a falta de información debes otorgarles una
probabilidad equivalente. Pero hay que saber aplicarlo, sabiendo que
son N decisiones independientes como N monedas, se debe aplicar el 0.5
(1/2) de probabilidad al lanzamiento de la moneda, no al número de
caras o cruces que saldrán tras varios lanzamientos. No hace falta
retroceder al conocimiento de probabilidades de principios de la Edad
Media.
El error de concepto aquí tiene que ver con el problema del
bayesianismo clásico: Cuando uno no tiene información sobre una
variable se supone que debe asignarle una probabilidad a priori
uniforme a esa variable. Sin embargo, los resultados no son
independientes bajo una reparametrización de esa variable; Esto es, si
no sé x, puedo decir que P(x) es constante, pero entonces tampoco sé
nada de x² y por tanto puedo decir que P(x²) es constante, ¡y por tanto
P(x) no! (*)
En este caso, puedo asignar una probabilidad constante a cada posible
resultado de la votación, lo cual representa el modelo bajo el que se
obtiene P=1/N.
Otro MODELO (mejor) es asignar una probabilidad constante a cada
posible voto individual, con lo que se obtienen tus resultados.
Es razonable pero no necesariamente la mejor solución al problema.
Esto se puede ver como una reparametrización del resultado final de la
votación.
Ponte de acuerdo, pero como dije antes: además sí hay información
previa que confirma que la probabilidad es muy próxima a 0.5. En las
penúltimas votaciones hubo 1510 votos a favor del SÍ (1489 por la
A y 28 por la C) versus 1512 a favor de NO. Esto da una probabilidad
de 0.499…
Si se cuenta el resultado de la última, es exactamente 0.5. Diría que
el margen de error al elegir 0.5 es bastante pequeño. ¿O tienes algo
mejor?
Si usas los resultados de la última votación deberías al menos cambiar
N (como ya has dicho), lo que confirma que hay más formas de ver el
problema.
Una posibilidad distinta (sin usar la última votación) sería usar los
porcentajes de la votación anterior,
http://www.elmundo.es/cataluna/2015/11/29/565b3ef6ca474178188b4606.html
lo cual en mi *opinión* es un modelo mejor (y resultaría en una
probabilidad mucho más pequeña). Aquí insisto en que mi crítica a tu
primer post no era tanto el cálculo como rechazar que es una
aproximación (adecuada pero tosca) y hay otras formas de entender el
problema.
De paso relee Teorema Central del Límite, de dónde viene la
distribución normal y por qué aparece tanto en la naturaleza
y actividades humanas que la hacen tan útil (pista: combinación de
eventos aleatorios independientes).
El teorema del límite central no tiene nada que ver con tu modelo. Lo
que dice es que la suma de muchos sucesos aleatorios e independientes
con diversas probabilidades tiende a una distribución Gaussiana (y no
binomial).
De todas formas, si dices que 0.5 no es un valor adecuado, con la
información disponible ¿qué valor propones? ¿qué probabilidad de
empate obtienes? ¿por qué?
Otra forma de ver el error: Imagina que el PP y PACMA se presentan
a las elecciones (además de otros partidos). ¿Haces un modelo
asumiendo que la probabilida de voto al PP es la misma? En la práctica
la ciencia para resolver este tipo de problemas es Machine Learning
(*) y usa una variedad de técnicas (tanto frecuentistas como
Bayesianas) dependiendo de la definición del problema y los datos
disponibles. En cualquier caso es más complicado que elegir una
probabilidad a priori al azar.
Es decir, prácticamente el mismo resultado 1.445 %
Si te salen dos resultados tan parecidos, probablemente es porque has
hecho ma mima cuenta :). En particular un cálculo «frecuentista» (esto
debería explicarse en más detalle) es un cálculo bayesiano donde la
probabilidad a priori sobre la variable de interés (¡sin
reparametrizar!) es uniforme.
Es igual, estás equivocado
Estoy de acuerdo ;).
(*) Las soluciones del bayesianismo clásico a las paradojas de la
reparametrización son poco satisfactorias, e.g.
https://en.wikipedia.org/wiki/Jeffreys_prior
y por ello se complementan con técnicas más empíricas que rodean el
problema de demostrar matemáticamente que algo funciona. Un ejemplo de
ello es cross-validation.
Debería aclarar por qué el teorema del límite central no aplica.
Aunque es cierto que una binomial (solamente) con p=0.5 tiende a una distribución normal, lo que aquí tenemos es un modelo sencillo donde se asume que cada votante tiene una probabilidad fija de votar. Como es obvio que una votación al azar no acaba en empate (ni cerca del empate), entonces es obvio que p es un parámetro del modelo, y resulta que en este caso p=0.5 puede ser un valor aceptable.
Lo que sucede es que el modelo es demasiado sencillo como par tener muchas contribuciones aleatorias que se suman dando lugar a una gaussiana.
@zah
1. Hablaba del teorema centra del límite sobre las decisiones de cada votante, no del resultado de la votación (que también). Y sí se aplica, porque las decisiones individuales tienden a una media con distro normal, y siendo así la binomial resultante es igual. En el simulador enlazado se muestra que los resultados son equivalentes.
2. Frecuentista NO es Bayesiano, son dos formas diferentes. Busca en internet, es fácil verlo https://www.google.es/search?q=frequentist+vs+bayesian&oq=frequentist
3. En enlace que pones a El Mundo no explica nada ni proponen ningún modelo.
4. Las cuentas las hice EXACTAMENTE igual como hicieron en el artículo enlazado. No me inventé nada.
5. Estoy cansado, es un bucle de repetir siempre lo mismo.
1.44% es (para el caso 1515-1515) el valor máximo que podemos asignar a la probabilidad de empatar (si no consideramos confabulación), y corresponde, por supuesto, a dar por hecho que las muestras (los 3030 electores) se extraen de una población con exactamente idéntica cantidad de votantes sí y no (p=0.5). Es obvio que dependiendo de la pregunta que se formule, y de la población a la que se formule, existirán elecciones con probabilidad muy pequeña de empate, es decir, P(empate) puede tomar cualesquiera valores entre 0 y 1.44% (para el caso 1515-1515). ¿estamos de acuerdo en esto?
Galli, la pregunta es simple: ¿afirmas que el mejor estimador de la probabilidad P(empatar), desconocida la distribución de si/no en la población, es decir el valor de p, es su valor superior extremo 1.44%?
Asumir p=0.5 está lejos de ser la «menor información disponible», es elegir un escenario muy concreto sobre el que se realiza la votación, el más favorable al empate. La probabilidad a priori de que este sea el escenario real es muy pequeña, y para este cálculo no se compensan los escenarios con p0.5 pues todos juegan contra el empate.
Pondré un ejemplo. Juguemos a un juego. Yo te ofreceré una bolsa de bolas blancas y negras de las cuales no conoces la proporción y tu debes extraer 3030. Tu, que desconoces p, afirmas que =0.5 y probabilidad de sacar empate es 1.44%. Yo acepto eso y te ofrezco 200 euros por cada empate, y tú me pagarás 1 € por cada intento de extraer 3030 (sí, es un juego aburrido, pero todo sea por la ciencia). Pensarás, este va a ponerme todas negras… nooooo, no soy tan cabrón (en realidad sí que lo soy, soy un cabronazo, un verdadero hijo de puta) y no lo haré pero porque sé que te darás cuenta enseguida de que todas salen negras y me dirás, ¡es improbable! Así que lo que haré será darte una tirada con mitad blancas y negras, y en la siguiente, poner en el saco doble de negras que de blancas. Esto reduce tus probabilidades prácticamente a la mitad, ya que estarás de acuerdo conmigo en que en este último caso tu probabilidad de sacar 1515-1515 son muy muy pequeñas. Bien, pero eres fino y tarde o temprano (más bien temprano) detectas que salen 2.33 negras por cada 1.66 blancas y me insultas (no sería la primera vez). Yo te diré, venga va, era una broma y cambiaré mi estrategia, ahora colocaré como tercera opción una bolsa con doble de blancas que de negras. Tu probabilidad de acertar se habrá reducido a la tercera parte 1.44/3 < 0.5 lo que significa que empiezas a palmar pasta, y además, observarás que salen tantas blancas como negras. En efecto, cambiar p hacia arriba y hacia abajo sigue haciendo que p media sea 0.5… ¡pero eso no hará que empates con un 1.44% de probabilidad!
Si no sabes cual es la distribución de votantes, no puedes asumir p=0.5, eso es quedarte con una subfamilia muy muy particular de referendos.
@gallir
Se nota que estás cansado; no te has leído ni una sola frase completa de lo que he escrito.
Todo lo que pones o bien no tiene nada que ver o bien está contestado explícitamente y con ejemplos en mi comentario (que se leía mejor con los \t que usé para delimitar citas y se han perdido tras enviarlo).
Si vas a despreciar de esta manera los comentarios mejor no los tengas, y nos ahorras a todos perder el tiempo de esta manera. Lamentable.
Pingback: Las probabilidades del empate de la CUP | Ricardo Galli, de software
@zah
1. «El teorema del límite central no tiene nada que ver con tu modelo.» (sic)
2. «En particular un cálculo “frecuentista” (esto debería explicarse en más detalle) es un cálculo bayesiano» (sic)
3. «http://www.elmundo.es/cataluna/2015/11/29/565b3ef6ca474178188b4606.html
lo cual en mi *opinión* es un modelo mejor» (sic, pero no hay modelo allí).
4.»Si te salen dos resultados tan parecidos, probablemente es porque has
hecho ma mima cuenta» (sic)
5. También estoy cansado de los charlatanes que escriben una cosa y luego la niegan, ecima haciéndose las víctimas.
Lo que me faltaba, paso de seguir.
@Manuel Vilches Pacheco
Estás dando vueltas sobre lo que ya explico en el apunte y no sé dónde quieres llegar con tantas vueltas sin sentido.
@gallir
1. Está explicado en detalle, pero me llamas charlatán y pasas de leerlo.
2. Te digo que leas las frases hasta el final y solo citas una parte (y encima me llamas charlatán). Un cálculo frecuentista (con comillas y paréntesis) da el mismo valor numérico de la probabilidad (aunque la interpretación es distinta) que uno bayesiano en el supuesto que puse.
3. Citas el final de una frase sin haber leído el principio (y me llamas charlatán a mí). Dice bien claro que un posible valor de p que no es 0.5 es lo que hubo en la votación anterior, y los resultados se pueden ver en este enlace.
4. Ver 2.
5. Estaría decepcionado de no recibir una disculpa.
Pues tengo que disculparme por no haber terminado de leer este segundo post hasta el final. Y debes disculparme tú por ello, dado que el post en todo momento persiste lanzando monedas en la confusión de que no tener información significa que p=0.5, lo cual es un error. Entiendo ahora el comentario de David Ruescas sobre que estábamos de acuerdo y que solo había que ver que prior usabas en tu post. Estuve a punto de preguntarle si era alguna broma pues había leído el post (empezado a leerlo) y no te veía en esa línea. Ahora veo que sí.
La cuestión es que la pregunta a la que el profesor Bilbao responde es ¿cual era la probabilidad de que el empate se diera… ¡antes de que se diera!?? por supuesto, probabilidad a priori, que es la que realmente puede chocarnos, en tanto tú cálculo reponde a ¿cual es la probabilidad de que el empate se de… cuando ya se ha dado una vez?. Así, con esa primera muestra (información) estimas p=0.5, pero no ¡sin información!, con esa información que antes no tenías.
¿Podemos usar esa información o la «ronda previa»? pues claramente esa no (si tuviéramos otra, procedente de algún tipo de muestreo anterior, una encuesta, un conocimiento de la población etc, tal vez), dado que es esa información la que se pone en duda. Cuando ocurre algo que sospechamos no ha sido fortuito, no podemos preguntarnos cual es la probabilidad de que ocurra… una vez que ha ocurrido aceptando que ha ocurrido de forma fortuita. Tú mismo haces el mismo cálculo del profesor Bilbao para estimar la probabilidad del primer casi-empate en tu Bayes. Por supuesto que el cálculo del profesor es el mejor cálculo posible en ausencia de información.
Esto es lo que deberías, siendo honesto, reconocer sin más para restablecer la honorabilidad (matemática, no la política que ni me va ni me viene aquí) de este profesor de Universidad que a nadie faltó, y de paso, contribuir a la credibilidad de nuestro sistema educativo. El profesor calculó correctamente la probabilidad de que un empate se de en ausencia de información. Basta leer los comentarios en tu post, tu primer post, o las muchas columnas periodísticas relacionadas para entender que en todo momento se hablaba y hablábais de eso cometiendo el error de que «como no tengo info asumo que la probabilidad de sí es igual a la de no» lo cual es ya tener mucha, demasiada información que no tenías antes de que la votación se produjera (y por favor, no sigas con lo de las rondas previas, hablamos de antes de que ocurrieran)
Buenas tardes, y gracias por mantener tu paciencia y tratarme como creo que me merezco, pues en ningún momento te falté al respeto, y si lo hice dime donde y no tardaré en disculparme como es debido y públicamente.