ni Mu ni Teta ni nada de eso

Los ingenieros (sobre todo) y en menor medida, matemáticos y físicos, tienen (tenemos) la fea costumbre de llamar a las letras griegas sin orden ni concierto. Eso es un hecho. ¿Quién no ha acabado llamando igual a Fi (Φ, φ) y a Psi (Ψ, ψ), o ha bautizado como Chi (que no existe) a Ji (Χ χ) (recordad a ver cuántas veces un profesor os ha escrito método de Chi-Cuadrado, por ejemplo). Eso sin contar con aberraciones que yo he usado y sigo usando, como llamar borrego o churrito por su maldita grafía a Xi (Ξ, ξ) cuando aparece en minúscula, un habitual en la electromagnética (es el vector de Poynting, creo recordar).

Y qué decir de la manía de usar este convenio no escrito por profesionales de ciencias (y repito, me incluyo): Si no sabes qué letra griega es, llámala Teta, Zeda, o Theta o cualquier nombre parecido, que seguro que cuela.

¿A santo de qué viene ésto? Bueno, es una polémica que tengo con cierta persona de filología clásica desde hace años, cuando vio que en el Código Técnico de la Edificación (biblia de aparejadores, arquitectos e ingenieros de obras públicas y demás) aparecía la letra (Μ, μ) con el nombre que le damos todos los que hemos estudiado física desde el bachillerato, es decir, MU.

No os podéis imaginar lo que se enfadó. Y mucho. De hecho, hoy en día se lo cuenta a sus alumnos de bachillerato, los cuales se ríen mucho con la anécdota. No quiero ni pensar qué hubiera pasado si hubiera echado un ojo a mis apuntes de campos electromagnéticos, por ejemplo, donde en todas las fórmulas se llama a la dichosa letrita así.

Me sorprendió descubrir este error. Y señoras y señores, tenemos que admitirlo. Tooooooooodas estas cosas:

  • Unidades de medida
    • El prefijo micro, carácter micro o símbolo micro del SI, que representa una millonésima, o 10-6 parte de otra unidad.
    • El micrón, una antigua unidad correspondiente al micrómetro (μm).
  • Física
    • En Dinámica, el coeficiente de rozamiento
    • En Electromagnetismo, la Permeabilidad magnética
    • En Mecánica de fluidos, la Viscosidad dinámica.
    • En Física de partículas, La partícula elemental muon.
    • La masa reducida en el problema de dos cuerpos.
  • Termodinámica
    • El potencial químico de un sistema.
  • Matemáticas
    • En teoría de números, la Función de Möbius
    • En probabilidad y estadística, la media o valor esperado de una distribución.
    • En Teoría de la medida, una medición.

Representadas por la letra griega (Μ, μ) NO se llaman MU, sino…. MI.

Comparto con vosotros el correo que me ha mandado a título de cachondeo ante mi negativa (vencida ya) de no llamar a mi vieja MU como es debido, o sea, MI:

mu es mi

Así que ya sabéis. Ni Teta, que no existe (lo siento por la combinación de Seno de Teta, que con la unión PN de electrónica ha dado para muchos chistes fáciles), ni MU porque no somos vacas. Así que a cambiar el chip toca.

 

Ya sólo me queda descubrir la vieja polémica que teníamos en la Politécnica…. ¿se dice Ohmios u Ohmnios? Espero respuestas, si alguien lo sabe…

Expliquemos bien Bayes y su Teorema

Thomas Bayes fue un matemático británico del siglo XVIII que enunció un curioso teorema de esos que son feos formalmente pero realmente muy cómodos en su aplicación. Y se basa en el análisis de las probabilidades de las causas observando los efectos.

He aquí el archiconocido y sumamente mal interpretado a veces Teorema de Bayes:

Sea la terna (W,F,P) un espacio probabilístico. Sea A1,A2 …. An un sistema completo de sucesos, y sea el suceso B. La probabilidad de que ocurra un determinado Ak condicionado a que haya ocurrido B es:

teorema de bayes

 

 

Es un teorema de esos feos, feos en su enunciado pero muy simples, como vamos a analizar, en su uso. Para ello aclaremos algunos conceptos:

  • P(A/B) significa probabilidad de que ocurra A a condición de que haya ocurrido B. Y al revés, P(B/A) pues obviamente significa la probabilidad de que ocurra B a condición de que haya ocurrido A.
  • Un sistema completo de sucesos es un conjunto de sucesos que cumplen dos propiedades que se pueden resumir así: Si consideramos todos ellos no dejamos ningún caso fuera (es decir, todos agrupan el 100% de las probabilidades, todas las opciones) y no se pisan unos con otros, es decir, no hay manera de que dos o más sucesos ocurran a la vez. Por ejemplo un sistema completo de sucesos es  DIA y NOCHE, o en un dado de seis caras que salgan PAR y que salga IMPAR; cubrimos todas las posibilidades y no se solapan. No hay DÍA y NOCHE a la vez y no hay PAR e IMPAR a la vez. Obviamente no han de ser opuestos siempre, pero pasa muy a menudo.
  • El Teorema de Bayes sirve para analizar las probabilidades de las causas una vez ha ocurrido una determinada consecuencia. Dicho de otra forma, si ha ocurrido B, Bayes te dice qué posibilidad hay de que haya sido bajo efecto o influjo de A1 o A2 o un Ak cualquiera.
  • Interpretarlo es muy muy fácil. Tenemos que primero ocurren una colección de sucesos (Ak) y luego, después de cada uno de ellos puede ocurrir B o no ocurrir. Vamos a preguntarnos qué probabilidad hay de que si ha ocurrido B hhaya sido bajo influencia de A1. Veamos el diagrama de árbol:

bayes1

Apliquemos la regla de Laplace que todo el mundo conoce, ya sabéis, la probabilidad de que pase un suceso es el cociente entre casos favorables y casos totales.

La probabilidad P(A1/B) es la probabilidad de que pase A1 sabiendo que ha pasado B. Luego la rama a favor del árbol es claramente la marcada en el dibujo.

¿Cuáles son los casos totales? Sencillo. NO es todo el árbol, dado que sabemos de forma fehaciente que B ha ocurrido. Es por eso que los casos totales son la suma de todas las ramas del árbol que acaban en B, sólo y exclusivamente esos. Es decir, P(A1)P(A1/B)+ P(A2)P(A2/B)+…+ P(An)P(An/B). Viendo el diagramas, los caminos verdes marcados en el dibujo siguiente.

bayes2

Ahora comparad este razonamiento con la fórmula del Teorema de Bayes. Realmente, es aplicar la Regla de Laplace con mucha imaginación. Numerador es la rama roja (a favor) y denominador es la suma de todas las ramas verdes (casos totales). El teorema NO viene de la Ley de Laplace (más que nada porque y para pasmo de mucha gente, el bueno de Bayes es anterior unos 50 años al genio francés), sino que se deduce del Teorema de la Probabilidad Total y la propia definición de probabilidad condicionada. Pero no negaréis que así se ve mucho mejor que saberse de memoria la fórmula, ¿no?.

Y mucho ojo, porque este teorema permite analizar cosillas que si se toman a la ligera, rápidamente, pueden dar lugar a equívocos. Por ejemplo, supongamos que un fabricante de pruebas para corroborar si se tiene una enfermedad dice que “su test acierta en las pruebas realizadas a enfermos diagnosticados en el 95% de los casos”. Ahora pregunto….

¿Detecta realmente bien la presencia de enfermedad?

Si pensáis que sí, volved a leerlo detenidamente. ¿El truco? Muy sencillo: el fabricante asegura que acierta en el 95% de las pruebas con enfermos, pero…. ¿qué sabemos de las posibilidades de acertar al aplicarlo a alguien sano? Es decir, a mi no me gustaría que me dijeran que tengo una enfermedad cuando realmente no la tengo. Éste es un punto importante, clave. Para saber si el método es fiable no basta con saber cuántas veces acierta al aplicarlo a enfermos. También necesitamos saber cuándo acierta al aplicarlo a sanos.

Es decir, si queremos saber cuán fiable es, lo que queremos es saber qué probabilidad hay de que tengamos esa enfermedad cuándo el método dice que la tenemos y qué probabilidad hay de no tenerla cuándo el método dice que no la tenemos.

¿Vemos la implicación de Bayes? Supongamos:

  • A1 es el suceso “tener la enfermedad”. A2 es su opuesto, el suceso “No tener la enfermedad”. Forman un sistema completo de sucesos.
  • B es el suceso “el test dice que tengo la enfermedad”. Y su opuesto es “el test dice que no tengo la enfermedad”.
  • Como nos faltan datos, supongamos que el test acierta, por ser generosos, también en el 95% de las veces que dice que NO se sufre dicha enfermedad. Es decir, un 95% de las veces que se ha probado con sanos, ha deducido correctamente que efectivamente está sano.

Con estos datos, podemos formar un diagrama, dejando como X  de [0,1]la probabilidad de sufrir una determinada enfermedad:

bayes3

Lo que nos deja:

bayes5

 Representando en Geogebra estas dos funciones se ven que van a la contra, cuando una sube la otra baja y viceversa. Os dejo un gif que como todos los de Geogebra pesa lo suyo y el link a la hoja dinámica. Si el gif tarda id a la hoja pinchando aquí. La hoja, si no rula, probad a hacerla funcionar como HTML5. Está configurada para mostrarse en Java.

probabilidad bayesiana2

 

La gráfica azul es la probabilidad de tener la enfermedad cuando el test dice que la tienes y la roja la probabilidad de no tenerla si el test dice que no la tienes. La barra que se mueve es la probabilidad de tener la enfermedad. Obviamente oscila de 0 a 1.

Observamos que si la enfermedad es rara (con probabilidad x muy baja, del orden de 0.05) la probabilidad de tener la enfermedad cuando el test dice que la tienes es bastante pequeña, aunque es muy probable que no la tengas si el test dice que no la tienes. Como es una enfermedad rara, entonces el test tampoco es que sirva para mucho.

Más curioso es qué ocurre si es una enfermedad plaga (con una probabilidad de x=0.95, no sé si hay plagas así…). En ese caso los papeles se invierten. Si el test dice que la tienes, es muy probable que la tengas, pero si el test dice que no la tienes…. Es muy fácil que se haya equivocado. Tampoco sirve de gran ayuda en una epidemia un test que no sirve para decir quién está libre de la enfermedad (que es lo difícil en esos casos).

 

¿es entonces un buen test? Bueno, si la probabilidad de tener una enfermedad es de un 0.2 a un 0.8 entonces sí que acierta bastante (si es que un 80% de aciertos es suficientemente bueno, ya que pensad que vamos a realizar la prueba a millones de personas ansiosas de saber su estado), pero no sé hasta qué punto hay enfermedades tan proclives a ser sufridas….

Lo que está claro es que no funciona bien con enfermedades muy raras ni con enfermedades que causen pandemias.