Probabilidad = f(n)

Tesis epistemológica: la probabilidad mide nuestra incompletitud informacional

Jordi Casado Sobrepere

La probabilidad no es una propiedad del mundo, sino un termómetro de lo que sabemos.

Sea n ∈ [0,1] el grado de completitud informacional sobre un hecho H (cuánta de la información necesaria D_H poseemos). Entonces, la probabilidad P(H) existe y es útil únicamente cuando 0 < n < 1. Cuando n → 1 la probabilidad colapsa a certeza; cuando n = 0 estamos en ignorancia total.

⚖️ Momentum deterministus est: si el marco es determinista y n → 1, la probabilidad se agota y queda la certeza.

Laboratorio de f(n)

Explora cómo distintas funciones de completitud informacional transforman n en una probabilidad de H. Marca si asumes que H es verdadero (pendiente positiva) o si modelas un H falso (pendiente negativa).

n
0.35
P(H)
0.35
Interpretación
Conocimiento parcial: probabilidad informativa

Ejemplos canónicos

🪙 Moneda (clásico determinista)

n ≈ bajo → P ≈ 0.5

La moneda no es “azarosa” en sí: su estado futuro está fijado por condiciones iniciales y dinámica. Cuando no mides esos parámetros, usas probabilidad como mapa de tu ignorancia.

🩺 Diagnóstico médico

n: 0 → 1 (iterativo)

Con síntomas, examen físico, pruebas y TAC, n crece y P(H) se vuelve aguda hasta colapsar en certeza (intervención y patología confirman).

📦 Caja opaca

n: 0 → 1

El objeto ya tiene un color. Etiquetas, sensores, radiografía… aumentan n hasta que abrir la caja la lleva a 1: desaparece la probabilidad.

Comparativa de interpretaciones

Interpretación Idea central Objeto Cuando n=1 Fortalezas Limitaciones
Frecuentista Frecuencia relativa en repeticiones. Secuencias repetibles. Persiste como límite, aunque deja de ser necesaria. Objetiva en experimentos repetidos. No sirve bien para eventos únicos.
Bayesiana Grado de creencia coherente con la info. Estado epistémico del agente. Colapsa a certeza subjetiva (0 o 1). Actualiza elegante con Bayes. Depende de priors; subjetividad.
Lógica Lógica extendida bajo incertidumbre. Relación entre proposiciones. Vuelve a bivalencia clásico. Rigor formal. Asignación práctica de medidas.
Cuántica Azar ontológico (en algunas lecturas). Estado físico (amplitudes). Algunas magnitudes siguen siendo probabilísticas. Éxito predictivo experimental. Dilemas ontológicos y de interpretación.
Epistemológica (esta tesis) Probabilidad = f(n) incompletitud informacional. Relación entre D_disponibles y D_H. La probabilidad desaparece (certeza). Hace explícito el tránsito info→certeza. ¿Cómo medir n? ¿Qué pasa en cuántica?

FAQ breve

Explicación para peques

Imagina una bolsa con canicas. Si no ves nada (n=0), no sabes cuál saldrá. Si miras un poco (n sube), puedes adivinar mejor. Si ves todo claro (n=1), ya no hay adivinanza: sabes la respuesta.

¿La probabilidad es una propiedad de las cosas?

No en el dominio clásico: es una métrica de nuestro conocimiento sobre ellas. En cuántica, la cuestión está abierta.

¿Cómo estimo n en la práctica?

Como métrica operacional: identifica las piezas críticas de D_H, mide cuántas posees y cómo impactan tus predicciones. Usa curvas de aprendizaje: si más datos ya no mejoran, estás cerca de n≈1 operacional.

¿Qué diferencia hay con Bayes?

Bayes cuantifica creencias; aquí enfatizamos el puente explícito f: n→P y el colapso a certeza cuando n→1, con el problema cuántico en primer plano.