Laboratorio de f(n)
Explora cómo distintas funciones de completitud informacional transforman n en una probabilidad de H. Marca si asumes que H es verdadero (pendiente positiva) o si modelas un H falso (pendiente negativa).
Tesis epistemológica: la probabilidad mide nuestra incompletitud informacional
Jordi Casado Sobrepere
Sea n ∈ [0,1] el grado de completitud informacional sobre un hecho H (cuánta de la información necesaria D_H poseemos). Entonces, la probabilidad P(H) existe y es útil únicamente cuando 0 < n < 1. Cuando n → 1 la probabilidad colapsa a certeza; cuando n = 0 estamos en ignorancia total.
Explora cómo distintas funciones de completitud informacional transforman n en una probabilidad de H. Marca si asumes que H es verdadero (pendiente positiva) o si modelas un H falso (pendiente negativa).
La moneda no es “azarosa” en sí: su estado futuro está fijado por condiciones iniciales y dinámica. Cuando no mides esos parámetros, usas probabilidad como mapa de tu ignorancia.
Con síntomas, examen físico, pruebas y TAC, n crece y P(H) se vuelve aguda hasta colapsar en certeza (intervención y patología confirman).
El objeto ya tiene un color. Etiquetas, sensores, radiografía… aumentan n hasta que abrir la caja la lleva a 1: desaparece la probabilidad.
Interpretación | Idea central | Objeto | Cuando n=1 | Fortalezas | Limitaciones |
---|---|---|---|---|---|
Frecuentista | Frecuencia relativa en repeticiones. | Secuencias repetibles. | Persiste como límite, aunque deja de ser necesaria. | Objetiva en experimentos repetidos. | No sirve bien para eventos únicos. |
Bayesiana | Grado de creencia coherente con la info. | Estado epistémico del agente. | Colapsa a certeza subjetiva (0 o 1). | Actualiza elegante con Bayes. | Depende de priors; subjetividad. |
Lógica | Lógica extendida bajo incertidumbre. | Relación entre proposiciones. | Vuelve a bivalencia clásico. | Rigor formal. | Asignación práctica de medidas. |
Cuántica | Azar ontológico (en algunas lecturas). | Estado físico (amplitudes). | Algunas magnitudes siguen siendo probabilísticas. | Éxito predictivo experimental. | Dilemas ontológicos y de interpretación. |
Epistemológica (esta tesis) | Probabilidad = f(n) incompletitud informacional. | Relación entre D_disponibles y D_H. | La probabilidad desaparece (certeza). | Hace explícito el tránsito info→certeza. | ¿Cómo medir n? ¿Qué pasa en cuántica? |
Imagina una bolsa con canicas. Si no ves nada (n=0), no sabes cuál saldrá. Si miras un poco (n sube), puedes adivinar mejor. Si ves todo claro (n=1), ya no hay adivinanza: sabes la respuesta.
No en el dominio clásico: es una métrica de nuestro conocimiento sobre ellas. En cuántica, la cuestión está abierta.
Como métrica operacional: identifica las piezas críticas de D_H, mide cuántas posees y cómo impactan tus predicciones. Usa curvas de aprendizaje: si más datos ya no mejoran, estás cerca de n≈1 operacional.
Bayes cuantifica creencias; aquí enfatizamos el puente explícito f: n→P y el colapso a certeza cuando n→1, con el problema cuántico en primer plano.