Property |
Value |
dbo:abstract
|
- En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL) (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. Aunque a menudo se considera como una métrica o distancia, la divergencia KL no lo es en realidad — por ejemplo, no es simétrica: la divergencia KL de P a Q no necesariamente es la misma KL de Q a P. La divergencia KL es un caso especial de una clase más amplia de llamadas . Fue originalmente introducida por y en 1951 como la divergencia direccionada entre dos distribuciones. KL se puede derivar de la divergencia de Bregman. (es)
- En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL) (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. Aunque a menudo se considera como una métrica o distancia, la divergencia KL no lo es en realidad — por ejemplo, no es simétrica: la divergencia KL de P a Q no necesariamente es la misma KL de Q a P. La divergencia KL es un caso especial de una clase más amplia de llamadas . Fue originalmente introducida por y en 1951 como la divergencia direccionada entre dos distribuciones. KL se puede derivar de la divergencia de Bregman. (es)
|
dbo:wikiPageExternalLink
| |
dbo:wikiPageID
| |
dbo:wikiPageLength
| |
dbo:wikiPageRevisionID
| |
dct:subject
| |
rdfs:comment
|
- En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL) (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. (es)
- En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL) (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. (es)
|
rdfs:label
|
- Divergencia de Kullback-Leibler (es)
- Divergencia de Kullback-Leibler (es)
|
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:isPrimaryTopicOf
| |
is dbo:wikiPageRedirects
of | |
is owl:sameAs
of | |
is foaf:primaryTopic
of | |