En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)​​​ (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P.

Property Value
dbo:abstract
  • En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)​​​ (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. Aunque a menudo se considera como una métrica o distancia, la divergencia KL no lo es en realidad — por ejemplo, no es simétrica: la divergencia KL de P a Q no necesariamente es la misma KL de Q a P. La divergencia KL es un caso especial de una clase más amplia de llamadas . Fue originalmente introducida por y en 1951 como la divergencia direccionada entre dos distribuciones. KL se puede derivar de la divergencia de Bregman. (es)
  • En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)​​​ (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. Aunque a menudo se considera como una métrica o distancia, la divergencia KL no lo es en realidad — por ejemplo, no es simétrica: la divergencia KL de P a Q no necesariamente es la misma KL de Q a P. La divergencia KL es un caso especial de una clase más amplia de llamadas . Fue originalmente introducida por y en 1951 como la divergencia direccionada entre dos distribuciones. KL se puede derivar de la divergencia de Bregman. (es)
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 1182759 (xsd:integer)
dbo:wikiPageLength
  • 7577 (xsd:integer)
dbo:wikiPageRevisionID
  • 124321492 (xsd:integer)
dct:subject
rdfs:comment
  • En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)​​​ (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. (es)
  • En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)​​​ (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. (es)
rdfs:label
  • Divergencia de Kullback-Leibler (es)
  • Divergencia de Kullback-Leibler (es)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:wikiPageRedirects of
is owl:sameAs of
is foaf:primaryTopic of