En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada , más que en la verdadera distribución . La entropía cruzada para dos distribuciones y sobre el mismo espacio de probabilidad se define como sigue: donde es la entropía de , y es la divergencia de Kullback-Leibler entre y (también conocida como entropía relativa). Si y son variables discretas:

Property Value
dbo:abstract
  • En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada , más que en la verdadera distribución . La entropía cruzada para dos distribuciones y sobre el mismo espacio de probabilidad se define como sigue: donde es la entropía de , y es la divergencia de Kullback-Leibler entre y (también conocida como entropía relativa). Si y son variables discretas: Para las distribuciones con variables aleatorias continuas: (es)
  • En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada , más que en la verdadera distribución . La entropía cruzada para dos distribuciones y sobre el mismo espacio de probabilidad se define como sigue: donde es la entropía de , y es la divergencia de Kullback-Leibler entre y (también conocida como entropía relativa). Si y son variables discretas: Para las distribuciones con variables aleatorias continuas: (es)
dbo:wikiPageID
  • 1022657 (xsd:integer)
dbo:wikiPageLength
  • 1299 (xsd:integer)
dbo:wikiPageRevisionID
  • 117315837 (xsd:integer)
dct:subject
rdfs:comment
  • En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada , más que en la verdadera distribución . La entropía cruzada para dos distribuciones y sobre el mismo espacio de probabilidad se define como sigue: donde es la entropía de , y es la divergencia de Kullback-Leibler entre y (también conocida como entropía relativa). Si y son variables discretas: (es)
  • En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada , más que en la verdadera distribución . La entropía cruzada para dos distribuciones y sobre el mismo espacio de probabilidad se define como sigue: donde es la entropía de , y es la divergencia de Kullback-Leibler entre y (también conocida como entropía relativa). Si y son variables discretas: (es)
rdfs:label
  • Entropía cruzada (es)
  • Entropía cruzada (es)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:wikiPageRedirects of
is owl:sameAs of
is foaf:primaryTopic of