This HTML5 document contains 18 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

PrefixNamespace IRI
category-eshttp://es.dbpedia.org/resource/Categoría:
dcthttp://purl.org/dc/terms/
wikipedia-eshttp://es.wikipedia.org/wiki/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
n13http://videolectures.net/nips09_verdu_re/
dbpedia-eshttp://es.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
n7http://arxiv.org/abs/math/
n4http://rdf.freebase.com/ns/m.
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
n15http://www.mathworks.com/matlabcentral/fileexchange/loadFile.do%3FobjectId=13089&objectType=
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
n17http://es.wikipedia.org/wiki/Divergencia_de_Kullback-Leibler?oldid=124321492&ns=
dbrhttp://dbpedia.org/resource/
n14https://web.archive.org/web/20120317020305/http:/www.snl.salk.edu/~shlens/kl.
Subject Item
dbpedia-es:Divergencia_de_Kullback_Leibler
dbo:wikiPageRedirects
dbpedia-es:Divergencia_de_Kullback-Leibler
Subject Item
wikipedia-es:Divergencia_de_Kullback-Leibler
foaf:primaryTopic
dbpedia-es:Divergencia_de_Kullback-Leibler
Subject Item
dbr:Kullback–Leibler_divergence
owl:sameAs
dbpedia-es:Divergencia_de_Kullback-Leibler
Subject Item
dbpedia-es:Divergencia_de_Kullback-Leibler
rdfs:label
Divergencia de Kullback-Leibler
rdfs:comment
En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)​​​ (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P.
owl:sameAs
n4:02d0qq
dct:subject
category-es:Geometría_métrica category-es:Entropía_de_la_información
foaf:isPrimaryTopicOf
wikipedia-es:Divergencia_de_Kullback-Leibler
dbo:wikiPageID
1182759
dbo:wikiPageRevisionID
124321492
dbo:wikiPageExternalLink
n7:0604246 n13: n14:pdf n15:file
dbo:wikiPageLength
7577
prov:wasDerivedFrom
n17:0
dbo:abstract
En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL)​​​ (también conocida como divergencia de la información, , entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La medida Q generalmente representa una teoría, modelo, descripción o aproximación de P. Aunque a menudo se considera como una métrica o distancia, la divergencia KL no lo es en realidad — por ejemplo, no es simétrica: la divergencia KL de P a Q no necesariamente es la misma KL de Q a P. La divergencia KL es un caso especial de una clase más amplia de llamadas . Fue originalmente introducida por y en 1951 como la divergencia direccionada entre dos distribuciones. KL se puede derivar de la divergencia de Bregman.