En teoría de la información, el teorema de codificación de fuentes, el primer teorema de Shannon o, menos utilizado, teorema de codificación sin ruido es un teorema enunciado por Claude Shannon en 1948 que establece el límite teórico para la compresión de una fuente de datos,​ así como el significado operacional de la entropía de Shannon. El primer teorema de Shannon establece una cota inferior y superior de la longitud mínima posible de bits de información como función de la entropía.

Property Value
dbo:abstract
  • En teoría de la información, el teorema de codificación de fuentes, el primer teorema de Shannon o, menos utilizado, teorema de codificación sin ruido es un teorema enunciado por Claude Shannon en 1948 que establece el límite teórico para la compresión de una fuente de datos,​ así como el significado operacional de la entropía de Shannon. El primer teorema de Shannon muestra que (en el límite en el que una cadena de variables aleatorias independientes e idénticamente distribuidas de datos tiende a infinito) es imposible comprimir la información de forma que el ratio de codificación (número medio de bits por símbolo) es menor que la entropía de Shannon de la fuente, si se garantiza que no haya pérdida de información. Sin embargo, sí es posible conseguir un ratio de codificación arbitrariamente cerca del valor de la entropía de Shannon. El primer teorema de Shannon establece una cota inferior y superior de la longitud mínima posible de bits de información como función de la entropía. (es)
  • En teoría de la información, el teorema de codificación de fuentes, el primer teorema de Shannon o, menos utilizado, teorema de codificación sin ruido es un teorema enunciado por Claude Shannon en 1948 que establece el límite teórico para la compresión de una fuente de datos,​ así como el significado operacional de la entropía de Shannon. El primer teorema de Shannon muestra que (en el límite en el que una cadena de variables aleatorias independientes e idénticamente distribuidas de datos tiende a infinito) es imposible comprimir la información de forma que el ratio de codificación (número medio de bits por símbolo) es menor que la entropía de Shannon de la fuente, si se garantiza que no haya pérdida de información. Sin embargo, sí es posible conseguir un ratio de codificación arbitrariamente cerca del valor de la entropía de Shannon. El primer teorema de Shannon establece una cota inferior y superior de la longitud mínima posible de bits de información como función de la entropía. (es)
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 7968270 (xsd:integer)
dbo:wikiPageLength
  • 9999 (xsd:integer)
dbo:wikiPageRevisionID
  • 128901771 (xsd:integer)
prop-es:date
  • 20160315003216 (xsd:double)
prop-es:url
dct:subject
rdfs:comment
  • En teoría de la información, el teorema de codificación de fuentes, el primer teorema de Shannon o, menos utilizado, teorema de codificación sin ruido es un teorema enunciado por Claude Shannon en 1948 que establece el límite teórico para la compresión de una fuente de datos,​ así como el significado operacional de la entropía de Shannon. El primer teorema de Shannon establece una cota inferior y superior de la longitud mínima posible de bits de información como función de la entropía. (es)
  • En teoría de la información, el teorema de codificación de fuentes, el primer teorema de Shannon o, menos utilizado, teorema de codificación sin ruido es un teorema enunciado por Claude Shannon en 1948 que establece el límite teórico para la compresión de una fuente de datos,​ así como el significado operacional de la entropía de Shannon. El primer teorema de Shannon establece una cota inferior y superior de la longitud mínima posible de bits de información como función de la entropía. (es)
rdfs:label
  • Primer teorema de Shannon (es)
  • Primer teorema de Shannon (es)
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:wikiPageRedirects of
is owl:sameAs of
is foaf:primaryTopic of