En lingüística, la ley de Heaps (también llamada ley de Herdan) es una ley empírica que describe el número de palabras distintas en un documento (o conjunto de documentos) como una función de la longitud del documento. Pueda ser formulado como: Donde VR es el número de palabras distintas en un texto de tamaño n. K Y β son los parámetros libres que se determinan empíricamente. Con un texto en inglés, típicamente K es entre 10 y 100, y β es entre 0,4 y 0,6. La ley de Heaps significa que cuando más texto es generado, costará más tiempo encontrar palabras nuevas.

Property Value
dbo:abstract
  • En lingüística, la ley de Heaps (también llamada ley de Herdan) es una ley empírica que describe el número de palabras distintas en un documento (o conjunto de documentos) como una función de la longitud del documento. Pueda ser formulado como: Donde VR es el número de palabras distintas en un texto de tamaño n. K Y β son los parámetros libres que se determinan empíricamente. Con un texto en inglés, típicamente K es entre 10 y 100, y β es entre 0,4 y 0,6. La ley es frecuentemente atribuida a Harold Stanley Heaps, pero fue originalmente descubierta por Gustav Herdan (1960). Bajo suposiciones suaves, la ley de Herdan-Heaps es una la ley asintóticamente equivalente a la ley de Zipf, que concierne a las frecuencias de palabras individuales dentro de un texto. Esto es una consecuencia del hecho de que la relación typo-token (en general) de un texto homogéneo puede ser derivado de la distribución de sus typos.​​​ La ley de Heaps significa que cuando más texto es generado, costará más tiempo encontrar palabras nuevas. La ley de Heaps también aplica a las situaciones en que el «vocabulario» es algún conjunto de distintas clases de alguna colección de objetos. Por ejemplo, los objetos podrían ser personas, y las clases podrían ser países de origen de la persona. Si las personas están seleccionadas aleatoriamente (es decir, no están seleccionadas las personas en función del país de origen), entonces la ley de Heaps dice cuán rápido encontraremos representantes de los países (en proporción al número de personas seleccionadas al azar) y predice que será más difícil cada vez encontrar personas de un país no incluido en la muestra. (es)
  • En lingüística, la ley de Heaps (también llamada ley de Herdan) es una ley empírica que describe el número de palabras distintas en un documento (o conjunto de documentos) como una función de la longitud del documento. Pueda ser formulado como: Donde VR es el número de palabras distintas en un texto de tamaño n. K Y β son los parámetros libres que se determinan empíricamente. Con un texto en inglés, típicamente K es entre 10 y 100, y β es entre 0,4 y 0,6. La ley es frecuentemente atribuida a Harold Stanley Heaps, pero fue originalmente descubierta por Gustav Herdan (1960). Bajo suposiciones suaves, la ley de Herdan-Heaps es una la ley asintóticamente equivalente a la ley de Zipf, que concierne a las frecuencias de palabras individuales dentro de un texto. Esto es una consecuencia del hecho de que la relación typo-token (en general) de un texto homogéneo puede ser derivado de la distribución de sus typos.​​​ La ley de Heaps significa que cuando más texto es generado, costará más tiempo encontrar palabras nuevas. La ley de Heaps también aplica a las situaciones en que el «vocabulario» es algún conjunto de distintas clases de alguna colección de objetos. Por ejemplo, los objetos podrían ser personas, y las clases podrían ser países de origen de la persona. Si las personas están seleccionadas aleatoriamente (es decir, no están seleccionadas las personas en función del país de origen), entonces la ley de Heaps dice cuán rápido encontraremos representantes de los países (en proporción al número de personas seleccionadas al azar) y predice que será más difícil cada vez encontrar personas de un país no incluido en la muestra. (es)
dbo:wikiPageID
  • 9098316 (xsd:integer)
dbo:wikiPageLength
  • 4365 (xsd:integer)
dbo:wikiPageRevisionID
  • 125989849 (xsd:integer)
prop-es:apellidos
  • Navarro (es)
  • Baeza-Yates (es)
  • Heaps (es)
  • Egghe (es)
  • Herdan (es)
  • Kornai (es)
  • Milička (es)
  • van Leijenhorst (es)
  • van der Weide (es)
  • Navarro (es)
  • Baeza-Yates (es)
  • Heaps (es)
  • Egghe (es)
  • Herdan (es)
  • Kornai (es)
  • Milička (es)
  • van Leijenhorst (es)
  • van der Weide (es)
prop-es:capítulo
  • Zipf's law outside the middle range (es)
  • Zipf's law outside the middle range (es)
prop-es:doi
  • 101002 (xsd:integer)
  • 101016 (xsd:integer)
  • 101515 (xsd:integer)
prop-es:editor
  • Rogers (es)
  • Rogers (es)
prop-es:editorial
  • University of Central Florida (es)
  • Academic Press (es)
  • Mouton (es)
  • University of Central Florida (es)
  • Academic Press (es)
  • Mouton (es)
prop-es:id
  • 3431 (xsd:integer)
prop-es:lugar
  • The Hague (es)
  • The Hague (es)
prop-es:nombre
  • Gonzalo (es)
  • L. (es)
  • Andras (es)
  • Ricardo (es)
  • Gustav (es)
  • Jiří (es)
  • D. C (es)
  • Harold Stanley (es)
  • Th. P. (es)
  • Gonzalo (es)
  • L. (es)
  • Andras (es)
  • Ricardo (es)
  • Gustav (es)
  • Jiří (es)
  • D. C (es)
  • Harold Stanley (es)
  • Th. P. (es)
prop-es:nombreEditor
  • James (es)
  • James (es)
prop-es:número
  • 1 (xsd:integer)
  • 2 (xsd:integer)
  • 5 (xsd:integer)
prop-es:pubPeriódica
  • Information Sciences (es)
  • Glottotheory. International Journal of Theoretical Linguistics (es)
  • Journal of the American Society for Information Science (es)
  • Journal of the American Society for Information Science and Technology (es)
  • Information Sciences (es)
  • Glottotheory. International Journal of Theoretical Linguistics (es)
  • Journal of the American Society for Information Science (es)
  • Journal of the American Society for Information Science and Technology (es)
prop-es:puntofinal
  • . Heaps' law is proposed in Section 7.5 . (es)
  • . Heaps' law is proposed in Section 7.5 . (es)
prop-es:páginas
  • 69 (xsd:integer)
  • 99 (xsd:integer)
  • 263 (xsd:integer)
  • 347 (xsd:integer)
  • 702 (xsd:integer)
prop-es:title
  • Heaps' law (es)
  • Heaps' law (es)
prop-es:título
  • A formal derivation of Heaps' Law (es)
  • Information Retrieval: Computational and Theoretical Aspects (es)
  • Type-token mathematics (es)
  • Block addressing indices for approximate text retrieval (es)
  • Proceedings of the Sixth Meeting on Mathematics of Language (es)
  • Type-token & Hapax-token Relation: A Combinatorial Model (es)
  • Untangling Herdan's law and Heaps' law: Mathematical and informetric arguments (es)
  • A formal derivation of Heaps' Law (es)
  • Information Retrieval: Computational and Theoretical Aspects (es)
  • Type-token mathematics (es)
  • Block addressing indices for approximate text retrieval (es)
  • Proceedings of the Sixth Meeting on Mathematics of Language (es)
  • Type-token & Hapax-token Relation: A Combinatorial Model (es)
  • Untangling Herdan's law and Heaps' law: Mathematical and informetric arguments (es)
prop-es:volumen
  • 1 (xsd:integer)
  • 51 (xsd:integer)
  • 58 (xsd:integer)
  • 170 (xsd:integer)
prop-es:year
  • 1960 (xsd:integer)
  • 1978 (xsd:integer)
  • 1999 (xsd:integer)
  • 2000 (xsd:integer)
  • 2005 (xsd:integer)
  • 2007 (xsd:integer)
  • 2009 (xsd:integer)
dct:subject
rdfs:comment
  • En lingüística, la ley de Heaps (también llamada ley de Herdan) es una ley empírica que describe el número de palabras distintas en un documento (o conjunto de documentos) como una función de la longitud del documento. Pueda ser formulado como: Donde VR es el número de palabras distintas en un texto de tamaño n. K Y β son los parámetros libres que se determinan empíricamente. Con un texto en inglés, típicamente K es entre 10 y 100, y β es entre 0,4 y 0,6. La ley de Heaps significa que cuando más texto es generado, costará más tiempo encontrar palabras nuevas. (es)
  • En lingüística, la ley de Heaps (también llamada ley de Herdan) es una ley empírica que describe el número de palabras distintas en un documento (o conjunto de documentos) como una función de la longitud del documento. Pueda ser formulado como: Donde VR es el número de palabras distintas en un texto de tamaño n. K Y β son los parámetros libres que se determinan empíricamente. Con un texto en inglés, típicamente K es entre 10 y 100, y β es entre 0,4 y 0,6. La ley de Heaps significa que cuando más texto es generado, costará más tiempo encontrar palabras nuevas. (es)
rdfs:label
  • Ley de Heaps (es)
  • Ley de Heaps (es)
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is foaf:primaryTopic of