El análisis exploratorio de datos es una forma de analizar datos definido por John W. Tukey (E.D.A.: Exploratory data analysis) es el tratamiento estadístico al que se someten las muestras recogidas durante un proceso de investigación en cualquier campo científico. Para mayor rapidez y precisión, todo el proceso suele realizarse por medios informáticos, con aplicaciones específicas para el tratamiento estadístico. Los E.D.A., no necesariamente, se llevan a cabo con una base de datos al uso, ni con una hoja de cálculo convencional; no obstante el programa SPSS y R (lenguaje de programación) son las aplicaciones más utilizadas, aunque no las únicas.

Property Value
dbo:abstract
  • El análisis exploratorio de datos es una forma de analizar datos definido por John W. Tukey (E.D.A.: Exploratory data analysis) es el tratamiento estadístico al que se someten las muestras recogidas durante un proceso de investigación en cualquier campo científico. Para mayor rapidez y precisión, todo el proceso suele realizarse por medios informáticos, con aplicaciones específicas para el tratamiento estadístico. Los E.D.A., no necesariamente, se llevan a cabo con una base de datos al uso, ni con una hoja de cálculo convencional; no obstante el programa SPSS y R (lenguaje de programación) son las aplicaciones más utilizadas, aunque no las únicas. Por ejemplo, en el campo de la Arqueología el análisis técnico de una pieza puede ser simultáneo a la introducción de los datos, bien porque las fichas estén directamente informatizadas o, bien, porque se usen formularios en papel cuyos datos sean fáciles de introducir en el ordenador o computadora. Es posible, incluso, usar en la propia excavación, una serie de PDAs conectados en red inalámbrica instalada en el yacimiento arqueológico, que envíen numerosos datos de campo a una base de datos central que luego se usarán con fines diversos, entre ellos éste. Los pasos seguidos en el E. D. A. son básicamente dos: * Medición y descripción de los datos tecnológicos —tipológicos— y dimensiones, por medio de la Estadística descriptiva. Aquí tenemos, por un lado, las medidas de tendencia central (promedios que, en una sola cifra, resumen todos los valores de una muestra: media, mediana y moda son las más habituales) y, por otro, las medidas de dispersión (que calculan hasta qué punto la muestra se agrupa o no en torno a esos promedios). Dentro de este apartado, se ha de procurar, además, calibrar la confianza de las muestras a través de tres estadímetros básicos: la desviación estándar de la muestra, la curtosis y la asimetría.La siguiente es una tabla de ejemplo: * Comparación de los caracteres de una muestra, o de varias muestras diferentes por medio de la Estadística inferencial. Las pruebas más frecuentemente utilizadas comienzan por las más sencillas comparaciones visuales —a través de gráficas como la campana de Gauss, nubes de dispersión o diagramas de caja y arbotantes—, pasando por las socorridas tablas de contingencia (incluido la prueba del χ2), y por los típicos Análisis de Varianza (que no es más que una confrontación muy precisa de los promedios de varias muestras), hasta llegar a los más complejos análisis multivariantes de conglomerados.Yacimiento 1⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎫Yacimiento 2⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎫⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎫ ⎬⎯⎯⎯⎯⎯⎯⎯Yacimiento 3⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎭ ⎬⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎭Yacimiento 4⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎭ Resultados del análisis de mulivariante de conglomerados por el método de Ward efectuado en los ciertos tipos líticos, computando variables tecnológicas. Es un ejemplo real, en él se permite observar la similitud o disparidad de los yacimientos seleccionados en virtud de una serie de parámetros seleccionados por el investigador. Los cálculos estadísticos orientan sobre la fiabilidad de las muestras usadas, aunque no son infalibles, e indican si los resultados obtenidos al calcular las pruebas inferenciales son aceptables, es lo que llamamos nivel de confianza (se debe procurar que éste nunca sea inferior al 95% = 0,95). (es)
  • El análisis exploratorio de datos es una forma de analizar datos definido por John W. Tukey (E.D.A.: Exploratory data analysis) es el tratamiento estadístico al que se someten las muestras recogidas durante un proceso de investigación en cualquier campo científico. Para mayor rapidez y precisión, todo el proceso suele realizarse por medios informáticos, con aplicaciones específicas para el tratamiento estadístico. Los E.D.A., no necesariamente, se llevan a cabo con una base de datos al uso, ni con una hoja de cálculo convencional; no obstante el programa SPSS y R (lenguaje de programación) son las aplicaciones más utilizadas, aunque no las únicas. Por ejemplo, en el campo de la Arqueología el análisis técnico de una pieza puede ser simultáneo a la introducción de los datos, bien porque las fichas estén directamente informatizadas o, bien, porque se usen formularios en papel cuyos datos sean fáciles de introducir en el ordenador o computadora. Es posible, incluso, usar en la propia excavación, una serie de PDAs conectados en red inalámbrica instalada en el yacimiento arqueológico, que envíen numerosos datos de campo a una base de datos central que luego se usarán con fines diversos, entre ellos éste. Los pasos seguidos en el E. D. A. son básicamente dos: * Medición y descripción de los datos tecnológicos —tipológicos— y dimensiones, por medio de la Estadística descriptiva. Aquí tenemos, por un lado, las medidas de tendencia central (promedios que, en una sola cifra, resumen todos los valores de una muestra: media, mediana y moda son las más habituales) y, por otro, las medidas de dispersión (que calculan hasta qué punto la muestra se agrupa o no en torno a esos promedios). Dentro de este apartado, se ha de procurar, además, calibrar la confianza de las muestras a través de tres estadímetros básicos: la desviación estándar de la muestra, la curtosis y la asimetría.La siguiente es una tabla de ejemplo: * Comparación de los caracteres de una muestra, o de varias muestras diferentes por medio de la Estadística inferencial. Las pruebas más frecuentemente utilizadas comienzan por las más sencillas comparaciones visuales —a través de gráficas como la campana de Gauss, nubes de dispersión o diagramas de caja y arbotantes—, pasando por las socorridas tablas de contingencia (incluido la prueba del χ2), y por los típicos Análisis de Varianza (que no es más que una confrontación muy precisa de los promedios de varias muestras), hasta llegar a los más complejos análisis multivariantes de conglomerados.Yacimiento 1⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎫Yacimiento 2⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎫⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎫ ⎬⎯⎯⎯⎯⎯⎯⎯Yacimiento 3⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎭ ⎬⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎭Yacimiento 4⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎭ Resultados del análisis de mulivariante de conglomerados por el método de Ward efectuado en los ciertos tipos líticos, computando variables tecnológicas. Es un ejemplo real, en él se permite observar la similitud o disparidad de los yacimientos seleccionados en virtud de una serie de parámetros seleccionados por el investigador. Los cálculos estadísticos orientan sobre la fiabilidad de las muestras usadas, aunque no son infalibles, e indican si los resultados obtenidos al calcular las pruebas inferenciales son aceptables, es lo que llamamos nivel de confianza (se debe procurar que éste nunca sea inferior al 95% = 0,95). (es)
dbo:wikiPageID
  • 753301 (xsd:integer)
dbo:wikiPageLength
  • 7753 (xsd:integer)
dbo:wikiPageRevisionID
  • 117373471 (xsd:integer)
prop-es:autor
  • García Barbancho, Alfonso (es)
  • García Pérez, Alfonso (es)
  • Shennan, Stephen (es)
  • Siegel, Sidney (es)
  • Martín Tabernero, Francisca y Delgado Álvarez, María del Carmen (es)
  • García Barbancho, Alfonso (es)
  • García Pérez, Alfonso (es)
  • Shennan, Stephen (es)
  • Siegel, Sidney (es)
  • Martín Tabernero, Francisca y Delgado Álvarez, María del Carmen (es)
prop-es:año
  • 1973 (xsd:integer)
  • 1985 (xsd:integer)
  • 1992 (xsd:integer)
  • 1993 (xsd:integer)
prop-es:editorial
  • Editorial Ariel SA, Málaga (es)
  • Editorial Crítica, Barcelona (es)
  • Editorial Trillas, México DF (es)
  • Universidad Nacional de Educación a Distancia, Madrid (es)
  • Publicaciones de la Universidad Pontificia, Salamanca (es)
  • Editorial Ariel SA, Málaga (es)
  • Editorial Crítica, Barcelona (es)
  • Editorial Trillas, México DF (es)
  • Universidad Nacional de Educación a Distancia, Madrid (es)
  • Publicaciones de la Universidad Pontificia, Salamanca (es)
prop-es:id
  • ISBN 84-334-0121-5 (es)
  • ISBN 84-362-2811-1 (es)
  • ISBN 84-7299-308-6 (es)
  • ISBN 84-7423-529-4 (es)
  • ISBN 968-24-0146-1 (es)
  • ISBN 84-334-0121-5 (es)
  • ISBN 84-362-2811-1 (es)
  • ISBN 84-7299-308-6 (es)
  • ISBN 84-7423-529-4 (es)
  • ISBN 968-24-0146-1 (es)
prop-es:título
  • Arqueología cuantitativa (es)
  • Estadística aplicada: Conceptos básicos (es)
  • Estadística elemental moderna (es)
  • Estadística no Paramétrica aplicada a las ciencias de la conducta (es)
  • Estadística aplicada. Tratamiento informático con Stat View 512+ (es)
  • Arqueología cuantitativa (es)
  • Estadística aplicada: Conceptos básicos (es)
  • Estadística elemental moderna (es)
  • Estadística no Paramétrica aplicada a las ciencias de la conducta (es)
  • Estadística aplicada. Tratamiento informático con Stat View 512+ (es)
dct:subject
rdfs:comment
  • El análisis exploratorio de datos es una forma de analizar datos definido por John W. Tukey (E.D.A.: Exploratory data analysis) es el tratamiento estadístico al que se someten las muestras recogidas durante un proceso de investigación en cualquier campo científico. Para mayor rapidez y precisión, todo el proceso suele realizarse por medios informáticos, con aplicaciones específicas para el tratamiento estadístico. Los E.D.A., no necesariamente, se llevan a cabo con una base de datos al uso, ni con una hoja de cálculo convencional; no obstante el programa SPSS y R (lenguaje de programación) son las aplicaciones más utilizadas, aunque no las únicas. (es)
  • El análisis exploratorio de datos es una forma de analizar datos definido por John W. Tukey (E.D.A.: Exploratory data analysis) es el tratamiento estadístico al que se someten las muestras recogidas durante un proceso de investigación en cualquier campo científico. Para mayor rapidez y precisión, todo el proceso suele realizarse por medios informáticos, con aplicaciones específicas para el tratamiento estadístico. Los E.D.A., no necesariamente, se llevan a cabo con una base de datos al uso, ni con una hoja de cálculo convencional; no obstante el programa SPSS y R (lenguaje de programación) son las aplicaciones más utilizadas, aunque no las únicas. (es)
rdfs:label
  • Análisis exploratorio de datos (es)
  • Análisis exploratorio de datos (es)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:wikiPageRedirects of
is foaf:primaryTopic of