La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente,​ operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. El paralelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia.​​Como el consumo de energía —y por consiguiente la generación de calor— de las computadoras constituye una preocupación en los últimos años,​​ l

Property Value
dbo:abstract
  • La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente,​ operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. El paralelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia.​​Como el consumo de energía —y por consiguiente la generación de calor— de las computadoras constituye una preocupación en los últimos años,​​ la computación en paralelo se ha convertido en el paradigma dominante en la arquitectura de computadores, principalmente en forma de procesadores multinúcleo.​​ Las computadoras paralelas pueden clasificarse según el nivel de paralelismo que admite su hardware: equipos con procesadores multinúcleo y multi-procesador que tienen múltiples elementos de procesamiento dentro de una sola máquina y los clústeres, y grids que utilizan varios equipos para trabajar en la misma tarea. Muchas veces, para acelerar tareas específicas, se utilizan arquitecturas especializadas de computación en paralelo junto a procesadores tradicionales. Los programas informáticos paralelos son más difíciles de escribir que los secuenciales,​ porque la concurrencia introduce nuevos tipos de errores de software, siendo las condiciones de carrera los más comunes. La comunicación y sincronización entre diferentes subtareas son algunos de los mayores obstáculos para obtener un buen rendimiento del programa paralelo. La máxima aceleración posible de un programa como resultado de la paralelización se conoce como la ley de Amdahl. (es)
  • La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente,​ operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. El paralelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia.​​Como el consumo de energía —y por consiguiente la generación de calor— de las computadoras constituye una preocupación en los últimos años,​​ la computación en paralelo se ha convertido en el paradigma dominante en la arquitectura de computadores, principalmente en forma de procesadores multinúcleo.​​ Las computadoras paralelas pueden clasificarse según el nivel de paralelismo que admite su hardware: equipos con procesadores multinúcleo y multi-procesador que tienen múltiples elementos de procesamiento dentro de una sola máquina y los clústeres, y grids que utilizan varios equipos para trabajar en la misma tarea. Muchas veces, para acelerar tareas específicas, se utilizan arquitecturas especializadas de computación en paralelo junto a procesadores tradicionales. Los programas informáticos paralelos son más difíciles de escribir que los secuenciales,​ porque la concurrencia introduce nuevos tipos de errores de software, siendo las condiciones de carrera los más comunes. La comunicación y sincronización entre diferentes subtareas son algunos de los mayores obstáculos para obtener un buen rendimiento del programa paralelo. La máxima aceleración posible de un programa como resultado de la paralelización se conoce como la ley de Amdahl. (es)
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 28198 (xsd:integer)
dbo:wikiPageLength
  • 69239 (xsd:integer)
dbo:wikiPageRevisionID
  • 130008189 (xsd:integer)
prop-es:apellido
  • Hennessy (es)
  • Rodriguez (es)
  • Patterson (es)
  • Baran (es)
  • Singh (es)
  • Villagra (es)
  • Hennessy (es)
  • Rodriguez (es)
  • Patterson (es)
  • Baran (es)
  • Singh (es)
  • Villagra (es)
prop-es:doi
  • 101109 (xsd:integer)
prop-es:edición
  • 4 (xsd:integer)
  • Nachdr. (es)
prop-es:editorial
  • Morgan Kaufmann (es)
  • Morgan Kaufmann (es)
prop-es:fecha
  • 9 (xsd:integer)
  • 27 (xsd:integer)
  • 29 (xsd:integer)
prop-es:idioma
  • inglés (es)
  • inglés (es)
prop-es:isbn
  • 1 (xsd:integer)
  • 123704901 (xsd:integer)
  • 123747503 (xsd:integer)
prop-es:nombre
  • M. (es)
  • B. (es)
  • C. (es)
  • John L. (es)
  • David A. (es)
  • David Culler; J.P. (es)
  • M. (es)
  • B. (es)
  • C. (es)
  • John L. (es)
  • David A. (es)
  • David Culler; J.P. (es)
prop-es:publicación
  • Bio-Inspired Models of Network, Information and Computing Systems, 2007. Bionetics 2007. 2nd (es)
  • Bio-Inspired Models of Network, Information and Computing Systems, 2007. Bionetics 2007. 2nd (es)
prop-es:página
  • 15 (xsd:integer)
prop-es:páginas
  • 66 (xsd:integer)
prop-es:título
  • Computer Architecture: A Quantitative Approach (es)
  • Parallel computer architecture (es)
  • Asynchronous team algorithms for Boolean Satisfiability (es)
  • Computer Organization and Design, Fourth Edition: The Hardware/Software Interface (es)
  • Computer Architecture: A Quantitative Approach (es)
  • Parallel computer architecture (es)
  • Asynchronous team algorithms for Boolean Satisfiability (es)
  • Computer Organization and Design, Fourth Edition: The Hardware/Software Interface (es)
prop-es:títuloTrad
  • Organización y diseño de computadoras, 4ta edición: La interfaz hardware/software (es)
  • Arquitectura de computadoras: un enfoque cuantitativo (es)
  • Organización y diseño de computadoras, 4ta edición: La interfaz hardware/software (es)
  • Arquitectura de computadoras: un enfoque cuantitativo (es)
prop-es:ubicación
  • San Francisco (es)
  • San Francisco (es)
prop-es:url
dct:subject
rdfs:comment
  • La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente,​ operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. El paralelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia.​​Como el consumo de energía —y por consiguiente la generación de calor— de las computadoras constituye una preocupación en los últimos años,​​ l (es)
  • La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente,​ operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas. El paralelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia.​​Como el consumo de energía —y por consiguiente la generación de calor— de las computadoras constituye una preocupación en los últimos años,​​ l (es)
rdfs:label
  • Computación paralela (es)
  • Computación paralela (es)
owl:sameAs
prov:wasDerivedFrom
foaf:homepage
foaf:isPrimaryTopicOf
is dbo:genre of
is dbo:wikiPageRedirects of
is prop-es:género of
is prop-es:paradigma of
is owl:sameAs of
is foaf:primaryTopic of