This HTML5 document contains 14 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

PrefixNamespace IRI
n7http://es.wikipedia.org/wiki/Gradient_boosting?oldid=122235969&ns=
category-eshttp://es.dbpedia.org/resource/Categoría:
dcthttp://purl.org/dc/terms/
wikipedia-eshttp://es.wikipedia.org/wiki/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
dbpedia-eshttp://es.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
dbrhttp://dbpedia.org/resource/
Subject Item
wikipedia-es:Gradient_boosting
foaf:primaryTopic
dbpedia-es:Gradient_boosting
Subject Item
dbpedia-es:Gradient_boosting
rdfs:label
Gradient boosting
rdfs:comment
Gradient boosting o Potenciación del gradiente, es una técnica de aprendizaje automático utilizado para el análisis de la regresión y para problemas de clasificación estadística, el cual produce un modelo predictivo en forma de un conjunto de modelos de predicción débiles, típicamente árboles de decisión. Construye el modelo de forma escalonada como lo hacen otros métodos de boosting, y los generaliza permitiendo la optimización arbitraria de una función de pérdida diferenciable.
dct:subject
category-es:Aprendizaje_automático category-es:Análisis_de_la_regresión category-es:Algoritmos_de_clasificación
foaf:isPrimaryTopicOf
wikipedia-es:Gradient_boosting
dbo:wikiPageID
8111362
dbo:wikiPageRevisionID
122235969
dbo:wikiPageLength
4101
prov:wasDerivedFrom
n7:0
dbo:abstract
Gradient boosting o Potenciación del gradiente, es una técnica de aprendizaje automático utilizado para el análisis de la regresión y para problemas de clasificación estadística, el cual produce un modelo predictivo en forma de un conjunto de modelos de predicción débiles, típicamente árboles de decisión. Construye el modelo de forma escalonada como lo hacen otros métodos de boosting, y los generaliza permitiendo la optimización arbitraria de una función de pérdida diferenciable. La idea de la potenciación del gradiente fue originada en la observación realizada por Leo Breiman​ en donde el Boosting puede ser interpretado como un algoritmo de optimización en una función de coste adecuada. Posteriormente Jerome H. Friedman​​ desarrolló algoritmos de aumento de gradiente de regresión explícita, simultáneamente con la perspectiva más general de potenciación del gradiente funcional de Llew Mason, Jonathan Baxter, Peter Bartlett y Marcus Frean.​​ En sus últimos dos trabajos presentaron la visión abstracta de los algoritmos de potenciación como algoritmos iterativos de descenso de gradientes funcionales. Es decir, algoritmos que optimizan una función de coste sobre el espacio de función mediante la elección iterativa de una función (hipótesis débil) que apunta en la dirección del gradiente negativo. Esta visión de gradiente funcional de potenciación ha llevado al desarrollo de algoritmos de potenciación en muchas áreas del aprendizaje automático y estadísticas más allá de la regresión y la clasificación.
Subject Item
dbpedia-es:Potenciación_del_gradiente
dbo:wikiPageRedirects
dbpedia-es:Gradient_boosting
Subject Item
dbr:Gradient_boosting
owl:sameAs
dbpedia-es:Gradient_boosting