This HTML5 document contains 93 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

PrefixNamespace IRI
n17https://devblogs.nvidia.com/parallelforall/deep-learning-self-driving-cars/
category-eshttp://es.dbpedia.org/resource/Categoría:
dcthttp://purl.org/dc/terms/
wikipedia-eshttp://es.wikipedia.org/wiki/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
n9http://simmachines.com/similarity-cracks-code-explainable-ai/
n12https://explainableai.com/
dbpedia-eshttp://es.dbpedia.org/resource/
n13https://www.fatml.org/
prop-eshttp://es.dbpedia.org/property/
n11https://fatconference.org/
rdfshttp://www.w3.org/2000/01/rdf-schema#
n7https://www.researchgate.net/publication/
n18https://www.computerworld.com.au/article/617359/explainable-artificial-intelligence-cracking-open-black-box-ai/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n10https://www.technologyreview.com/s/603795/the-us-military-wants-its-autonomous-machines-to-explain-themselves/
provhttp://www.w3.org/ns/prov#
n20http://es.wikipedia.org/wiki/Inteligencia_artificial_explicable?oldid=130175377&ns=
xsdhhttp://www.w3.org/2001/XMLSchema#
n16https://devblogs.nvidia.com/parallelforall/explaining-deep-learning-self-driving-car/
Subject Item
wikipedia-es:Inteligencia_artificial_explicable
foaf:primaryTopic
dbpedia-es:Inteligencia_artificial_explicable
Subject Item
dbpedia-es:Inteligencia_artificial_explicable
rdfs:label
Inteligencia artificial explicable
rdfs:comment
La Inteligencia artificial explicable (XAI) refiere a métodos y técnicas en la aplicación de tecnología de inteligencia artificial (AI) tal que los resultados de la solución pueden ser entendidos por humanos expertos. Contrasta con el concepto de la "caja negra" en aprendizaje automático (del ingles, machine learning) donde incluso sus diseñadores no pueden explicar por qué el IA llegados en una decisión concreta.​ XAI es una implementación del social .​
dct:subject
category-es:Inteligencia_artificial category-es:Responsabilidad category-es:Vehículos_autónomos
foaf:isPrimaryTopicOf
wikipedia-es:Inteligencia_artificial_explicable
prop-es:accessDate
2
prop-es:class
cs.LG cs.CV
prop-es:date
6 2 12 14 23 17 25
prop-es:eprint
170407911 161204757 170701943
prop-es:first
David Mariusz Anna Urs Zeynep Will Lisa Anne Trevor Tommi S. Dong Huk Bernt Marcus Philip Krzysztof Lawrence Bernhard
prop-es:last
Yeres Firner Choromanski Muller Schiele Park Alvarez-Melis Jaakkola Choromanska Akata Darrell Rohrbach Knight Hendricks Bojarski Jackel
prop-es:ref
harv
prop-es:title
A causal framework for explaining the predictions of black-box sequence-to-sequence models What is the Explainable-Ai and why is important Explainable AI: Making machines understandable for humans Attentive Explanations: Justifying Decisions and Pointing to the Evidence DARPA is funding projects that will try to open up AI's black boxes Similarity Cracks the Code Of Explainable AI Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car End-to-End Deep Learning for Self-Driving Cars 'Explainable Artificial Intelligence': Cracking open the black box of AI FAT* Conference on Fairness, Accountability, and Transparency Explaining How End-to-End Deep Learning Steers a Self-Driving Car FATML Workshop on Fairness, Accountability, and Transparency in Machine Learning
prop-es:url
n7:332858862 n11: n10: n12: n13: n9: n17: n16: n18:
prop-es:website
simMachines Explainable AI: Making machines understandable for humans Computerworld Parallel Forall MIT Technology Review
dbo:wikiPageID
9430476
dbo:wikiPageRevisionID
130175377
dbo:wikiPageExternalLink
n9: n10: n16: n7:332858862 n11: n12: n17: n18: n13:
dbo:wikiPageLength
30298
prov:wasDerivedFrom
n20:0
dbo:abstract
La Inteligencia artificial explicable (XAI) refiere a métodos y técnicas en la aplicación de tecnología de inteligencia artificial (AI) tal que los resultados de la solución pueden ser entendidos por humanos expertos. Contrasta con el concepto de la "caja negra" en aprendizaje automático (del ingles, machine learning) donde incluso sus diseñadores no pueden explicar por qué el IA llegados en una decisión concreta.​ XAI es una implementación del social .​ El reto técnico de explicar las decisiones de IA es a veces sabidas como el problema de interpretabilidad.​ Otra consideración es info-besity (sobrecarga de información), así, la transparencia total no puede ser siempre posible o incluso requerida. Aun así, la simplificación a costo de engañar usuarios para aumentar la confianza o esconder los atributos indeseables del sistema tendrían que ser evitados permitiendo un equilibrio entre la interpretabilidad y la integridad de una explicación .​ Los sistemas de IA optimizan el comportamiento para satisfacer un sistema de objetivos matemáticamente especificado elegido por los diseñadores del sistema, como el comando "maximizar la precisión de evaluar qué tan positivas son las críticas de películas en el conjunto de datos de prueba". La IA puede aprender reglas generales útiles del conjunto de pruebas, como "las revisiones que contienen la palabra 'horrible'" probablemente sean negativas ". Sin embargo, también puede aprender reglas inapropiadas, como "las revisiones que contienen 'Daniel Day-Lewis' suelen ser positivas"; tales reglas pueden ser indeseables si se considera que es probable que no se generalicen fuera del conjunto de pruebas, o si las personas consideran que la regla es "trampa" o "injusta".Un humano puede auditar las reglas en un XAI para tener una idea de la probabilidad de que el sistema se generalice a datos futuros del mundo real fuera del conjunto de pruebas.​