Tabla de contenido:
- Definición - ¿Qué significa Inteligencia Artificial Explicable (XAI)?
- Techopedia explica la Inteligencia Artificial Explicable (XAI)
Definición - ¿Qué significa Inteligencia Artificial Explicable (XAI)?
La inteligencia artificial explicable (XAI) es un término clave en el diseño de IA y en la comunidad tecnológica en general. Se refiere a los esfuerzos para garantizar que los programas de inteligencia artificial sean transparentes en sus propósitos y en cómo funcionan. La IA explicable es una meta y un objetivo común para los ingenieros y otras personas que intentan avanzar con el progreso de la inteligencia artificial.
La inteligencia artificial explicable también se conoce como inteligencia artificial transparente.
Techopedia explica la Inteligencia Artificial Explicable (XAI)
La idea detrás de la IA explicable es que los programas y tecnologías de IA no deberían ser "modelos de caja negra" que la gente no puede entender. Con demasiada frecuencia, dicen los expertos, los programas de inteligencia artificial sacrifican la transparencia y la explicabilidad para obtener resultados experimentales sofisticados. Los algoritmos potentes pueden producir resultados útiles sin mostrar realmente cómo llegaron a estos resultados.
La inteligencia artificial explicable también es una parte clave de la aplicación de la ética a la IA. Como lo han señalado líderes tecnológicos como Elon Musk, la inteligencia artificial puede terminar teniendo netos positivos o negativos, dependiendo de cómo la usen los humanos y cómo los humanos la construyan.
La IA explicable ayuda en la búsqueda de una IA ética, porque muestra cómo las máquinas están realizando un trabajo computacional y dónde puede haber problemas.
