Hogar Audio ¿Por qué Darpa está investigando ai explicable?

¿Por qué Darpa está investigando ai explicable?

Anonim

Q:

¿Por qué DARPA está investigando la "IA explicable"?

UN:

En general, la inteligencia artificial explicable se está convirtiendo en una parte muy anunciada del trabajo de vanguardia en ciencias de la información. Está ayudando a guiar el control humano de un tipo de tecnología inherentemente volátil y dinámico: la IA explicable ayuda a responder muchas de nuestras preguntas colectivas sobre cómo funcionará la inteligencia artificial.

Para comprender la IA explicable, es útil comprender cómo se ve la "IA normal". Tradicionalmente, cuando la IA comienza a tomar forma, el proyecto típico consiste en una nueva y sofisticada capacidad de software, oculta en algoritmos y conjuntos de entrenamiento y código lineal, que es una especie de "caja de bloque" para los usuarios. Saben que funciona, simplemente no saben exactamente cómo.

Esto puede conducir a "problemas de confianza" en los que los usuarios pueden cuestionar la base sobre la cual una tecnología toma decisiones. Eso es lo que se supone que debe abordar la IA explicable: los proyectos de IA explicable vienen con infraestructura adicional para mostrar a los usuarios finales la intención y la estructura de la IA, por qué hace lo que hace.

En una época en la que los principales innovadores como Bill Gates y Elon Musk están expresando preocupación sobre cómo funcionará la inteligencia artificial, la IA explicable parece extremadamente atractiva. Los expertos sostienen que una buena IA explicable podría ayudar a los usuarios finales a comprender por qué las tecnologías hacen lo que hacen, aumentar la confianza y también aumentar la facilidad de uso y la utilización de estas tecnologías.

Sin embargo, DARPA explica por sí solo específicamente por qué está interesado en los nuevos proyectos. Una página en DARPA muestra que el Departamento de Defensa anticipa un "torrente" de aplicaciones de inteligencia artificial y cierta cantidad de caos en su desarrollo.

"Los avances continuos prometen producir sistemas autónomos que percibirán, aprenderán, decidirán y actuarán por sí mismos", escribe David Gunning. “Sin embargo, la eficacia de estos sistemas está limitada por la incapacidad actual de la máquina para explicar sus decisiones y acciones a los usuarios humanos. … La IA explicable, especialmente el aprendizaje automático explicable, será esencial para que los futuros guerreros comprendan, confíen adecuadamente y gestionen de manera efectiva una generación emergente de socios de máquinas artificialmente inteligentes ".

El ensayo en línea de Gunning sugiere que los sistemas de IA explicables ayudarán a "proporcionar las razones" para las tecnologías, mostrar sus fortalezas y debilidades, y hacer que los casos de uso sean más transparentes. Un gráfico en la página muestra cómo una línea directa de funcionalidad de inteligencia artificial a partir de los datos de entrenamiento se vería aumentada por algo llamado modelo explicable y una interfaz explicable que ayudará al usuario a responder preguntas. Gunning sugiere además que un programa de IA explicable tendrá dos áreas principales de enfoque: una sería examinar los datos multimedia para encontrar lo que es útil para los usuarios, y un segundo enfoque sería simular procesos de decisión para el soporte de decisiones.

DARPA espera proporcionar un "juego de herramientas" que pueda ayudar a desarrollar futuros sistemas de IA explicables.

¿Por qué Darpa está investigando ai explicable?