Hogar Audio ¿Cómo intentan las empresas agregar un velocímetro al trabajo de inteligencia artificial?

¿Cómo intentan las empresas agregar un velocímetro al trabajo de inteligencia artificial?

Anonim

Q:

¿Cómo intentan las empresas agregar un "velocímetro" al trabajo de inteligencia artificial?

UN:

Algunas de las empresas que trabajan en los avances más recientes en inteligencia artificial se están centrando en cuantificar el progreso que han logrado y comparar algunos aspectos de cómo la inteligencia artificial ha evolucionado con el tiempo. Existen numerosas razones por las cuales las empresas están buscando este tipo de análisis. En general, están tratando de averiguar qué tan lejos ha llegado la inteligencia artificial, cómo se aplica a nuestras vidas y cómo afectará a los mercados.

Algunas compañías están haciendo una lluvia de ideas y monitoreando el progreso de su inteligencia artificial para descubrir cómo las nuevas tecnologías pueden afectar las libertades civiles, o cómo podrían crear nuevas realidades económicas. Dependiendo del enfoque de la compañía, estos tipos de análisis pueden tomar la forma de tratar de descubrir cómo pueden fluir los datos del usuario a través de los sistemas, entender cómo funcionarán las interfaces o averiguar qué capacidades tienen las entidades de inteligencia artificial y cómo pueden usar esas capacidades.

Cuando se trata de métodos, las empresas que están tratando de comparar la inteligencia artificial pueden centrarse en desglosar información abstracta; por ejemplo, un artículo de Wired cita el proyecto AI Index, donde investigadores como Ray Perrault, que trabaja en el laboratorio sin fines de lucro SRI International, están trabajando en una instantánea detallada de lo que está sucediendo en el campo de la inteligencia artificial.

"Esto es algo que hay que hacer, en parte porque hay tanta locura por dónde va la IA", dice Perrault en el artículo, comentando la motivación para asumir este tipo de proyecto.

Al explicar cómo funciona la evaluación comparativa de la inteligencia artificial, algunos expertos explican que los ingenieros u otras partes pueden estar tratando de realizar "pruebas duras" para proyectos de inteligencia artificial, por ejemplo, tratando de "engañar" o "derrotar" a los sistemas de inteligencia artificial. Este tipo de descripción realmente va al corazón de cómo las empresas realmente pueden monitorear y evaluar la inteligencia artificial. Una forma de pensar en esto es aplicar el mismo tipo de ideas que los programadores usaron en el pasado para depurar sistemas de código lineal.

La depuración de los sistemas de código lineal consistía en encontrar los lugares donde el sistema funcionaría bien: dónde se bloqueaba un programa, dónde se congelaba, dónde se ejecutaba lentamente, etc. Se trataba de encontrar dónde los errores lógicos detendrían o confundirían un proyecto, donde una función no funcionaría correctamente, o donde podría haber algún evento de usuario no deseado.

Cuando lo piensas, las pruebas modernas de inteligencia artificial pueden ser un esfuerzo similar en un plano muy diferente, porque las tecnologías de inteligencia artificial son más cognitivas que lineales, las pruebas toman una forma muy diferente, pero los humanos todavía están buscando "los errores "- formas en que estos programas pueden tener consecuencias no deseadas, formas en que podrían actuar y dañar las instituciones humanas, etc. Teniendo esto en cuenta, aunque existen muchos métodos divergentes diferentes para crear un velocímetro o punto de referencia para el progreso de la inteligencia artificial, los tipos de Las pruebas exhaustivas descritas anteriormente generalmente le darán a los humanos una visión única de cuán lejos ha llegado la inteligencia artificial y qué se debe hacer para mantenerla entregando más positivos sin desarrollar más negativos.

¿Cómo intentan las empresas agregar un velocímetro al trabajo de inteligencia artificial?