Q:
¿Cómo plantea el robot "Sophia" de Arabia Saudita nuevas y alarmantes preguntas sobre ciberseguridad?
UN:Una de las nuevas tecnologías de inteligencia artificial más novedosas es un robot de tamaño natural hecho para verse y actuar como una mujer.
Se llama Sophia y está producida por Hanson Robotics, una empresa con sede en Hong Kong. ¿Por qué es el robot de Arabia Saudita? Porque este estado del Golfo le ha dado a Sophia un derecho humano clave: el derecho de ciudadanía.
Esto está haciendo muchos titulares y desencadenando todo tipo de debates sobre la velocidad de la inteligencia artificial y por qué debería importarnos. Uno de los grandes problemas es la ciberseguridad: ¿cómo se adaptará el campo de la ciberseguridad a este tipo de nuevas tecnologías?
Sophia y tecnologías similares plantean problemas clave de ciberseguridad que no hemos abordado anteriormente. Estas son algunas de las cosas en las que los profesionales y expertos deben pensar al introducir robots que se ven, hablan y actúan como nosotros.
En general, la nueva interfaz robótica realista es más sofisticada de lo que estábamos acostumbrados en el pasado, y eso significa una serie de nuevos problemas de ciberseguridad. En el mundo de la tecnología, la gente habla de tener una "superficie de ataque delgada", por ejemplo, en una configuración de hipervisor o integrada en la seguridad del lado del servidor. Un robot que habla y camina, por otro lado, es una superficie de ataque muy gruesa, ya que las interfaces son sofisticadas, hay muchas formas para que los hackers y los malos actores exploten las vulnerabilidades.
Un tipo muy específico de problema de ciberseguridad está mezclado con una variedad de problemas sociales: podría llamarse el "síndrome del impostor", aunque ese término se ha usado popularmente para describir el funcionamiento dudoso de los científicos de datos ilegítimos.
Como sea que lo llames, el problema es que a medida que la inteligencia artificial imita a humanos particulares con mayores grados de éxito, será más difícil asegurarse de que no seamos sometidos a engaños extremadamente elaborados que nos hacen cuestionar la verdad. Ya puede ver ejemplos de personas que utilizan tecnologías nuevas para imitar a políticos famosos como en este video de Barack Obama con el comediante Jordan Peele. El problema del impostor solo crecerá y se expandirá a medida que la inteligencia artificial nos brinde nuevas ventanas a los pensamientos y comportamientos humanos de ingeniería inversa.
Además, en general, estas nuevas interfaces y capacidades van a intensificar la carrera armamentista ya existente entre profesionales de seguridad y piratas informáticos. James Maude escribe sobre esto en un artículo sobre Xconomy, llamando a AI una "espada de doble filo" para cybersec y señalando que, en general, atacar es menos costoso que defender y señala las preocupaciones sobre la privacidad y la seguridad. Extrapola algunos de estos argumentos al robot AI, y puedes ver cómo con la fuerza y la capacidad viene el peligro y la necesidad de disciplina.
Otro gran problema nuevo con Sophia y los robots móviles es que están en movimiento.
Nos hemos acostumbrado a tecnologías como Watson de IBM que realizan un trabajo cognitivo de nivel extremadamente alto mientras permanecen sentados en un centro de datos o en alguna estructura de hardware estacionaria. A eso estamos acostumbrados: desde los primeros mainframes hasta las computadoras portátiles de hoy, todos hemos estado usando hardware estacionario. Tenemos teléfonos móviles ahora, pero en realidad son esencialmente computadoras de bolsillo. Las computadoras robóticas inteligentes son asombrosamente diferentes. Son piezas móviles autónomas que pueden ser armadas por partes maliciosas. Un artículo de Reuters que analiza la velocidad de abordar los problemas de ciberseguridad de los robots muestra cómo, por ejemplo, se podría hacer que los robots se "tambaleen" o se muevan de manera rápida e inapropiada para causar daños.
Al final, Sophia y los robots como ella plantean una serie de problemas de ciberseguridad y otras preocupaciones. ¿Cómo distinguiremos la actividad legítima de la actividad engañosa e ilegítima cuando la interfaz no es una red conectada digitalmente, sino una pieza móvil de hardware que puede engañarnos para que pensemos que está actuando de manera humana? Cruzar este puente requerirá enormes cantidades de trabajo tecnológico y ético para asegurar que los humanos mantengan las riendas y que usemos estas tecnologías muy poderosas para el bien cívico.