Q:
¿Cómo podría el concepto de equilibrio informar a los proyectos de aprendizaje automático?
UN:En general, un equilibrio informará el aprendizaje automático buscando estabilizar los entornos de aprendizaje automático y crear resultados con una combinación compatible de componentes deterministas y probabilísticos.
Los expertos describen un "equilibrio" como una situación en la que los actores racionales en un sistema de aprendizaje automático alcanzan un consenso sobre la acción estratégica; en particular, el equilibrio de Nash en la teoría de juegos involucra a dos o más de estos actores racionales que consolidan estrategias al reconocer que ningún jugador se beneficia cambiando una estrategia particular si los otros jugadores no cambian la suya.
Descarga gratuita: Aprendizaje automático y por qué es importante |
Una demostración particularmente popular y simple del equilibrio de Nash implica una matriz simple donde dos jugadores eligen cada uno un resultado binario.
Lo anterior es una forma bastante técnica de describir el equilibrio y cómo funciona. Una manera mucho más informal de ilustrar el concepto de equilibrio, particularmente el ejemplo anterior de dos actores racionales que tienen cada uno una opción binaria, es pensar en lo que podríamos llamar el escenario "caminar uno hacia el otro en el pasillo de la escuela secundaria".
Supongamos que dos personas caminan en diferentes direcciones por un pasillo de la escuela secundaria (o cualquier otro tipo de área), que solo tiene espacio para dos personas a lo ancho. Los dos caminos abiertos son los resultados binarios. Si los dos actores racionales eligen diferentes resultados binarios que no entran en conflicto entre ellos, se pasarán el uno al otro y se saludarán. Si eligen dos resultados binarios en conflicto, están caminando en el mismo espacio y uno de ellos tendrá que ceder el paso.
En el ejemplo anterior, si los dos actores racionales eligen los dos resultados compatibles y no conflictivos, el consenso general es que ninguno de los dos gana cambiando su estrategia, en este caso sus direcciones para caminar, si la otra persona no cambia las suyas.
Lo anterior constituye un equilibrio que puede modelarse en cualquier construcción de aprendizaje automático. Dado este sencillo ejemplo, el resultado siempre serán los dos actores racionales que cooperan, o en otras palabras, dos personas que se cruzan.
Lo contrario podría llamarse un "desequilibrio": si los dos actores racionales eligen resultados contradictorios, como se mencionó, uno de ellos tendrá que ceder. Sin embargo, el programa de ML que modela esto podría arrojarse a un ciclo infinito si ambos deciden ceder, al igual que dos personas que se mueven para tratar de acomodarse mutuamente y aún así seguir caminando hacia la colisión.
Los equilibrios como el anterior generalmente se utilizarán en el aprendizaje automático para crear consenso y estabilizar modelos. Los ingenieros y desarrolladores buscarán esos escenarios y situaciones que se benefician de los equilibrios, y trabajarán para cambiar o manejar aquellos que no. Al observar ejemplos del mundo real que corresponden a los equilibrios de ML, es fácil ver cómo este tipo de análisis en el sistema de aprendizaje automático es particularmente instructivo para descubrir cómo modelar el comportamiento humano mediante la creación de actores y agentes racionales. Ese es solo un excelente ejemplo de cómo se puede utilizar un equilibrio para avanzar en la aplicación de sistemas de aprendizaje automático.