Q:
¿Cómo contribuyó la ley de Moore a la revolución actual de la IA?
UN:Es tentador pensar que el progreso actual en inteligencia artificial se relaciona principalmente con la resolución de problemas lógicos y orientados a datos, pero para las empresas que intentan innovar y seguir avanzando, puede ser útil volver atrás y pensar en cómo un hardware cada vez más poderoso también contribuido a la funcionalidad actual de aprendizaje automático e inteligencia artificial.
Algunas de las formas más obvias en que la ley de Moore ha beneficiado el avance de la inteligencia artificial son evidentes para cualquiera que haya estado mirando TI durante los últimos 30 años. El primero es que las estaciones de trabajo de computadoras centralizadas y los centros de datos que trabajan en conjuntos de datos de inteligencia artificial son más pequeños de lo que hubieran sido en los primeros días de la informática, y eso hace la diferencia. Si los mainframes simples todavía ocuparan el espacio de un conjunto de lavadora / secadora, eso tendría un efecto amortiguador en el desarrollo ágil de todo tipo de nuevas tecnologías.
Sin embargo, mucho más importante, los logros de eficiencia de las compañías basadas en la ley de Moore han permitido la prevalencia de dispositivos de recolección de datos móviles extremadamente pequeños. Los teléfonos inteligentes son el mejor ejemplo, pero la ley de Moore también nos proporcionó cámaras digitales, reproductores de MP3 y muchas otras piezas pequeñas de hardware que recopilan sus propios datos a un ritmo asombroso. Ahora, Internet de las cosas está sobrealimentando ese proceso con electrodomésticos de cocina inteligentes y todo tipo de otro hardware muy moderno que se basa en la idea de que los dispositivos con chip son lo suficientemente pequeños como para colocarlos en casi cualquier cosa.
Sin embargo, estas no son las únicas formas en que la ley de Moore ha beneficiado el desarrollo del nuevo aprendizaje automático y el progreso de la inteligencia artificial. En el MIT Technology Review, el escritor Tom Simonite afirma que la ley de Moore también ha sido útil como una especie de "dispositivo de coordinación" que ha servido para proyectar lo que saldrá al mercado en los próximos años, para darles a los desarrolladores y a otros una apariencia de camino. mapa e indicadores hacia la innovación futura.
Otra perspectiva interesante proviene de Niel Viljoen, quien habla sobre cómo la ley de Moore aún puede ser crítica para los nuevos sistemas basados en la nube y el surgimiento de una nueva tecnología de inteligencia artificial.
El argumento de Viljoen parece ser que agregar núcleos de propósito general a los sistemas de escalado no es suficiente para conectar realmente el hardware a una red de una manera integral, lo que conduce a cuellos de botella. Una idea correspondiente es que los modelos de convergencia acelerarán todo tipo de funciones de los sistemas intensivos en datos. En otras palabras, dado que los sistemas informáticos seguían ampliando su uso de datos de acuerdo con lo que podían caber en una pieza de hardware, los constructores nunca lograron incluir algunas de las funciones corolarias del desarrollo, como el procesamiento de imágenes, el cifrado, la representación de video, etc.
Como resultado, los centros de datos modernos se volvieron muy poderosos, pero aún dependientes de elementos externos para realizar el procesamiento requerido: Viljoen plantea la aparición futura de "sistemas en un chip" donde el hardware hiperconvergente tiene todo lo que necesita para hacer todas las funciones de red, para optimizar los flujos de datos y hacer que los sistemas sean ágiles y potentes.
En general, la ley de Moore ha ayudado en el avance de TI, y continúa ayudando, de manera fundamental. Es parte del modelo de “ciencia ficción es el presente” que muestra cuán lejos ha llegado la humanidad en la construcción de sistemas de datos en el transcurso de uno o dos siglos.