WOT

Monday, December 26, 2016

Pronósticos para 2017 de aprendizaje profundo

Nota: Este artículo es una traducción del original que aparece en el sitio de KDnuggets: Predictions for Deep learning in 2017

Muchas gracias por permitir su publicación en español.


Pronósticos para 2017 sobre aprendizaje profundo



 
 


Aparte de otras predicciones sobre aprendizaje profundo, aparecerá en el mercado la primera aplicación de usuario de gran éxito, una herramienta y la biblioteca de código abierto, que conquistará a la comunidad de desarrolladores.



Por James Kobielus, IBM. 

El aprendizaje profundo se perfila como la novedad puntera a medida que nos acercamos a 2017.
Con base en las redes neuronales multicapa, esta tecnología es el fundamento de la inteligencia artificial, la computación cognitiva y la analítica en tiempo real de muchas de las nuevas aplicaciones que han tenido un gran impacto.
Para los científicos de datos, el aprendizaje profundo experimentará en el futuro un enfoque profesional de nivel superior. A continuación expongo mis predicciones sobre las principales tendencias en aprendizaje profundo para el próximo año:

·         Aparecerá en el mercado la primera aplicación de gran éxito de aprendizaje profundo: Mi pronóstico es que la primera aplicación de aprendizaje profundo que el gran público acogerá de forma entusiasta se producirá en  2017, y se utilizará para procesar la ingente cantidad de fotos que la gente capta con sus teléfonos inteligentes y compartirlas en las redes sociales. En este sentido, las oportunidades más importantes sobre aprendizaje profundo se presentarán en aplicaciones que faciliten la búsqueda de imágenes, etiquetado automáticocorreción automáticaembellecimientorenderización fotorrealistamejora de la resolución transformación de estilo, y figuras imaginarias. En los casos en los que el procesamiento de audio es importante, el primer gran éxito del aprendizaje profundo en 2017 puede muy bien producirse en la composición musical, que se podrá experimentar como si la hubiera creado un músico. El aprendizaje profundo puede también entrar en nuestras vidas en el próximo año en forma de aplicaciones inteligentes que nos llevarán a una nueva generación de portátiles que ayuden a personas discapacitadas a ver, oir, y a percibir su entorno. La tecnología definitivamente encontrará su lugar en los juguetes, juegos y electrodomésticos de consumo en 2017, especialmente en los que incorporan cámaras integradas, micrófonos y dispositivos finales de la internet de las cosas. Hasta cierto punto, los consumidores también podrán experimentar las aplicaciones del aprendizaje profundo en 2017 en  vehículos autónomos, aunque estos productos tardarán varios años en utilizarse de forma masiva debido a que sus desarrolladores se tendran que enfrentar a dificultades de tipo tecnológico, reglamentario, legal, cultural y de otros tipos.


·         Una herramienta y la biblioteca, de aprendizaje profundo, conquistará a la comunidad de desarrolladores: A medida que 2016 llega a su fin, aumenta el número de proveedores de soluciones que facilitan en código abierto sus herramientas de aprendizaje profundo, sus librerías, y otros recursos de propiedad intelectual. El año pasado, Google liberó el código de  DeepMind y de TensorFlow, Apple publicó su deep-learning research, y el grupo sin fines de lucro OpenAI inició la creación de su deep-learning benchmarking technology. Los desarrolladores pueden elegir herramientas de código abierto para el desarrollo de aplicaciones de aprendizaje profundo en Spark, Scala, Python y Java, con soporte para otros idiomas.

Además de DeepMind y TensorFlow, se encuentran actualmente otrs herramientas de código abierto para aprendizaje profundo como DeepLearning4JKerasCaffeTheanoTorchOpenBLAS y Mxnett.

En 2017 seguirán proliferando las opciones de desarrollo de código abierto para desarrolladores de aprendizaje profundo. Sin embargo, estamos seguros de que al menos uno de ellos se convertirá en el estándar de facto dentro de un año. A finales de la década, ningún desarrollo de ciencia de datos estará completo si al menos una herramienta de código abierto de aprendizaje profundo perfectamente integrado con  SparkZeppelinRHadoop. En ese sentido, mi pronóstico es que  Apache Spark evolucionará en los próximos 12-24 meses para reforzar su apoyo nativo al aprendizaje profundo.


·         Llegará al mercado una nueva generación de chipsets comerciales de bajo coste de aprendizaje profundo: El aprendizaje profundo se basa en la aplicación de algoritmos de redes neuronales multinivel a objetos de datos de grandes dimensiones. Como tal, requiere una rápida ejecución en la manipulación  de matrices en arquitecturas altamente paralelas para identificar patrones complejos y poco definidos, como objetos, rostros, voces, amenazas, etc. Para que el aprendizaje profundo de alta dimensión se convierta en algo más práctico y omnipresente, es necesario que el hardware de reconocimiento de patrones subyacente sea más rápido, más barato, más escalable, y más versátil. Además, es necesario que el hardware sea capaz de procesar conjuntos de datos que seguirán creciendo en dimensionalidad a medida que se agregan nuevas fuentes, se combinan con otros datos y se analizan mediante algoritmos de aprendizaje profundo más sofisticados. Será necesario que el hardware, desde los chipsets y los servidores hasta los clústers altamente paralelos y las nubes distribuidas, continúe creando conjuntos de datos de mayor dimensionalidad que también varían inexorablemente en volumen, velocidad y variedad.

Tanto la adopción generalizada como la incorporación de la tecnología de aprendizaje profundo dependerán de la continua mercantilización y miniaturización de tecnologías de hardware de bajo coste que aceleren el procesamiento algorítmico. En 2017 asistiremos a un despliegue masivo de una nueva generación de chipsets neuronales, unidades de procesamiento gráfico, y otras arquitecturas informáticas optimizadas de aprendizaje profundo de alto rendimiento. El creciente número de componentes a escala nanométrica proporcionarán las bases para un mayor número de nuevas soluciones de aprendizaje profundo  en los factores de forma incorporados en móviles y en la internet de las cosas. 


·         El repertorio algorítmico del aprendizaje profundo aumentará, estará más diversificado y será más sofisticado: El aprendizaje profundo sigue siendo una tecnología bastante arcana, especializada y desalentadora para la mayoría de los profesionales de datos. La creciente adopción de esta tecnología en 2017 obligará a los científicos de datos y a otros desarrolladores a aumentar sus conocimientos en técnicas como las redes neuronales recurrentes, las redes convolucionales profundas, las redes de creencia profunda, las máquinas de Boltzmann restringidas, y los autocodificadores apilados. Como se planteó en esta reciente publicación de  KDnuggets, los profesionales del aprendizaje profundo necesitarán también entender los nuevos y sofisticados enfoques, desde la programación genética y la optimización por enjambre de partículas a la economía computacional basada en agentes y los  algoritmos evolutivos.

Los científicos de datos tendrán que mantenerse al tanto de los nuevos e innovadores enfoques para realizar la extracción automatizada de características, la transferencia de aprendizaje, la reducción de la elevada dimensionalidad, y el entranamiento distribuido y acelerado de aprendizaje profundo. Los desarrolladores que trabajen en proyectos de aprendizaje profundo deberán enfrentarse a muchos desafíos que requerirán la combinación de herramientas y técnicas de diferentes instituciones clásicas de IA, como ‘los conexionistas', 'los simbolistas' y 'los revolucionarios'. Para orientar la creciente complejidad en el diseño y la optimización de las aplicaciones de aprendizaje profundo, los científicos de datos necesitarán converger a modelos estandarizados de arquitecturas, como se muestra en este reciente artículo.




No comments:

Post a Comment