Nota: Este artículo es una traducción del original que aparece en el sitio de KDnuggets: Predictions for Deep learning in 2017
Muchas gracias por permitir su publicación en español.
Pronósticos para 2017 sobre
aprendizaje profundo
Aparte
de otras predicciones sobre aprendizaje profundo, aparecerá en el mercado la
primera aplicación de usuario de gran éxito, una herramienta y la biblioteca de
código abierto, que conquistará a la comunidad de desarrolladores.
Por James Kobielus, IBM.
El aprendizaje profundo se perfila como la novedad puntera a medida que nos acercamos a 2017.
El aprendizaje profundo se perfila como la novedad puntera a medida que nos acercamos a 2017.
Con base en las redes neuronales multicapa, esta tecnología es
el fundamento de la inteligencia artificial, la computación cognitiva y la
analítica en tiempo real de muchas de las nuevas aplicaciones que han tenido un gran impacto.
Para los científicos de datos, el aprendizaje profundo
experimentará en el futuro un enfoque profesional de nivel superior. A
continuación expongo mis predicciones sobre las principales tendencias en
aprendizaje profundo para el próximo año:
·
Aparecerá en el mercado la primera
aplicación de gran éxito de aprendizaje profundo: Mi
pronóstico es que la primera aplicación de aprendizaje profundo que el gran
público acogerá de forma entusiasta se producirá en 2017, y se utilizará para procesar la ingente
cantidad de fotos que la gente capta con sus teléfonos inteligentes y
compartirlas en las redes sociales. En este sentido, las oportunidades más
importantes sobre aprendizaje profundo se presentarán en aplicaciones que
faciliten la búsqueda de imágenes, etiquetado automático, correción automática, embellecimiento, renderización
fotorrealista, mejora de la resolución , transformación de estilo, y figuras imaginarias. En los casos en los que el procesamiento de audio es
importante, el primer gran éxito del aprendizaje profundo en 2017 puede muy
bien producirse en la composición musical, que se podrá experimentar como si la hubiera creado un
músico. El aprendizaje profundo puede también entrar en nuestras vidas en el
próximo año en forma de aplicaciones inteligentes que nos llevarán a una nueva generación de
portátiles que ayuden a personas
discapacitadas a ver, oir, y a percibir su entorno. La tecnología
definitivamente encontrará su lugar en los juguetes, juegos y electrodomésticos
de consumo en 2017, especialmente en los que incorporan cámaras integradas,
micrófonos y dispositivos finales de la internet de las cosas. Hasta cierto
punto, los consumidores también podrán experimentar las aplicaciones del
aprendizaje profundo en 2017 en vehículos autónomos, aunque estos productos tardarán varios años en
utilizarse de forma masiva debido a que sus desarrolladores se tendran que
enfrentar a dificultades de tipo tecnológico, reglamentario, legal, cultural y
de otros tipos.
·
Una herramienta y la biblioteca, de
aprendizaje profundo, conquistará a la comunidad de desarrolladores: A
medida que 2016 llega a su fin, aumenta el número de proveedores de soluciones
que facilitan en código abierto sus herramientas de aprendizaje profundo, sus
librerías, y otros recursos de propiedad intelectual. El año pasado,
Google liberó el código de DeepMind y de TensorFlow, Apple publicó su deep-learning research, y el grupo sin fines de lucro OpenAI inició la creación
de su deep-learning benchmarking technology. Los desarrolladores pueden elegir herramientas de
código abierto para el desarrollo de aplicaciones de aprendizaje profundo en
Spark, Scala, Python y Java, con soporte para otros idiomas.
Además
de DeepMind y TensorFlow, se encuentran
actualmente otrs herramientas de código abierto para aprendizaje profundo como DeepLearning4J, Keras, Caffe, Theano, Torch, OpenBLAS y Mxnett.
En 2017
seguirán proliferando las opciones de desarrollo de código abierto para
desarrolladores de aprendizaje profundo. Sin embargo, estamos seguros de que al
menos uno de ellos se convertirá en el estándar de facto dentro de un año. A
finales de la década, ningún desarrollo de ciencia de datos estará completo si
al menos una herramienta de código abierto de aprendizaje profundo
perfectamente integrado con Spark, Zeppelin, R y Hadoop. En ese sentido, mi pronóstico es que Apache Spark evolucionará en los próximos
12-24 meses para reforzar su apoyo nativo al aprendizaje profundo.
·
Llegará al mercado una nueva generación de
chipsets comerciales de bajo coste de aprendizaje profundo: El
aprendizaje profundo se basa en la aplicación de algoritmos de redes neuronales
multinivel a objetos de datos de grandes dimensiones. Como tal, requiere una
rápida ejecución en la manipulación de
matrices en arquitecturas altamente paralelas para identificar patrones
complejos y poco definidos, como objetos, rostros, voces, amenazas, etc. Para
que el aprendizaje profundo de alta dimensión se convierta en algo más práctico
y omnipresente, es necesario que el hardware de reconocimiento de patrones
subyacente sea más rápido, más barato, más escalable, y más versátil. Además,
es necesario que el hardware sea capaz de procesar conjuntos de datos que
seguirán creciendo en dimensionalidad a medida que se agregan nuevas fuentes,
se combinan con otros datos y se analizan mediante algoritmos de aprendizaje
profundo más sofisticados. Será necesario que el hardware, desde los chipsets y
los servidores hasta los clústers altamente paralelos y las nubes
distribuidas, continúe creando conjuntos de datos de mayor dimensionalidad que
también varían inexorablemente en volumen, velocidad y variedad.
Tanto
la adopción generalizada como la incorporación de la tecnología de aprendizaje
profundo dependerán de la continua mercantilización y miniaturización de
tecnologías de hardware de bajo coste que aceleren el procesamiento
algorítmico. En 2017 asistiremos a un despliegue masivo de una nueva generación
de chipsets neuronales, unidades de procesamiento
gráfico, y otras arquitecturas
informáticas optimizadas de aprendizaje profundo de alto rendimiento. El creciente número de componentes a escala nanométrica
proporcionarán las bases para un mayor número de nuevas soluciones de
aprendizaje profundo en los factores de
forma incorporados
en móviles y en la internet de las cosas.
·
El repertorio algorítmico del aprendizaje
profundo aumentará, estará más diversificado y será más sofisticado: El
aprendizaje profundo sigue siendo una tecnología bastante arcana, especializada
y desalentadora para la mayoría de los profesionales de datos. La creciente
adopción de esta tecnología en 2017 obligará a los científicos de datos y a
otros desarrolladores a aumentar sus conocimientos en técnicas como las redes neuronales
recurrentes, las redes convolucionales
profundas, las redes de creencia
profunda, las máquinas de Boltzmann
restringidas, y los autocodificadores
apilados. Como se planteó en esta reciente
publicación de KDnuggets, los profesionales del aprendizaje profundo necesitarán
también entender los nuevos y sofisticados enfoques, desde la programación genética y la optimización por enjambre
de partículas a la economía computacional basada en
agentes y los algoritmos evolutivos.
Los científicos de datos tendrán que mantenerse al tanto de los nuevos e innovadores enfoques para realizar la extracción automatizada de características, la transferencia de aprendizaje, la reducción de la elevada dimensionalidad, y el entranamiento distribuido y acelerado de aprendizaje profundo. Los desarrolladores que trabajen en proyectos de aprendizaje profundo deberán enfrentarse a muchos desafíos que requerirán la combinación de herramientas y técnicas de diferentes instituciones clásicas de IA, como ‘los conexionistas', 'los simbolistas' y 'los revolucionarios'. Para orientar la creciente complejidad en el diseño y la optimización de las aplicaciones de aprendizaje profundo, los científicos de datos necesitarán converger a modelos estandarizados de arquitecturas, como se muestra en este reciente artículo.
Los científicos de datos tendrán que mantenerse al tanto de los nuevos e innovadores enfoques para realizar la extracción automatizada de características, la transferencia de aprendizaje, la reducción de la elevada dimensionalidad, y el entranamiento distribuido y acelerado de aprendizaje profundo. Los desarrolladores que trabajen en proyectos de aprendizaje profundo deberán enfrentarse a muchos desafíos que requerirán la combinación de herramientas y técnicas de diferentes instituciones clásicas de IA, como ‘los conexionistas', 'los simbolistas' y 'los revolucionarios'. Para orientar la creciente complejidad en el diseño y la optimización de las aplicaciones de aprendizaje profundo, los científicos de datos necesitarán converger a modelos estandarizados de arquitecturas, como se muestra en este reciente artículo.
Por favor, visite este sitio para saber cómo puede empezar de forma inmediata con
aprendizaje profundo en Power Systems.
Y compruebe este otro sitio para
aprender como puede utilizar Watson Data Platform para poner a trabajar al
aprendizaje automático y la computación cognitiva en sus negocios, en 2017 y en los próximos años.
No comments:
Post a Comment