Este artículo de David Mueller
científico senior de datos en el Centro Internacional de Ciencia de Datos de
Excelencia en Teradata. es un breve
análisis sobre aprendizaje profundo.
Viene a decir que el aprendizaje profundo, como una rama del
aprendizaje automático, ha tenido su oportunidad al disminuir de forma
importante los costes de fabricación de modelos que trabajan en paralelo, y por
otra parte, la aparición de grandes conjuntos de datos multidimensionales
necesarios para entrenar estos modelos, los cuales han realizado con éxito
tareas analíticas sobre datos de imágenes, video, audio y texto. Estos modelos capturan
automáticamente los patrones estructurales complejos que se hallan ocultos en
conjuntos de datos masivos.
Una segunda cuestión es que hasta ahora, el aprendizaje
profundo era una parcela exclusivamente explotada por grandes organizaciones. Sin
embargo, y dado el gran ruido mediático sobre sus expectativas, muchas empresas
se han lanzado a investigar y explotar esta disciplina.
En tercer lugar, hay que tener en cuenta que se requiere una
inversión inicial para manejar la complejidad del modelo. Las redes neuronales
pueden necesitar horas o incluso días para entrenarse, y eso puede obstaculizar
el trabajo de los equipos de ciencia de datos. La elección del modelo adecuado
está sujeta a muchos factores. Aparte de maximizar la precisión del modelo
teniendo en cuenta las restricciones impuestas por el conjunto de datos de
entrada, es necesario considerar la interpretabilidad y la simplicidad del
modelo.
No comments:
Post a Comment