Viejos ladrillos, nuevas y exitosas arquitecturas ¿Cómo y por qué Deep Learning llegó al trono en el área Machine Learning? ¿Qué oportunidades, dilemas y riesgos nos presenta?
Contenido principal del artículo
Resumen
Aquí se presenta una revisión de la disrupción que generó Deep Learning en el desarrollo del área de Machine Learning. Primero, definiendo los dos problemas generales que se buscan resolver con machine learning, los modelos discriminativos y modelos generativos, y cómo la modelación estadística, la optimización y, el nuevo ingrediente, el uso de datos, logran generar algoritmos que “aprenden automáticamente”. Para ello, se revisan especialmente los algoritmos de machine learning vigentes al momento en que se produce la irrupción de Deep Learning en la escena y cómo estos últimos renuevan una antigua tecnología, las redes neurales artificiales. Luego, se describen los antecedentes técnicos y tecnológicos que habilitaron el desarrollo de Deep Learning, particularmente, el avance de Big Data, el algoritmo de Backpropagation, el desarrollo de la GPU y las plataformas de desarrollo de código abierto (tensorflow, keras, pythorch), permitiendo también comprender la infraestructura necesaria para su desarrollo. Seguidamente, se revisan las arquitecturas más exitosas, como U-NET, las redes generativas adversariales (GANs), Transformers, Stable Diffusion, entre otras, destacando los impactantes avances en procesamiento de datos y procesamiento de lenguaje natural aplicado al ámbito médico. Finalmente, se discuten los dilemas y desafíos pendientes respecto a la explicabilidad, interpretabilidad y sesgos de los resultados de los llamados modelos opacos (no transparentes), al igual que los riesgos de vulnerabilidad que se han reportado, permitiendo incluso extraer los datos originales a partir de los modelos, jaqueando los enfoques tradicionales de anonimización y de-identificación de los datos.