Professional Documents
Culture Documents
Aprendizaje Automático
1
Módulo 3
Aprendizaje Automático
Semana 11.
Pantallazo de tópicos avanzados:
attention mechanisms, transformers, LLMs, reinforcement learning
Stable diffusion
2
Aprendizaje Automático Generativo:
Imágenes, texto…
3
Contenidos del módulo
4
Contenidos del módulo
5
La revolución del aprendizaje profundo
GAN Llama
Atención 2015 Transformers 2018 GPT-3 2021 ChatGPT Bard
2013 2023
2014 DCGAN 2017 StyleGAN 2020 DALL-E 2022 multi-modal
6
Texto
7
Procesamiento del Lenguaje Natural (NLP)
Word-sense
disambiguation
“El gato está debajo de la mesa”
Traducción The cat is under the
table Text to
speech
8
Series temporales: redes recurrentes
Se transmite, en cada fase del entrenamiento, el estado anterior
9
Secuencias
montaña
10
Redes Neuronales Recurrentes
montaña
11
Series temporales/secuencias
Estático. Correlaciones
sólo espaciales (e.g. CNN)
12
Avances disruptivos
2014
Mecanismos
de atención
13
Avances disruptivos
2017
Transformers
14
Métodos avanzados: mecanismos de atención y transformers
15
Métodos avanzados: mecanismos de atención y transformers
16
Mecanismos de auto-atención
17
Autoatención Multi-Head
18
Transformers
Componentes llave de la arquitectura Transformer:
● Mecanismo de Autoatención
● Autoatención Multi-Head
● Codificación Posicional
● Capas Apiladas
● Conexiones Residuales
● Normalización de Capa
● Arquitectura Codificador-Decodificador
● Autoatención Enmascarada
● Redes Neuronales Feedforward por Posición
● Capa de Salida
19
Redes “famosas” / Celebrities
Procesamiento del lenguaje natural
● BERT: Bidirectional Encoder Representations from Transformers (Red de google creada en 2018)
● Mchos otros….
20
Grandes Modelos de Lenguaje (LLMs)
21
Grandes Modelos de Lenguaje (LLMs)
(actualizado a marzo de 2023)
22
Los últimos vertiginosos meses
Carta Future of
Feb. 2023 Mar. 2023 … … Life … Julio 2023
Oct. 2022 Feb. 2023
OpenAssistant Pesos de Llama GPT-4 Sparks of AGI Avances técnicos y Llama 2, licencia
ChatGPT Llama filtrados paper chatbots por doquier comercial
23
Loros estocásticos (¿peligrosos?)
El término “loros estocásticos” fue acuñado en marzo de 2021.
Riesgos
• Costos ambientales.
24
Discusión
25
Imágenes
26
La revolución del aprendizaje profundo
Large Scale Visual Recognition Challenge (ILSVRC) -
ImageNet
28
Figuras de Ava Soleimani y Alexander
Autoencoders deterministas
29
Autoencoders variacionales
30
Redes Generativas Adversárias
Generative Adversarial Networks (GANs)
31
Redes Generativas Adversárias
Generative Adversarial Networks (GANs)
generador: convierte el ruido en una imitación de los datos para intentar engañar al discriminador
32
Redes Generativas Adversárias
Generative Adversarial Networks (GANs)
33
Redes Generativas Adversárias
Generative Adversarial Networks (GANs)
34
Crecimiento progresivo de las GANs
• añadiendo
progresivamente capas
de mayor resolución
espacial (imágenes)
• Construcción
progresiva del
generador y de los
discriminadores
• Imágenes sintéticas
muy bien resueltas
Tero Karras, Timo Aila, Samuli Laine, Jaakko Lehtinen, https://arxiv.org/abs/1710.10196
35
Style GAN
https://thispersondoesnotexist.com/
Transferencia de estilo
201
9
36
Otros desarrollos
○ Traducción por parejas (paired translation)
○ coloración: https://deepai.org/machine-learning-model/colorizer
○ CycleGAN: dos generadores y dos discriminadores trabajando al mismo tiempo
https://junyanz.github.io/CycleGAN/
38
Modelos de difusión
39
Modelos de difusión
40
Modelos de difusión
41
Modelos generativos
StyleGAN 3 DALL-E 2
Stable
Diffusion
42
De lo general a lo especializado
Módulos 2 y 3: datos genéricos/no estructurados (e.g. redes neuronales totalmente conectadas)
La vedette: LLMs!
43
Módulo 3
Aprendizaje Automático
Semana 11.
Aprendizaje por refuerzo - Reinforcement learning
44
Aprendizaje por refuerzo
45
Aprendizaje Supervisado
Entrenamiento (y validación)
(después de definir y pre-procesar los datos, elegir método, hiperparámetros, etc.)
clasificación,
X regresión
Alogritmo de (y más…)
aprendizaje
Datos con
input y
etiqueta
automático
salida
data DT, SVM, BDT, XGB predicción
FCNN, CNN, RNN,
LSTM…
clasificación,
X regresión
Alogritmo de (y más…)
aprendizaje
Datos con
input y
etiqueta
automático
salida
data DT, SVM, BDT, XGB predicción
FCNN, CNN, RNN,
LSTM…
clasificación,
X regresión
Alogritmo de (y más…)
aprendizaje
Datos con
input y
etiqueta
automático
salida
data DT, SVM, BDT, XGB predicción
FCNN, CNN, RNN,
LSTM…
t
En ese proceso: evitar sobreajuste, mínimos locales, estimar los errores
(e.g. validación cruzada: separación en entrenamiento y validación),
usar metricas (e.g. AUC), elegir el working point, ajustar hiperparámetros
(probar con distintos métodos)
48
Aprendizaje Supervisado
Uso
clasificación,
X regresión
Datos nuevos, sin
Alogritmo de (y más…)
aprendizaje
input y
etiqueta
automático
salida
data DT, SVM, BDT, XGB predicción
FCNN, CNN, RNN,
LSTM…
49
Aprendizaje por refuerzo / Reinforcement Learning
50
Aprendizaje por refuerzo / Reinforcement Learning
51
Aprendizaje supervisado x no supervisado x por refuerzo
52
53
Control a nivel humano mediante el aprendizaje profundo por refuerzo
Minh et al., Nature 2015
55
Clave: la función Q
estado, s
57
Redes Q profundas (DQN): Entrenamiento
Aprendizaje
del valor
Q-loss
58
Problemas con el Q-aprendizaje
○ Complejidad:
○ puede modelar escenarios donde el espacio de acción es discreto y
pequeño
○ no puede manejar espacios continuos
○ Flexibilidad:
○ La política se calcula de forma determinista a partir de la función Q
maximizando la recompensa: no puede aprender políticas probabilísticas
59
Gradiente de política: Idea clave
Aprendizaje de la política
60
La “máquina"
61
62
Resumen del aprendizaje por refuerzo profundo (Deep Reinforcement Learning)
● Fundamentos:
● Agentes que actúan en el entorno
● Pares estado-acción: maximizar las recompensas futuras
● Descuento
● Aprendizaje Q
● Función Q: recompensa total esperada dada s, a
● Política determinada por la selección de la acción que maximiza la función Q
● Gradiente de la política
● Aprender y optimizar la política directamente
● Aplicable a espacios de acción continuos
63
Resumen del aprendizaje por refuerzo
64
Resumen - Discusión
● Hemos recorrido un largo y arduo camino hasta aquí
● ¡Los logros no han sido menores!
● Es increíble que haya sido posible escudriñar el aprendizaje automático en tan poco tiempo
● Curso práctico de aprendizaje supervisionado con ejemplos concretos de código y aplicaciones reales
● Base para aplicaciones reales, en la escalas "industriales" y desarrollos de soluciones propias
● Bases para entender las aplicaciones más sofisticadas, de vanguardia, innovadoras
● Redes más complejas y especializadas
● ¡Muchas públicas! [e.g. https://huggingface.co/] (otras de código propietario)
● Requieren supercomputadoras para entrenar (+ conjuntos de datos, etc.), ¡pero no para usar!
● Deep learning es quizás la faceta más incredible del aprendizaje automático, lo más próximo de IA y
seguramente la rama con más hype, pero no es la solución para todos los problemas.
● Aplicaciones visuales y “recreativas" x aplicaciones y desarrollos académicos e industriales
● Desarrollos de los últimos ~< 10 años!
● Muchas veces, lo que llamamos en este curso aprendizaje automático, se lo denomina inteligencia artificial,
lo que le dá mucho más hype
● Muchas gracias por la participación de todo/as!
65
Lo que no tocamos en este curso
66
Fin
67
Buenas referencias en Transformadores / Transformers
● Transformers - Self-Attention to the rescue:
https://www.dominodatalab.com/blog/transformers-self-attention-to-the-rescue
● Transformer Neural Networks: A Step-by-Step Breakdown:
https://builtin.com/artificial-intelligence/transformer-neural-network
● Attention Is All You Need: https://arxiv.org/abs/1706.03762
● Effective Approaches to Attention-based Neural Machine Translation:
https://arxiv.org/abs/1508.04025
● Temporal Fusion Transformer: Time Series Forecasting with Deep Learning — Complete Tutorial
https://towardsdatascience.com/temporal-fusion-transformer-time-series-forecasting-with-deep-learning-comple
te-tutorial-d32c1e51cd91
● Visual transformer: https://www.youtube.com/watch?v=HZ4j_U3FC94
● Generadores de imagen:
● How to Run ERNIE-ViLG AI Art Generator in Google Colab Free:
https://bytexd.com/how-to-run-ernie-vilg-ai-art-generator-in-google-colab-free/
● Google’s DreamFusion AI Generates 3D Model From Text
● Goodfellow GAN paper: Generative Adversarial Nets, https://arxiv.org/pdf/1406.2661.pdf
68
Links reinforcement learning
69