Modelos generativos Flashcards
O que são modelos generativos?
São um tipo de algoritmo de aprendizado de máquina que permite que a máquina aprenda os padrões nos dados e, em seguida, gere novos dados que se assemelham aos dados de treinamento.
Ex. GANs e GMMs.
O que são Deep Energy Models?
É uma classe de modelos generativos baseada em aprendizado profundo. Usam a ideia de uma “função de energia” para modelar a probabilidade de diferentes estados no espaço de entrada. A ideia é que estados mais “prováveis” ou “naturais” terão energia mais baixa, enquanto estados menos prováveis terão energia mais alta.
Ex. RBM.
O que são Deep Autoencoders?
São uma técnica de aprendizado profundo usada para aprendizado não supervisionado. Eles são projetados para aprender representações eficientes dos dados de entrada, geralmente para a finalidade de redução de dimensionalidade. Um autoencoder é composto de duas partes: um codificador e um decodificador.
Explique Inception Score (IS)
É uma medida popular que avalia qualidade e diversidade das imagens geradas. Usa a rede Inception, uma rede convolucional profunda usada para classificação de imagens, para classificar as imagens geradas e depois avaliar as entropias dessas classificações.
Explique Frechet Inception Distance (FID)
Também usa a rede Inception. Não olha somente as imagens geradas, ele as compara com as imagens reais do conjunto de treinamento. Pode gerar uma medida mais fiel da qualidade e da diversidade das imagens.
Explique Perceptual Path Length (PPL)
PPL avalia a suavidade do espaço latente de um GAN, ou seja, quão consistentemente pequenas alterações no espaço latente levam a pequenas alterações nas imagens geradas.
Explique downsampling no contexto de IA generativa
Reduz a quantidade de dados ou o tamanho da amostra. No contexto de imagens, isso geralmente se traduz em reduzir suas resoluções.
Pode reduzir o custo computacional e ajudar a evitar o overfitting ao fornecer uma forma de regularização e abstração. Permite ao modelo se concentrar em recursos mais abstratos e menos nos detalhes.
Algumas técnicas de downsampling são o max, min e média pooling.
Explique upsampling no contexto de IA generativa
É usado para aumentar a resolução de imagens ou a quantidade de dados. Frequentemente realizado por operações como convoluções transpostas (deconvoluções) ou interpolações (ex. interpolação bilinear ou interpolação mais próxima do vizinho).
É usado na U-Net e na DCGAN.
Por que GANs podem ser difíceis de treinar?
Um dos motivos é que os gradientes que fluem de volta através do gerador e do discriminador durante o treinamento podem oscilar muito. Essas oscilações podem levar a um treinamento instável e a geradores que produzem amostras de má qualidade.
Pode ser mitigado pelo Batch Normalization.
Explique Adversarial Attacks
São entradas maliciosas que visam enganar modelos de aprendizado de máquina, especialmente Deep Learning.
Objetivo: causar uma classificação errônea ou resultar em algo desfavorável para o modelo.
Cite a diferença entre ataques de caixa branca e ataques de caixa preta
Ataques de caixa branca: atacante tem total acesso ao modelo, a sua arquitetura e aos seus parâmetros.
Ataques de caixa preta: atacante tem acesso somente à entradas e saídas do modelo.
O que pode ser feito para prevenir ou mitigar ataques adversários?
- Adversarial training
- Defesa por redundância
- Regularização
- Detecção de anomalias
- Modelos interpretáveis
- Transformações de entrada
Explique Sampling Buffer (Buffer de amostragem)
Para usar a divergência contrastiva, precisamos gerar amostras durante o treinamento. Devido à alta dimensionalidade das imagens, precisamos de muitas iterações dentro da amostragem MCMC para obter amostras razoáveis.
O buffer de amostragem reduz significativamente o custo de amostragem. A ideia é armazenar as amostras dos últimos dois lotes em um buffer e reutilizá-los como ponto de partida do algoritmo MCMC para os próximos lotes. Como o modelo precisa de um número significativamente menor de etapas para convergir para amostras razoáveis, o custo de amostragem é reduzido.
No entanto, para não confiar apenas em amostras anteriores e também permitir novas amostras, reinicializamos 5% de nossas amostras do zero (ruído aleatório entre -1 e 1).