14:26:45 From Aluno 1 : Professor, tenho três dúvidas sobre autoencoders: Primeira questão Há alguma vantagem em se contruir um autoencoder de forma a um dado "decodado" ser perfeitamente recuperável pelo autoencoder? Quer dizer, ter um autoencoder que forneça: [X1 >encode> x >decode> X2 >encode> x >decode> X2] Seria o caso de treinar não somente para igualar X1 e X2 na rede [X1 >encode> x >decode> X2]; mas também treinar para igualar x1 e x2 na rede [x1 >decode> X >encode> x2] Segunda questão Quando estamos treinando um Variational Autoencoder, nós usamos o artifício de substituir a [normal(mu,sigma)] por [mu + sigma.normal(0,1)] para realizar o backpropagation; essa alteração também é feita no foward, quando se avaliam as camadas após a camada de features? Para uma dada amostra de treino, o sample dessa normal(0,1) é visto como uma constante para o cálculo do gradiente? Terceira questão No caso de Variational Autoencoders, em aplicações práticas, após treinada a rede nós devemos remover a etapa de amostr 14:27:57 From Aluno 1 : ...a etapa de amostragem? A camada de features se tornaria o vetor de médias? 14:42:48 From Aluno 1 : perfeito, obrigado