14:22:16 From Aluno 1 : Professor, eu não consegui entender em que linha do código está definido o gargalo do manyfold 14:32:18 From Aluno 2 : Essa melhora deve permanecer com o uso de camadas densas? ou pode ser alterado o tipo de camada, como por exemplo camadas convolucionais? 14:34:48 From Aluno 1 : Você acha que vale a pena usar o dataset CIFAR10 de classificação de imagens? Como ele já está incluso no keras, teoricamente teria a implementação facilitada. 14:37:21 From Aluno 1 : ok. 14:37:52 From Aluno 3 : Desculpa professor, esqueci o microfone ligado. 14:38:26 From Aluno 4 : Professor, a simetria ajuda para a performance do code? 14:41:52 From Aluno 5 : porque a função de ativação no decoder é alterada de tangente para sigmoide ? 14:41:53 From Aluno 4 : Entendi, obrigado professor 15:03:48 From Aluno 6 : Abstract: In this talk, I take the audience on a tour of my earlier and recent experiences in building neural sequence models. I start from the earlier experience of using a recurrent net for sequence-to-sequence learning and talk about the attention mechanism. I discuss factors behind the success of these earlier approaches, and how these were embraced by the community even before they sota'd. I then move on to more recent research direction in unconventional neural sequence models that automatically learn to decide on the order of generation. 15:04:10 From Aluno 6 : Esse é o abstract da apresentaćão do Cho de hoje, caso interesse para alguém. 15:25:08 From Aluno 1 : a média