14:06:49 From Aluno 1 : Estou com alguma dificuldade na questão 7.3 do EC2. Um caso simples da regularização Omega que temos no início do manual é a regularização Lasso, que impõe esparsidade na matriz W. Pelo que entendi, a rede considerada levaria as entradas Z para uma camada de features X = C(Z), que seria a parte compartilhada, e em seguida, W seria aplicada em X para definir a saída correspondente a cada tarefa. Então a regularização seria aplicada somente nessa segunda parte (só em W), na qual as features são selecionadas para cada tarefa. Assim, impor esparsidade em W, forçaria de certa forma que os pesos compartilhados C extraíssem features X mais relevantes das entradas Z. Essa leitura está correta? 14:20:54 From Aluno 2 : Professor, caso algum aluno fique com conceito C, que apesar de ser considerado aprovado, pode impactar na bolsa de mestrado, seria possível marcar uma nova data para a avaliação oral ou revisar alguma atividade computacional / conceitual? 14:40:01 From Aluno 2 : ok. entendido 14:41:10 From Aluno 1 : EC2 14:41:22 From Aluno 1 : Sobre Multitask Learning 14:42:18 From Aluno 3 : Na questão 9 do EFC 4, para a base de dados MNIST foi pedido para apresentar apenas as imagens geradas para as épocas 0,1000,10000,20000 e 30000. Para a nova base de dados devem ser apresentadas as imagens para as mesmas épocas ou devem ser enviadas todas elas? 14:44:46 From Aluno 1 : é que eu estava entendendo que W eram os pesos sinápticos 14:44:56 From Aluno 1 : ah, 14:45:25 From Aluno 1 : mas em alguns dos exemplos não identifiquei essa matriz de conectividade que o senhor colocou