14:37:14 From Aluno 1 : Professor, uma dúvida na questão 4. O senhor pede para comparar os resultados obtidos com os resultados das questões 1, 2 e 3. Essa comparação é com os resultados obtidos antes o depois das modificações usadas para melhorar o desempenho? 14:40:32 From Aluno 1 : Entendi, obrigado! 14:41:45 From Aluno 2 : Professor, se eu uso o conjunto de teste para todos os classificadores também estaria certo?, obrigado 14:53:59 From Aluno 3 : Fernando na questão 3 C do EC1 você pede para usar o conceito de matriz ortogonal, neste caso a matriz N seria ortogonal, pois se esse for o caso para qualquer N ortogonal a matriz M sempre sera a mesma. Ou você quer que prove que para um M qualquer pode Haver mais de uma matriz N não única ? 14:55:38 From Aluno 4 : Professor, li em alguns trabalhos que as funções logísticas e tanh seriam equivalentes quanto a não linearização, entretanto a tanh resultou em convergências mais rápidas de uma gama de trabalho. Acontece que quando comparei as duas, tive resultados bem melhores com sigmoid. Consegue me explicar o motivo? 14:57:11 From Aluno 4 : E eu poderia alterar a função de ativação? Não é um dos parâmetros listados 14:57:25 From Aluno 5 : Professor, sobre aquele acontecimento da minha taxa de acerto ter caído drasticamente na Questão 2, foi resolvido... porque sem querer eu tinha alterado a função w. Obrigado e desculpa pelo incidente. 14:59:50 From Aluno 6 : Professor, dá para explicar a tendência do coeficiente de regularização para valores pequenos na ELM, mas como explicar as diferenças de região em relação à Q1, considerando pesos aleatórios? Alguma dica nesse sentido? 15:02:53 From Aluno 4 : sigmoid foi melhor que tanh 15:05:50 From Aluno 7 : Falando ainda sobre Batch Normalization, o uso dessas camadas seria mais importante numa rede neural com camadas convolucionais (pelas operações de multiplicações sucessivas) do que em uma MLP? 15:13:21 From Aluno 7 : Interessante! Obrigado, professor! :)