Última atualização: 17/07/2007
IA353 - Redes Neurais - Turma A - 1o. Semestre de 2007
Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp
Informações Importantes (Última atualização: 18/06/2007)
Projetos de Software realizados em 2005
Revisão Bibliográfica
Resultados de Avaliação (Última atualização: 17/07/2007)
Notas de Aula (em PDF) (Última atualização: 11/05/2007)
- Tópico 1: Introdução e Motivação
- Tópico 2: Base Biológica: Aspectos Funcionais e Organizacionais
- Tópico 3: Fundamentos Básicos de Álgebra Linear e Otimização
- Tópico 4: Projeto de Redes Neurais Artificiais
- Tópico 5: Perceptron de Múltiplas Camadas
- Tópico 6 (Parte I): Técnicas de Otimização Não-Linear Irrestrita Aplicadas ao Treinamento de Redes Neurais de Múltiplas Camadas
- Tópico 6 (Parte II): Técnicas de Otimização Não-Linear Irrestrita Aplicadas ao Treinamento de Redes Neurais de Múltiplas Camadas
- Tópico 6 (Parte III): Métodos de Otimização Paramétrica Não-Linear Irrestrita
- Tópico 7: Neurocomputação, Dinâmica Não-Linear e Rede Neural de Hopfield
- Tópico 8: Mapas Auto-Organizáveis de Kohonen e Aprendizado Não-Supervisionado
- Tópico 9: Redes Neurais com Funções de Ativação de Base Radial
- Tópico 10: Processamento Dinâmico em Redes Neurais Artificiais: Redes Neurais Recorrentes
- Tópico 11: Suavidade e Teoria de Regularização
- Tópico 11 - Parte 2: Thin Plate Splines
- Tópico 11 - Parte 3: Seleção de Variáveis
- Tópico 12: Aprendizado Construtivo
- Tópicos 13 e 14: [Support Vector Machines] + [Comitê de Máquinas: Ensembles e Mistura de Especialistas]
Listas de Exercícios (Última atualização: 03/04/2007)
Material Complementar (Última atualização: 18/04/2007)
- Toolbox 1: Programa em MATLAB para treinamento de rede neural MLP com uma camada intermediária (Método do Gradiente Conjugado Escalonado)
- Paper 1 (draft version): MOLLER, M.F. A Scaled Conjugate Gradient Algorithm for Fast Supervised Learning. Neural Networks, vol. 6, no. 4, pp. 525-533, 1993.
- Paper 2 (draft version): PEARLMUTTER, B.A. Fast Exact Multiplication by the Hessian. Neural Computation, vol. 6, no. 1, pp. 147-160, 1994.
- BATTITI, R. First- and Second-Order Methods for Learning: Between Steepest Descent and Newton's Method. Neural Computation, vol. 4, pp. 141-166, 1992. (disponível no xerox do Gilson)
- BISHOP, C. Exact Calculation of the Hessian Matrix for the Multilayer Perceptron. Neural Computation, vol. 4, pp. 494-501, 1992. (disponível no xerox do Gilson)
- Paper 5: WILLIAMS, P.M. A Marquardt algorithm for choosing the step-size in backpropagation learning with conjugate gradients, 1991.
- Paper 6: OSOWSKI, S., BOJARCZAK, P., STODOLSKI, M. Fast second order learning algorithm for feedforward multilayer neural networks and its applications, 1996.
- Paper 7: HAGAN, M.T., MENHAJ, M.B. Training Feedforward Networks with the Marquardt Algorithm, IEEE Trans. on Neural Networks, vol. 5, no. 6, pp. 989-993, 1994.
- Paper 8: KARAYIANNIS, N.B., VENETSANOPOULOS, A.N. Efficient Learning Algorithms for Neural Networks (ELEANNE), IEEE Trans. on Systems, Man, and Cybernetics, vol. 23, no. 5, pp. 1372-1383, 1993.