Redes Neurais Conceitos Básicos Flashcards
Estudo
O que são Redes Neurais Artificiais (RNAs)?
São estruturas compostas por várias unidades simples, chamadas neurônios artificiais, que estão densamente interconectadas. Elas são inspiradas na estrutura e funcionamento do cérebro humano.
Quais são as três camadas principais de uma Rede Neural Artificial?
As três camadas principais são: Camada de Entrada, Camada Escondida (ou Intermediária) e Camada de Saída.
Qual é a função da Camada de Entrada em uma RNA?
A Camada de Entrada recebe os dados diretamente do ambiente externo, servindo como ponto de entrada das informações na rede.
O que é uma Camada Escondida?
É uma camada intermediária em uma RNA que processa as entradas e aplica funções de ativação, permitindo que a rede capture padrões complexos nos dados.
Qual é a função da Camada de Saída em uma RNA?
A Camada de Saída gera a resposta final da rede após o processamento dos dados através das camadas escondidas.
O que é um Perceptron?
É o modelo mais simples de uma RNA, utilizado para resolver problemas de classificação linear. Ele consiste em uma única camada de neurônios que processa entradas ponderadas e gera uma saída.
Como funciona o treinamento de um Perceptron?
O Perceptron ajusta seus pesos com base no erro da previsão em relação ao valor esperado, iterativamente até que o erro seja minimizado.
O que é uma Rede Multilayer Perceptron (MLP)?
É uma extensão do Perceptron simples, formada por múltiplas camadas de neurônios, permitindo a modelagem de relações não lineares.
Qual é o papel das Camadas Intermediárias em uma MLP?
As Camadas Intermediárias processam as entradas e aplicam funções de ativação para capturar padrões complexos, transmitindo os resultados para a camada de saída.
O que é o treinamento por Backpropagation?
É um algoritmo de aprendizado supervisionado que ajusta os pesos das conexões entre neurônios com base no erro calculado na camada de saída.
Quais são as duas fases do treinamento por Backpropagation?
As duas fases são: Passo para Frente (Forward Pass) e Passo para Trás (Backward Pass).
O que acontece durante o Passo para Frente no Backpropagation?
As entradas são propagadas através da rede até a camada de saída, onde a previsão é gerada.
O que acontece durante o Passo para Trás no Backpropagation?
O erro calculado na camada de saída é propagado de volta através da rede, ajustando os pesos para minimizar o erro.
O que é o Método do Gradiente Descendente?
É um algoritmo de otimização que ajusta os pesos da rede para minimizar a função de perda, seguindo o gradiente da função em direção ao mínimo.
O que é a Taxa de Aprendizado em Backpropagation?
A Taxa de Aprendizado controla o tamanho dos ajustes nos pesos durante o treinamento, podendo ser fixa ou adaptativa.
O que é o Método Adam?
Adam é um método de otimização que adapta a taxa de aprendizado para cada peso individualmente, combinando as vantagens do SGD com o método de aceleração por momentos.
Qual é o objetivo do treinamento por Backpropagation?
O objetivo é encontrar um conjunto de pesos que minimize a função de perda, resultando em uma rede que generalize bem para novos dados.
O que são Mínimos Locais?
Mínimos Locais são pontos na superfície de erro onde a função de custo atinge um valor mínimo, mas que não é o menor valor possível (mínimo global).
Como os Mínimos Locais afetam o treinamento?
Se a rede fica presa em um mínimo local, ela pode não atingir o desempenho ótimo, resultando em uma solução subótima.
Quais estratégias podem ser usadas para evitar Mínimos Locais?
Estratégias como reinicialização aleatória, taxa de aprendizado variável, uso de métodos avançados como Adam, e simulated annealing podem ajudar a evitar mínimos locais.
O que é a Parada Antecipada (Early Stopping)?
É uma técnica para interromper o treinamento quando o erro no conjunto de validação começa a aumentar, evitando o sobreajuste.
O que é Overfitting?
Overfitting ocorre quando o modelo aprende detalhes e ruídos específicos do conjunto de treinamento, resultando em desempenho ruim em novos dados.
Como evitar Overfitting em Redes Neurais?
Técnicas como parada antecipada, validação cruzada, regularização e uso de conjuntos de validação ajudam a evitar o overfitting.
O que é uma Função de Perda?
É uma função que mede a diferença entre as previsões da rede e os valores reais, guiando o processo de treinamento para minimizar o erro.