Redes Neurais Conceitos Básicos Flashcards
Estudo
O que são Redes Neurais Artificiais (RNAs)?
São estruturas compostas por várias unidades simples, chamadas neurônios artificiais, que estão densamente interconectadas. Elas são inspiradas na estrutura e funcionamento do cérebro humano.
Quais são as três camadas principais de uma Rede Neural Artificial?
As três camadas principais são: Camada de Entrada, Camada Escondida (ou Intermediária) e Camada de Saída.
Qual é a função da Camada de Entrada em uma RNA?
A Camada de Entrada recebe os dados diretamente do ambiente externo, servindo como ponto de entrada das informações na rede.
O que é uma Camada Escondida?
É uma camada intermediária em uma RNA que processa as entradas e aplica funções de ativação, permitindo que a rede capture padrões complexos nos dados.
Qual é a função da Camada de Saída em uma RNA?
A Camada de Saída gera a resposta final da rede após o processamento dos dados através das camadas escondidas.
O que é um Perceptron?
É o modelo mais simples de uma RNA, utilizado para resolver problemas de classificação linear. Ele consiste em uma única camada de neurônios que processa entradas ponderadas e gera uma saída.
Como funciona o treinamento de um Perceptron?
O Perceptron ajusta seus pesos com base no erro da previsão em relação ao valor esperado, iterativamente até que o erro seja minimizado.
O que é uma Rede Multilayer Perceptron (MLP)?
É uma extensão do Perceptron simples, formada por múltiplas camadas de neurônios, permitindo a modelagem de relações não lineares.
Qual é o papel das Camadas Intermediárias em uma MLP?
As Camadas Intermediárias processam as entradas e aplicam funções de ativação para capturar padrões complexos, transmitindo os resultados para a camada de saída.
O que é o treinamento por Backpropagation?
É um algoritmo de aprendizado supervisionado que ajusta os pesos das conexões entre neurônios com base no erro calculado na camada de saída.
Quais são as duas fases do treinamento por Backpropagation?
As duas fases são: Passo para Frente (Forward Pass) e Passo para Trás (Backward Pass).
O que acontece durante o Passo para Frente no Backpropagation?
As entradas são propagadas através da rede até a camada de saída, onde a previsão é gerada.
O que acontece durante o Passo para Trás no Backpropagation?
O erro calculado na camada de saída é propagado de volta através da rede, ajustando os pesos para minimizar o erro.
O que é o Método do Gradiente Descendente?
É um algoritmo de otimização que ajusta os pesos da rede para minimizar a função de perda, seguindo o gradiente da função em direção ao mínimo.
O que é a Taxa de Aprendizado em Backpropagation?
A Taxa de Aprendizado controla o tamanho dos ajustes nos pesos durante o treinamento, podendo ser fixa ou adaptativa.