Aula 6 Flashcards

1
Q

O que motiva o estudo das Redes Neurais Artificiais (RNA)?

A

“O trabalho em Redes Neurais Artificiais (RNA) tem sido motivado desde o começo pelo reconhecimento de que o cérebro humano processa informações de uma forma inteiramente diferente de um computador convencional” (Haykin, 2001, p. 27).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Como é a estrutura de um neurônio biológico?

A

“Os neurônios são as unidades fundamentais dos tecidos do sistema nervoso, incluindo o cérebro. Cada neurônio consiste de um corpo celular, também designado como soma, o qual contém um núcleo. Partindo do corpo da célula existem um número de filamentos denominados dendritos, e um filamento mais longo que é denominado axônio” (Haykin, 2001, p. 27).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Como ocorre a comunicação entre neurônios?

A

“O sinal de uma célula a outra se faz mediante uma complicada reação eletroquímica. Substâncias químicas transmissoras são lançadas das sinapses e entram pelos dendritos, aumentando ou baixando o potencial elétrico do corpo da célula” (Haykin, 2001, p. 27).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

O que é uma rede neural artificial?

A

“Uma rede neural artificial pode ser conceituada como um processador maciça e paralelamente distribuído, constituído de unidades de processamento simples, as quais têm a propensão natural para armazenar conhecimento experimental e torná-lo disponível para o uso” (Haykin, 2001).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Quais são as propriedades de uma rede neural artificial?

A

“Não linearidade, mapeamento entrada-saída, adaptabilidade, resposta a evidências, informação contextual e tolerância a falhas” (Haykin, 2001, p. 30).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Quais elementos são considerados na construção de uma rede neural artificial?

A

“Número de camadas, quantidade de neurônios por camada, tipo de função de transferência e método de treinamento” (Haykin, 2001).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Quais são alguns métodos de aprendizagem utilizados em RNAs?

A

“Aprendizagem por correção de erros, aprendizagem baseada em memória, aprendizagem hebbiana, aprendizagem competitiva e aprendizagem de Boltzmann” (Haykin, 2001).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Quais são as possíveis tarefas que podem ser executadas por uma RNA?

A

“Associação de padrões, reconhecimento de padrões, aproximação de funções, controle e filtragem” (Haykin, 2001).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Quem inventou o perceptron e quando?

A

“O perceptron é um dispositivo eletrônico inventado em 1957 por Frank Rosenblatt (1928-1971).”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Quais áreas de conhecimento Frank Rosenblatt dominava?

A

Frank Rosenblatt era considerado uma espécie de “homem da Renascença, devido à sua excelência em várias áreas, incluindo computação, matemática, neurofisiologia, astronomia e música” (Rosenblatt’s Contributions, [S.d.], tradução nossa).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Como Rosenblatt organizou o perceptron?

A

Rosenblatt organizou o perceptron em “três camadas de unidades (ou neurônios): sensoriais (S), associativas (A) e responsivas (R).”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Qual é o objetivo do algoritmo LMS (Least Mean Squares)?

A

O algoritmo LMS foi criado para “calcular o erro de classificação para, na sequência, utilizar uma fração desse erro para o ajuste dos pesos.”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

O que ocorre se os dados não forem separáveis linearmente para o perceptron?

A

Se os dados não forem separáveis linearmente, “o perceptron não consegue classificar corretamente um dado conjunto de amostras,” e o erro global tende a ser minimizado até certo valor.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Como o perceptron multicamada melhora a capacidade do perceptron simples?

A

O perceptron multicamada “inclui camadas escondidas ou ocultas na RNA,” permitindo lidar com conjuntos de treinamento cuja separabilidade seja não linear.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Qual é o processo envolvido na retropropagação para o perceptron multicamada?

A

O processo de retropropagação envolve o “sinal de erro,” que se propaga para trás na rede ajustando os valores dos pesos ou sinapses, utilizando o algoritmo de descida de gradiente.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

O que caracteriza o deep learning em relação às redes neurais artificiais?

A

“Deep learning tem sido uma das áreas mais estudadas na área de redes neurais artificiais, por se constituir num paradigma de modelagem de redes que leva em consideração outros aspectos além da conectividade da rede em si, com elementos na arquitetura da rede que a aproximam, inclusive, do paradigma biológico de captura e processamento de imagens no sistema visual humano” (Kriegeskorte; Golan, 2019).

17
Q

Qual é o problema central do perceptron multicamada com relação à representação do conhecimento?

A

“Após o treinamento, a rede e seus pesos se manifestam como uma ‘caixa preta’, sendo impossível interpretar os valores dos pesos em termos de uma representação inteligível para o ser humano.”

18
Q

Como o aprendizado profundo resolve o problema da representação do conhecimento?

A

“O aprendizado profundo resolve o problema central no aprendizado de representação, introduzindo representações que são expressas em termos de outras representações mais simples.”

19
Q

Quais técnicas e algoritmos são abrangidos pelo deep learning?

A

“O deep learning abrange o estudo de uma série de técnicas e algoritmos de RNA, aprofundando conceitos de redes neurais alimentadas à frente (feed forward), camadas de entrada, ocultas e de saída, função custo, envolvendo o uso de outros tipos de redes, tais como redes convolutivas (Convolutional Neural Networks – CNN), redes neurais recorrentes (Recurrent Neural Networks – RNN), descida estocástica de gradiente (Stochastic Gradient Descent).” (Ketkar, 2017, p. 1-3; Medeiros, 2018, p. 158).

20
Q

Por que o uso de unidades de processamento gráfico (GPU) é importante para deep learning?

A

“O uso dessa arquitetura torna mais rápido o treinamento das redes convolucionais. Isso, por sua vez, nos ajuda a treinar redes profundas de várias camadas, que são muito boas na classificação de imagens.”

21
Q

O que são campos receptivos locais em redes neurais convolucionais?

A

“Cada neurônio na primeira camada oculta será conectado a uma pequena região dos neurônios de entrada, por exemplo, uma região 5 x 5, correspondente a 25 pixels de entrada. Essa região na imagem de entrada é chamada de campo receptivo local para o neurônio oculto.”

22
Q

Qual é o papel do compartilhamento de pesos em redes convolucionais?

A

“Para o exemplo do campo receptivo local 5 x 5, todos os 25 pesos serão os mesmos, por isso que se afirma que os pesos são compartilhados. Isso significa que todos os neurônios da primeira camada oculta vão detectar exatamente o mesmo recurso apenas em locais diferentes na imagem de entrada.”

23
Q

Como as camadas de aglutinação (pooling) contribuem para as redes neurais convolucionais?

A

“O que essas camadas fazem é simplificar as informações na saída da camada anterior. Em suma, uma camada de aglutinação pega cada saída do mapa de recursos da camada convolucional e prepara um mapa condensado.”

24
Q

Qual é a vantagem da arquitetura de redes convolucionais para reconhecimento de caracteres, como no exemplo do MNIST?

A

“A ideia central com esse exemplo foi mostrar que, à luz do paradigma do aprendizado profundo, uma rede neural pode ser adaptada de maneira a incorporar características do problema.”

25
Q

Qual é a diferença na quantidade de pesos entre uma rede híbrida e um perceptron multicamada para reconhecimento de dígitos?

A

“A rede híbrida obtida no exemplo precisará treinar apenas 51.840 pesos, ao invés de 784 (28 x 28 entradas) e supondo 3 camadas de 784 neurônios e uma camada de saída de 10 neurônios: 784 x 784 x 784 x 784 x 10 = 3.778.019.983.360 pesos!”