Engenharia de Software Flashcards

1
Q

As redes neurais convolucionais são uma classe de redes neurais artificiais projetadas para processar dados sequenciais, como texto ou áudio, utilizando camadas convolucionais que aplicam filtros para prever, diretamente, a saída final, isto é, sem extrair características intermediárias.

A

ERRADO

Errado.

As redes neurais convolucionais (Convolutional Neural Networks, CNNs) são projetadas principalmente para processar dados espaciais ou estruturados, como imagens e vídeos, e não são projetadas especificamente para dados sequenciais, como texto ou áudio.

Além disso, as CNNs funcionam extraindo características intermediárias a partir das camadas convolucionais. Esses recursos são processados progressivamente em camadas sucessivas para identificar padrões de diferentes níveis de complexidade antes de chegar à camada final, que realiza a predição ou classificação.

Dados sequenciais, como texto ou áudio, são mais comumente processados por redes neurais recorrentes (RNNs) ou variantes modernas como LSTMs e Transformers.

As CNNs são projetadas para imagens, não para dados sequenciais como texto ou áudio. Além disso, elas extraem características intermediárias antes de prever a saída final. Para sequências, redes como RNNs ou Transformers são mais apropriadas.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

As redes neurais feedforward processam dados de entrada até a saída em uma única direção, passando por camadas ocultas, sem ciclos, e são amplamente aplicadas em tarefas supervisionadas, como classificação e regressão.

A

CERTO

Redes neurais feedforward são um dos tipos mais simples e comuns de redes neurais artificiais. Elas são chamadas assim porque a informação flui em apenas uma direção: da camada de entrada, passando pelas camadas ocultas (se houver), até a camada de saída, sem ciclos ou loops.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

No processo de inferência, o LLaMA utiliza decodificação paralela em vez de decodificação sequencial, gerando todos os tokens simultaneamente, sem depender do contexto anterior, o que elimina a necessidade de otimizações como layer-wise quantization.

A

ERRADO

Os modelos LLaMA (Large Language Model Meta AI) são baseados em transformers auto-regressivos, o que significa que eles geram texto sequencialmente, token por token, e cada novo token é condicionado aos tokens anteriores. Esse processo é chamado de decodificação auto-regressiva, e não paralela.

A decodificação paralela (como mencionada na questão) seria um processo em que todos os tokens são gerados simultaneamente, o que não é compatível com a arquitetura auto-regressiva do LLaMA. Modelos como o LLaMA dependem do contexto anterior para gerar a próxima palavra de forma coerente.

Além disso, otimizações como layer-wise quantization ainda são úteis para reduzir o consumo de memória e melhorar a eficiência computacional desses modelos, mesmo com a decodificação sequencial.

Portanto, a resposta correta é:

✅ Errado

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

O RAG (retrieval-augmented generation) reduz a necessidade de contextualizar prompts, pois o LLM, sozinho, consegue acessar, dinamicamente, informações externas sem qualquer integração prévia com sistemas de recuperação.

A

ERRADO

RAG precisa de contextualização. então não existe essa necessidade de reduzir contextualização. outra coisa errada no enunciado é a questão de acessar informações sem que haja uma api para isso.

O RAG (Retrieval-Augmented Generation) é uma técnica que combina modelos de linguagem (LLMs) com sistemas de recuperação de informações (como bancos de dados ou mecanismos de busca) para melhorar a qualidade das respostas geradas. No entanto, o LLM não consegue acessar informações externas dinamicamente sem integração prévia com sistemas de recuperação. O RAG exige justamente essa integração, onde o sistema de recuperação fornece informações relevantes ao LLM, que então as utiliza para gerar respostas contextualizadas.

Portanto, o RAG não reduz a necessidade de contextualizar prompts; pelo contrário, ele depende de uma integração explícita com sistemas de recuperação para acessar e utilizar informações externas de forma dinâmica.

Resposta: O item está incorreto.

Fonte: deepseek

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

No processamento de linguagem natural, para transformar texto bruto em um formato mais estruturado e padronizado, utilizam-se técnicas como a remoção de pontuação, a normalização dos dados, a tokenização e a eliminação de stop words.

A

CERTO

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

No treinamento de modelos generativos em deep learning, o modelo remove, gradualmente, ruído dos dados reais; em seguida, o modelo aprende a reverter esse processo, adicionando ruído aos ponchos para gerar dados semelhantes aos originais.

A

ERRADO

Nos modelos de difusão, o treinamento ocorre adicionando ruído progressivamente aos dados reais (imagens, por exemplo), transformando-os em puro ruído gaussiano. Em seguida, durante a geração, o modelo aprende a reverter esse processo, removendo o ruído gradualmente para gerar novos dados realistas.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

O Scrum diário, ou daily standup, é uma reunião de equipe de projeto, na qual é feita uma análise do progresso do dia anterior e são definidas ações para o dia em que ocorre referida reunião.

A

CERTO

Daily Scrum, também conhecido como “Daily Stand-up” ou “Daily Meeting”

A Reunião Diária do Scrum é um evento time-boxed de 15 minutos para o Time de Desenvolvimento. A Reunião Diária é realizada em todos os dias da Sprint. Nela o Time de Desenvolvimento planeja o trabalho para as próximas 24 horas. Isso otimiza a colaboração e a performance do time através da inspeção do trabalho desde a última Reunião Diária, e da previsão do próximo trabalho da Sprint.

[Guia Scrum - Versão 2020]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Na teoria do Scrum, o Lean Thinking é uma abordagem em que o conhecimento aplicado aos projetos e a tomada de decisão são oriundos da experiência das equipes.

A

ERRADO

O Scrum se baseia no empirismo e no lean thinking:

O empirismo afirma que o conhecimento vem da experiência e da tomada de decisões com base naquilo que é verdadeiro e conhecido (observado)

Já o Lean Thinking é uma espécie de estrutura mental (mindset) que permite reduzir o desperdício e se concentrar no essencial.

GUIA SCRUM 2020

Lean Thinking (ou Pensamento Enxuto) é uma filosofia de gestão focada em maximizar o valor para o cliente enquanto minimiza o desperdício. Originado no Sistema Toyota de Produção, ele se baseia em princípios como:

  1. Identificar valor (o que o cliente realmente quer).
  2. Mapear o fluxo de valor (entender o processo atual).
  3. Criar fluxo contínuo (eliminar gargalos).
  4. Estabelecer produção puxada (produzir conforme a demanda).
  5. Buscar a perfeição (melhoria contínua).

O objetivo é criar processos mais eficientes, ágeis e sustentáveis.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

O uso de tokenizadores subword permite que LLMs aprendam palavras fora do vocabulário de treinamento, otimizando a compreensão sem estar restrito a um único idioma.

A

CERTO

Os tokenizadores subword permitem que LLMs aprendam palavras novas e funcionem em vários idiomas, dividindo palavras em subunidades menores. Isso evita tokens desconhecidos, melhora a eficiência do modelo e facilita a generalização para diferentes línguas. Métodos como BPE, WordPiece e SentencePiece são amplamente usados em modelos como GPT e BERT.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

A aplicação da função de ativação softmax na camada de saída foi o fator determinante pela grande evolução da capacidade de visão computacional em redes neurais multicamadas.

A

ERRADO

A evolução da visão computacional em redes neurais não foi determinada apenas pelo softmax, mas pela introdução de redes convolucionais (CNNs), grandes conjuntos de dados (ImageNet), avanços em hardware (GPUs/TPUs) e técnicas como dropout e batch normalization. O softmax é útil na classificação, mas não foi o principal fator de progresso.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

A técnica TF-IDF majora a importância de um termo que aparece muitas vezes em um documento e poucas vezes nos outros documentos de um mesmo corpus.

A

CERTO

A técnica TF-IDF aumenta a importância de um termo que aparece muitas vezes em um documento, mas raramente nos outros documentos do corpus. Isso ajuda a destacar palavras relevantes e reduzir a influência de termos muito comuns.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly