Engenharia de Software Flashcards
As redes neurais convolucionais são uma classe de redes neurais artificiais projetadas para processar dados sequenciais, como texto ou áudio, utilizando camadas convolucionais que aplicam filtros para prever, diretamente, a saída final, isto é, sem extrair características intermediárias.
ERRADO
Errado.
As redes neurais convolucionais (Convolutional Neural Networks, CNNs) são projetadas principalmente para processar dados espaciais ou estruturados, como imagens e vídeos, e não são projetadas especificamente para dados sequenciais, como texto ou áudio.
Além disso, as CNNs funcionam extraindo características intermediárias a partir das camadas convolucionais. Esses recursos são processados progressivamente em camadas sucessivas para identificar padrões de diferentes níveis de complexidade antes de chegar à camada final, que realiza a predição ou classificação.
Dados sequenciais, como texto ou áudio, são mais comumente processados por redes neurais recorrentes (RNNs) ou variantes modernas como LSTMs e Transformers.
As CNNs são projetadas para imagens, não para dados sequenciais como texto ou áudio. Além disso, elas extraem características intermediárias antes de prever a saída final. Para sequências, redes como RNNs ou Transformers são mais apropriadas.
As redes neurais feedforward processam dados de entrada até a saída em uma única direção, passando por camadas ocultas, sem ciclos, e são amplamente aplicadas em tarefas supervisionadas, como classificação e regressão.
CERTO
Redes neurais feedforward são um dos tipos mais simples e comuns de redes neurais artificiais. Elas são chamadas assim porque a informação flui em apenas uma direção: da camada de entrada, passando pelas camadas ocultas (se houver), até a camada de saída, sem ciclos ou loops.
No processo de inferência, o LLaMA utiliza decodificação paralela em vez de decodificação sequencial, gerando todos os tokens simultaneamente, sem depender do contexto anterior, o que elimina a necessidade de otimizações como layer-wise quantization.
ERRADO
Os modelos LLaMA (Large Language Model Meta AI) são baseados em transformers auto-regressivos, o que significa que eles geram texto sequencialmente, token por token, e cada novo token é condicionado aos tokens anteriores. Esse processo é chamado de decodificação auto-regressiva, e não paralela.
A decodificação paralela (como mencionada na questão) seria um processo em que todos os tokens são gerados simultaneamente, o que não é compatível com a arquitetura auto-regressiva do LLaMA. Modelos como o LLaMA dependem do contexto anterior para gerar a próxima palavra de forma coerente.
Além disso, otimizações como layer-wise quantization ainda são úteis para reduzir o consumo de memória e melhorar a eficiência computacional desses modelos, mesmo com a decodificação sequencial.
Portanto, a resposta correta é:
✅ Errado
O RAG (retrieval-augmented generation) reduz a necessidade de contextualizar prompts, pois o LLM, sozinho, consegue acessar, dinamicamente, informações externas sem qualquer integração prévia com sistemas de recuperação.
ERRADO
RAG precisa de contextualização. então não existe essa necessidade de reduzir contextualização. outra coisa errada no enunciado é a questão de acessar informações sem que haja uma api para isso.
O RAG (Retrieval-Augmented Generation) é uma técnica que combina modelos de linguagem (LLMs) com sistemas de recuperação de informações (como bancos de dados ou mecanismos de busca) para melhorar a qualidade das respostas geradas. No entanto, o LLM não consegue acessar informações externas dinamicamente sem integração prévia com sistemas de recuperação. O RAG exige justamente essa integração, onde o sistema de recuperação fornece informações relevantes ao LLM, que então as utiliza para gerar respostas contextualizadas.
Portanto, o RAG não reduz a necessidade de contextualizar prompts; pelo contrário, ele depende de uma integração explícita com sistemas de recuperação para acessar e utilizar informações externas de forma dinâmica.
Resposta: O item está incorreto.
Fonte: deepseek
No processamento de linguagem natural, para transformar texto bruto em um formato mais estruturado e padronizado, utilizam-se técnicas como a remoção de pontuação, a normalização dos dados, a tokenização e a eliminação de stop words.
CERTO
No treinamento de modelos generativos em deep learning, o modelo remove, gradualmente, ruído dos dados reais; em seguida, o modelo aprende a reverter esse processo, adicionando ruído aos ponchos para gerar dados semelhantes aos originais.
ERRADO
Nos modelos de difusão, o treinamento ocorre adicionando ruído progressivamente aos dados reais (imagens, por exemplo), transformando-os em puro ruído gaussiano. Em seguida, durante a geração, o modelo aprende a reverter esse processo, removendo o ruído gradualmente para gerar novos dados realistas.
O Scrum diário, ou daily standup, é uma reunião de equipe de projeto, na qual é feita uma análise do progresso do dia anterior e são definidas ações para o dia em que ocorre referida reunião.
CERTO
Daily Scrum, também conhecido como “Daily Stand-up” ou “Daily Meeting”
A Reunião Diária do Scrum é um evento time-boxed de 15 minutos para o Time de Desenvolvimento. A Reunião Diária é realizada em todos os dias da Sprint. Nela o Time de Desenvolvimento planeja o trabalho para as próximas 24 horas. Isso otimiza a colaboração e a performance do time através da inspeção do trabalho desde a última Reunião Diária, e da previsão do próximo trabalho da Sprint.
[Guia Scrum - Versão 2020]
Na teoria do Scrum, o Lean Thinking é uma abordagem em que o conhecimento aplicado aos projetos e a tomada de decisão são oriundos da experiência das equipes.
ERRADO
O Scrum se baseia no empirismo e no lean thinking:
O empirismo afirma que o conhecimento vem da experiência e da tomada de decisões com base naquilo que é verdadeiro e conhecido (observado)
Já o Lean Thinking é uma espécie de estrutura mental (mindset) que permite reduzir o desperdício e se concentrar no essencial.
GUIA SCRUM 2020
Lean Thinking (ou Pensamento Enxuto) é uma filosofia de gestão focada em maximizar o valor para o cliente enquanto minimiza o desperdício. Originado no Sistema Toyota de Produção, ele se baseia em princípios como:
- Identificar valor (o que o cliente realmente quer).
- Mapear o fluxo de valor (entender o processo atual).
- Criar fluxo contínuo (eliminar gargalos).
- Estabelecer produção puxada (produzir conforme a demanda).
- Buscar a perfeição (melhoria contínua).
O objetivo é criar processos mais eficientes, ágeis e sustentáveis.
O uso de tokenizadores subword permite que LLMs aprendam palavras fora do vocabulário de treinamento, otimizando a compreensão sem estar restrito a um único idioma.
CERTO
Os tokenizadores subword permitem que LLMs aprendam palavras novas e funcionem em vários idiomas, dividindo palavras em subunidades menores. Isso evita tokens desconhecidos, melhora a eficiência do modelo e facilita a generalização para diferentes línguas. Métodos como BPE, WordPiece e SentencePiece são amplamente usados em modelos como GPT e BERT.
A aplicação da função de ativação softmax na camada de saída foi o fator determinante pela grande evolução da capacidade de visão computacional em redes neurais multicamadas.
ERRADO
A evolução da visão computacional em redes neurais não foi determinada apenas pelo softmax, mas pela introdução de redes convolucionais (CNNs), grandes conjuntos de dados (ImageNet), avanços em hardware (GPUs/TPUs) e técnicas como dropout e batch normalization. O softmax é útil na classificação, mas não foi o principal fator de progresso.
A técnica TF-IDF majora a importância de um termo que aparece muitas vezes em um documento e poucas vezes nos outros documentos de um mesmo corpus.
CERTO
A técnica TF-IDF aumenta a importância de um termo que aparece muitas vezes em um documento, mas raramente nos outros documentos do corpus. Isso ajuda a destacar palavras relevantes e reduzir a influência de termos muito comuns.