Aula 15: Redução de dimensionalidade 1 - PCA Flashcards

1
Q

Redução de dimensionalidade

A

Dado um dataset com d features, busca-se aplicar uma transformação de forma a reduzir a quantidade de features (0 < k <= d).
Tal transformação deve reter o máximo de informação possível das features originais.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

ϕ e ϕ⁻¹

A

ϕ: comprimir
ϕ⁻¹: descomprimir (o que se tem é uma aproximação de x^i)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Motivação para a redução de dimensionalidade

A

Se houver muitas features o treinamento pode ser lento

Se d > 3 não é possível visualizar o dataset em um único gráfico

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Propriedades do PCA

A

Produz uma representação do dataset em baixa dimensionalidade. Para tanto, é encontrado uma sequência de k combinações lineares das variáveis.

As informações não usadas são perdidas.

Estruturas não lineares nos dados são esquecidos

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

z1

A

primeiro componente principal

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

ϕ_1 e ϕ_2

A

ϕ_1 é conhecido com loading vector do primeiro componente principal e indica sua direção.

ϕ_2 é ortogonal (perpendicular) à direção de ϕ_1.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

PCA: o valor de k

A

A sequência das k combinações lineares é construída de tal forma que a combinação j tem duas propriedades: tem variância máxima (pelo menos 99% da variância é retida) e não está correlacionada com as combinações anteriores.

O método do cotovelo é usado para estimar o valor de k.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Como encontrar os componentes principais?

A

Todos os componentes principais podem ser encontrados através da decomposição em valores singulares (SVD ou Single Value Decomposition)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

É assumido que cada feature…

A

É assumido que cada feature tem média zero, caso contrário pode-se performar a normalização média.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Desvantagem do PCA para visualização dos dados

A

Estruturas não lineares nos dados são negligenciados. Tais não linearidades podem ser relevantes para um agrupamento adequado dos pontos, pontos esses que são similares na representação em alta dimensionalidade e separação de pontos não similares

How well did you know this?
1
Not at all
2
3
4
5
Perfectly