nlp Flashcards

1
Q

Weizenbaum, creador de ELIZA

A

ELIZA fue una asistente online programada mediante detección de patrones (aka RegEx) en los años sesenta en el MIT.

Primer bot conversacional de la historia.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Corpora

A

Se entiende por corpus (o en plural “corpora”) a cualquier colección de texto o voz que puede ser leído por una computadora.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Tokenización

A

La tokenización consiste en dividir un fragmento de texto en partes más pequeñas. Ya sea dividir el párrafo en oraciones, oraciones en palabras o palabras en caracteres.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Byte-Pair encoding (BPE)

A

https://huggingface.co/learn/nlp-course/chapter6/5?fw=pt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Stemming y Lematización

A

https://web.stanford.edu/~jurafsky/slp3/2.pdf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Algoritmo de Porter

A

https://web.stanford.edu/~jurafsky/slp3/2.pdf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Minimum edit distance

A

https://web.stanford.edu/~jurafsky/slp3/2.pdf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Discriminative model

A

P(y|x), decision boundary

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Generative model

A

Estimate P(x|y) to deduce P(y|x), probability distributions of the data

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Naive Bayes (Multinomial NB)

A

https://web.stanford.edu/~jurafsky/slp3/4.pdf

https://web.stanford.edu/~jurafsky/slp3/slides/4_NB_Apr_4_2021.pdf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Regresión logística + multinomial

A

https://web.stanford.edu/~jurafsky/slp3/slides/5_LR_Apr_7_2021.pdf

https://web.stanford.edu/~jurafsky/slp3/5.pdf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

TF-IDF

A

https://github.com/LCaravaggio/NLP/blob/main/02_b%C3%A1sicas/Un_primer_TFIDF.ipynb

https://web.stanford.edu/~jurafsky/slp3/6.pdf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

One hot encoding

A

+ Hay relaciones entre las palabras que podemos perder si las modelamos por conteo de apariciones (i.e polisemia, homonimia, sinonimia, antonimia, etc)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Semántica distribucional

A

Entender el significado de las palabras de acuerdo a su contexto.
Usamos un largo conjunto de instancias donde aparezca una palabra para intentar ver con qué palabras se relaciona más

Es la solucion del one-hot-encoding

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Microaverage

A

En el microaverage, reunimos las decisiones de todas las clases en una única matriz de confusión y, a continuación, calculamos la precision y la recall a partir de esa tabla.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Macroaveraging

A

En el macroaveraging, calculamos la performance para cada clase y, a continuación, calculamos la media de todas las clases.

17
Q

Matriz de confusión

A

https://docs.google.com/presentation/d/1tqJ_LqQLmSWZFG1XCoSaZCCqHRNc4tfYvqRNvqPrsNY/edit#slide=id.g26018375f7b_0_68

18
Q

F-Score

A

https://docs.google.com/presentation/d/1tqJ_LqQLmSWZFG1XCoSaZCCqHRNc4tfYvqRNvqPrsNY/edit#slide=id.g26018375f7b_0_68

19
Q

Similitud coseno

A

https://web.stanford.edu/~jurafsky/slp3/6.pdf

cosine(v, w) = v · w / |v||w|

20
Q

Pointwise Mutual Information

A

https://web.stanford.edu/~jurafsky/slp3/6.pdf (6.6)

21
Q

CBOW y Skip-Gram

A

https://www.youtube.com/watch?v=ERibwqs9p38&list=PL3FW7Lu3i5Jsnh1rnUwq_TcylNr7EkRe6&index=2

https://arxiv.org/pdf/1301.3781.pdf

22
Q

Word2Vec

A

https://web.stanford.edu/~jurafsky/slp3/6.pdf (6.8)

23
Q

fastText

A

https://fasttext.cc/

24
Q

GloVe

A

https://www.youtube.com/watch?v=ASn7ExxLZws&list=PL3FW7Lu3i5Jsnh1rnUwq_TcylNr7EkRe6&index=3

25
Q

backpropagation

A

https://web.stanford.edu/~jurafsky/slp3/7.pdf

https://docs.google.com/presentation/d/1mlLOuUmNuMGRDf2r8QDFLxyAadfsfPdpFaA9lEcRCJ8/edit#slide=id.g2287ef4c2f3_1_7

26
Q

Pooling

A

https://web.stanford.edu/~jurafsky/slp3/7.pdf

27
Q

Padding

A

Padding es una función de Keras que me sirve para convertir los datos en una matriz: https://www.tensorflow.org/api_docs/python/tf/keras/utils/pad_sequences

28
Q

Dropout

A

https://web.stanford.edu/~jurafsky/slp3/7.pdf

29
Q

Stochastic Gradient Descent

A

Una vez que podemos calcular el gradiente de la pérdida, optimizamos nuestros parámetros con descenso del gradiente.

Stochastic Gradient Descent: en vez de calcular el gradiente sobre TODO el dataset, vamos a calcularlo de a lotes (batches) de pequeño tamaño, usualmente 16/32. Eso va a permitirnos hacer más optimizaciones y que tampoco sean tan inestables como con un único ejemplo.

Luego de procesar cada batch, actualizamos los parámetros (optimization step). Al proceso de recorrer todo el dataset se le llama época (epoch).

PyTorch entrega los lotes a nuestro modelo mediante DataLoaders