HC14 Text mining Flashcards

1
Q

welke vorm van ongestructureerde data wordt het meest gebruikt?

A

tekst data
nuttig omdat je alles gedetailleerd kan opschrijven
lastig dat het rommel, ruis en onduidelijkheid kan geven

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

wat is tekst?

A

een combinatie van karakters

woord informatie: bekende combinaties van karakters

tekst informatie: bekende combinaties en volgorde van woorden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

waarom is vrije tekst ontcijferen lastig voor een computer?

A

er moeten eerst patronen worden aangeleerd, omdat de computer zelf geen betekenis aan de tekst kan geven

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

wat is text mining

A

informatie automatisch uit tekst halen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

hoe werkt natural language processing en wat is het doel?

A

het is een pipeline van allerlei processen met als doel tekst omzetten in informatie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

wat doe je bij pre-processing van de tekst bij NLP?

A

je kan allerlei dingen doen, maar dit is niet per se nodig. afhankelijk van vraagstuk. er is mogelijk verlies van info hierdoor. het is het filteren/aanpassen van karakters om ruis te verminderen en pipeline te versnellen. bv kleine letters, geen accenten etc.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

wat doe je bij tekst splitsen/tokenization bij NLP?

A

je verhoogt de granulariteit.

Granulariteit verhogen

“Granulariteit” betekent hoe fijnmazig de tekst wordt opgesplitst.
In de zin bovenaan worden bepaalde letters en speciale tekens (zoals apostrof en punt) gemarkeerd, wat suggereert dat deze mogelijk aparte tokens kunnen zijn of invloed hebben op de segmentatie.
Tekst opsplitsen in tokens

Simpel:
Splitsen op basis van spaties en interpunctie (zoals komma’s en punten).
Speciale karakters (zoals het koppelteken of apostrof) kunnen ook apart als token worden behandeld.
Complex:
Gebruik van woordenboeken en getrainde modellen om betekenisvollere eenheden te vinden.
Subword- en karaktertokens worden gebruikt in geavanceerde taalmodellen zoals BERT of GPT om woorden efficiënter te verwerken.
Balans tussen snelheid en nauwkeurigheid

Rechts zie je een trade-off:
Snelle methodes (weinig geheugenverbruik) kunnen leiden tot meer fouten.
Langzamere methodes (die meer geheugen gebruiken) kunnen zorgen voor minder fouten, omdat ze beter omgaan met complexe taalkundige structuren.
Dit hangt af van hoeveel fouten acceptabel zijn en hoeveel rekenkracht beschikbaar is.
Kort samengevat:
Tokenization is een proces waarbij tekst wordt opgesplitst in kleinere eenheden. Simpele methodes gebruiken spaties en leestekens, terwijl geavanceerde methodes machine learning en subword tokens gebruiken. Er is een afweging tussen snelheid en nauwkeurigheid bij de keuze van een tokenization-strategie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

wat doe je bij transformation bij NLP?

A

verminderen irrelevante informatie en filteren van woorden of woordcombinaties.
je kan woorden eruit filteren door bv een blacklist met stopwoorden en woorden erin houden met een whitelist. of je kan naar de frequentie kijken: drempelwaardes zetten en woorden met hele hoge of lage frequentie eruit halen omdat deze vaak weinig informatie bevatten

ook verminderen variabiliteit en dimensionaliteit. door spellingscorrectie en door stemming of lemmatization. dus woorden naar stam doen op basis van regels (snel en fout gevoelig) of woord naar lemma op basis van woordenboek (langzamer)

ook kan je woordcombinaties die vaak samen voorkomen als 1 woord halen

ook de-identificatie bv naam vervangen door [name] of neppe naam

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

wat kan je bij transformation met taalkundige analyse doen?

A

Part-of-speech tagging
* Filteren op woordsoorten:
* zelfstandig/bijvoegelijk naamwoord, werkwoord,
bijwoord, lidwoord, voegwoord, voornaamwoord, …
Parsing (Zinsontleding)
* Filteren op woord relatie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

wat doe je bij vectorization bij nlp?

A

tekst naar gestructureerde data omzetten. numerieke vector per document/patient/observatie/ meerder vectors in matrix of tabel

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

hoe werkt bag-of-words bij vectorization?

A

kolom met alle woorden, rijen met alle patients, en dan 0 of 1 invullen als het woord erin voorkomt.
nadeel: veel kolommen en veel 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

hoe werkt named entities bij vectorization?

A

herkent (nuttige) klinische entiteiten: ziektes, medicatie, verrichting en die gebruik je vervolgens in je matrix

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

wat doe je bij een combi van named entity recognition en named entity linking?

A

herkennen van gestandaardiseerde concepten: je koppelt de entiteiten dan aan de gestandaardizeerde code hiervoor
probleem: je moet rekening houden met de context, bv een ontkenning, specificatie, temporaliteit, etc.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

hoe werkt word embeddings bij vectorization?

A

je laat een neural network model alle relaties tussen woorden leren: de semantische relatie tussen woorden is gebaseerd op hun gebruik in een bepaalde context. woorden komen vaak in dezelfde omgeving voor als andere woorden met dezelfde betekenis

met deze embeddings kan je een soort samenvatting van een document maken

ook kan je spellingscorrectie doen/afkortingen vervangen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

is er 1 manier om natural language processing te doen?

A

nee, afhankelijk van welke info je wil gebruiken, hoe veel detail bewaard moet blijven, hoeveel data en computerkracht je hebt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly