HC 13.8: AI in de zorg Flashcards
waarom AI in de zorg?
- patronen herkennen op basis van veel data en daarmee de zorg verbeteren
- digitalisering van de maatschappij en de zorg (digitaal toegankelijk, steeds meer data)
- computers worden steeds sneller
- computer is beter in repetitieve taken en reproduceerbaarder
welk medisch specialisme zal in de toekomst het meeste invloed gaan ondervinden van nieuwe AI toepassingen?
vooral de specialismen die veel met beelden werken, want een heleboel algoritmes zijn heel goed in het werken met beeld.
dus denk aan radiologie, cardiologie, oogheelkunde, dermatologie
medische AI methodes die goedgekeurd zijn door de FDA (in USA):
- vooral veel tools voor de radiologie
- ook wel aardig deel voor anesthesiologie
- en ook wel voor cardiovasculair
AI is in te zetten voor verschillende zorgdomeinen en doelgroepen, zoals:
- preventie, leefstijlverbetering
- preventie, vroege opsporing
- diagnostiek
- behandeladvies
- monitoring
- doelgroep: hele populatie
- doelgroep: risicogroepen
- doelgroep: patiënt
- doelgroep: laboranten
- doelgroep: verpleegkundigen
- doelgroep: artsen
- doelgroep: managers
etc. etc.
als voorbeeld hebben we bijv de app Skinvision, waarmee je een plekje op de huid kan ‘scannen’ en dan vertelt de app, of hij aanraadt om naar een arts te gaan of dat er geen vervolgstappen nodig zijn.
hij doet dus geen uitspraken over of het bij een melanoom is, hij geeft alleen aan wat hij denkt dat je er mee moet doen.
- zo’n soort AI leert dit op basis van het zien van heel veel voorbeelden.
in dit geval zijn er dus gewoon heel veel plaatjes van plekken op de huid aan deze AI tool ‘gevoerd’ - maar daarnaast heb je ook het oordeel van de patholoog nodig, wat moet worden gevoerd aan die tool
wat heb je dus nodig voor het aanleren van het herkennen van huidtumoren door AI?
- heel veel voorbeelden, in de vorm van plaatjes
- een oordeel van de patholoog en het liefst nog van meerdere pathologen
Machine learning:
- je gaat daarbij naar een plaatje kijken, bijv van een plekje op de huid
- en dan ga je kijken wat je daaruit kan afleiden (hoe rond is het plekje, heeft het scherpe begrenzingen, welke kleur, regelmatige grenzen)
- dus gewoon allemaal visuele dingen van die plaatjes afleiden
- ## en dat dan ook in een computer programmeren, dus welke dingen kan je hier uit afleiden?
- dus machine learning eerst bedenken wat je allemaal uit een plaatje wil afleiden
- dan ga je dat programmeren
- en dan gaat een beeld algoritme al die kenmerken er uit trekken en al die kenmerken voer je dan aan je classificatie algoritme
- en die ga je dan trainen op basis van de labels/kenmerken
Deep learning:
- je laat een stap weg
- je gaat dus niet eerst zelf nadenken over wat de kenmerken zijn van een bepaalde laesie op de huid, maar je geeft gewoon het hele plaatje aan het algoritme
- je laat de stap: welke kenmerken kan ik zelf uit die plaatjes afleiden?
- je geeft dus gewoon meteen het plaatje en de labels
dus kort samengevat het verschil tussen machine learning en deep learning:
- machine: kenmerken afleiden uit het beeld
- deep: hele beeld aanbieden
je ziet dat door het aanbieden van het hele beeld, het algoritme veel krachtiger wordt.
het is belangrijk dat zo’n algoritme niet alleen binnen 1 ziekenhuis werkt, maar dat het op meerdere plekken/in meerdere ziekenhuizen toepasbaar is. je moet je algoritme dus altijd aanpassen op de data, want je wil dat je algoritme generaliseerbaar is, dat het ook goed werkt op ongeziene data.
je moet het algoritme niet ‘onder trainen’ maar ook niet ‘over trainen’
–> het moet gebalanceerd zijn
hoe kan je iets aan die generaliseerbaarheid doen?
- je haalt uit je oorspronkelijk dataset, een deel
- en dat deel voer je niet aan het algoritme
- je gebruikt dat deel dus niet om het algoritme te trainen
- op die manier heb je dus een stukje data achter de hand, die nieuw is en nog nooit door het algoritme is gezien
- je houdt dan deel achter de hand als een soort test dataset
- je gaat dus trainen op een deel van alle data en je gaat testen op een ander deel van de data
het is belangrijk om altijd kritisch te kijken naar het algoritme die wordt aangeboden. belangrijk om te kijken hoe dat algoritme getraind is. op welke data is het getraind? zit er een bias in de data? je kan daarbij denken aan:
- de invloed van de camera kwaliteit: dermascoop, mobiel?
- omstandigheden voor alle afwijkingen vergelijkbaar?
- zijn alel mogelijke afwijkingen, huidtypes gedekt?
je moet van te voren weten, dat er bij zo’n app die kijkt naar huidplekjes, er een bias in zit. want mensen met een donkere huidskleur hebben veel minder kans om bijv een melanoom te hebben, omdat hun huidskleur daar tegen beschermt.
je moet dus van te voren altijd goed bedenken welke bias er in een algoritme zit, op basis van de data die gebruikt is
oppassen voor bias:
mogelijke vragen:
- met welk doel zijn de data verzameld?
- hoe zijn de data verzameld?
- wat is de bron van de data?
- hoe betrouwbaar zijn de labels?