Artificial intelligence in de zorg
Artificial intelligence in de zorg
Artificial intelligence (AI) is een veelbelovende technologie, en een veelgehoorde term in de gezondheidszorg. Er wordt veel gesproken over de potentie ervan, toch zien we nauwelijks concrete toepassingen van AI in de Nederlandse (en internationale) zorg. Het LUMC wil daar verandering in brengen.
Wij zijn CAIRELab - Clinical AI Implementation and Research Lab. Wij richten ons op de implementatie en waardebepaling van AI in de medische praktijk. De interdisciplinaire samenwerking tussen onder andere zorgverlener, data scientist en onderzoekers zorgt voor de toepassing van waardevolle AI. Dat doen we vaak zelf, en als het kan ook met partners.
AI & het LUMC
AI & het LUMC
In het LUMC geloven we dat kunstmatige intelligentie (AI) een waardevolle bijdrage kan leveren aan waardegedreven zorg. Enerzijds door een betere zorgervaring voor patiënten en medewerkers, anderzijds door betere klinische uitkomsten. Daarom zetten we stappen in het toepassen van verschillende vormen van AI, van voorspellingsmodellen voor ziektebeelden tot beeld- en spraakherkenning voor het automatiseren van repetitieve taken, tot het inzichtelijk maken van complexe stuurinformatie.
Op deze website delen wij kennis en ervaringen op het gebied van AI, technologie en andere vormen van digitale innovatie. Door het delen van die kennis en ervaringen, bereiken we sneller ons doel: een nóg betere zorg in Nederland.
We zien onszelf als een innovator en een doener. We passen technologie toe in het zorgproces, en we leren door te doen. Dat gebeurt uiteraard op verantwoorde wijze, waarbij de medisch professional altijd betrokken is en de leiding heeft.

Projecten en achtergrond
-
Projectomschrijving: Voorspellen van migraine met AI
Door: Hermes Spaink en Gisela Terwindt
Kan je wat meer vertellen over het project?
Migraine is een zeer beperkende neurologische aandoening die vaak resulteert in ernstige hoofdpijn. Deze hoofdpijn komt in aanvallen en de onvoorspelbaarheid van deze migraine aanvallen is een van de grootste klachten bij patiënten. We weten inmiddels dat er bepaalde factoren zijn die een migraine aanval kunnen uitlokken genaamd triggers. Dit kunnen zowel interne triggers zijn, zoals bijvoorbeeld hormonale schommelingen, als externe triggers zijn, zoals bepaalde voeding of het weer. Het verschilt alleen erg per patiënt en ook binnen patiënten welke triggers een rol spelen en daarmee leiden tot een migraine aanval. We gebruiken daarom nu technieken zoals Artificiële Intelligentie (AI) en Machine Learning (ML) om deze aanvallen wel te kunnen voorspellen.
Hoe werkt dit dan?
Op basis van hoofdpijn data verzameld met ons unieke elektronische dagboek (E-Diary) maken we modellen die aan de hand van triggers van dag op dag migraine voorspellen. Deze modellen ‘leren’ wanneer welke (combinaties van) triggers er voor zorgen dat een migraine aanval uitgelokt wordt. We gebruiken hiervoor multi-view recurrente neurale netwerken (MV-RNNs) die ervoor zorgen dat de heterogeniteit en het tijdelijke aspect van de data optimaal worden benut. De modellen worden vervolgens gepersonaliseerd zodat ze voor iedere patiënt-specifiek werken.
Waarom is dit belangrijk?Dit is belangrijk om patiënten meer controle te geven over hun aandoening. Zo kan op basis van de modellen een persoonlijk profiel worden gegenereerd over welke triggers relevant zijn. Dit kan uiteindelijk de kwaliteit van leven bevorderen en (overmatig) medicatie gebruik terugdringen.
-
Tussen kliniek en start-up: PhD onderzoek naar de toepassing van AI in postoperatieve zorg
Door: Siri van der Meijden
Bij het CAIRELab ontwikkelen we zelf AI-modellen, maar doen we ook aan co-creatie of schaffen we bestaande modellen aan. Siri van der Meijden heeft een dubbel-aanstelling en vertelt in deze blog over haar rol in het co-creëren van AI-modellen.
Nadat ik voor mijn master Technical Medicine op de Intensive Care (IC) onderzoek had gedaan naar het voorspellen van heropname op de IC door middel van AI wist ik zeker dat ik aan de slag wilde in dit innovatieve veld. Maar in wat voor functie? Zowel in het ziekenhuis als Technisch Geneeskundige of daarbuiten als data scientist bij een start-up sprak mij heel erg aan. Toen kwam er een unieke kans op mijn pad: ik kon aan de slag als PhD-kandidaat in het LUMC en de start-up Healthplus.ai in Amsterdam. In deze gecombineerde positie kan ik mijn medische en technische kennis goed gebruiken in de ontwikkeling van onze tool voor het voorspellen van postoperatieve infecties (PERISCOPE). Daarnaast is het ontzettend motiverend om onderzoek te doen naar de klinische validatie en uiteindelijk implementatie van een voorspellend AI-algoritme en de meer bedrijfsmatige kanten die daarbij komen kijken.
Want zoals al vaak is beschreven is de hype rondom AI in het ziekenhuis groot, maar is het aantal implementaties (buiten de radiologie) schaars. Er komen dan ook veel meer zaken kijken bij het valideren en implementeren van een AI-tool dan alleen het maken van een goed voorspellend algoritme. Gelukkig worden er steeds meer handvatten gepubliceerd om dit in goede banen te leiden, zoals de Leidraad AI. Eén van de grote obstakels voor start-ups is het gecertificeerd krijgen van het product onder de Medical Device Regulation (MDR). Een AI-tool moet nu niet alleen veilig zijn, maar ook aangetoond klinisch effectief voor het de markt op mag, wat zorgt voor jaren aan werk voordat er een CE-keurmerk op mag.
Gelukkig komen we met het hele team steeds weer een stapje verder, en werken we nauw samen met verschillende ziekenhuizen in Europa. Het is ontzettend leuk om te merken hoe enthousiast chirurgen zijn als we ze spreken over ons algoritme om postoperatieve infecties te voorspellen. Infecties zijn een groot klinisch probleem waar elke chirurg mee te maken krijgt en waarvoor een voorspellend AI-algoritme van toegevoegde waarde kan zijn in de tijdige opsporing van infecties. Maar hoe dit in de huidige workflow past, zodat de arts echt iets met de voorspelling kan en uiteindelijk de patiënt ervan profiteert, is een grote uitdaging. Een ogenschijnlijk simpele vraag als “Hoe bepalen we aan de hand van data of een patiënt een infectie heeft gehad?” vereist grondig onderzoek in literatuur, klinische werkwijzen en databases. Daarnaast ben ik bij Healthplus.ai onderdeel van het datascience team. Dit jaar werken we aan de verbetering van ons algoritme en de prospectieve, interne en externe validatie van PERISCOPE. Uiteindelijk werken we toe naar een klinische trial waarmee we de impact op kosten en patiëntuitkomsten gaan onderzoeken.
Ik geloof dat AI uiteindelijk van enorme meerwaarde gaat zijn in de zorg, maar dat we de arts en patiënt in het hele proces centraal moeten stellen. De hype rondom AI is groot en als de verwachtingen niet worden waargemaakt zal dit de acceptatie in de kliniek bemoeilijken. Door goed in gesprek te blijven met clinici, en onderzoek te doen naar de beste validatie en implementatie methoden voor PERISCOPE, hoop ik de komende drie jaar veel kennis op te doen in dit leuke en snel veranderende veld.
-
Projectomschrijving: Doorstroming op de SEH
Door: Wouter Raven & Laurens Schinkelshoek
Kan je wat meer vertellen over het project?
Op een Spoedeisende Hulp (SEH) krijgen patiënten een beoordeling, behandeling en uiteindelijk een bestemming; ziekenhuis of thuis. Op een SEH moet er altijd plek zijn voor nieuwe patiënten die acuut ziek zijn. Daarom is een goede doorstroom van SEH patiënten binnen het ziekenhuis of naar huis toe heel belangrijk. In ons project kijkt een AI algoritme mee met de dokter om vroeg in het proces te helpen te bepalen welke patiënten moeten worden opgenomen en welke patiënten naar huis kunnen worden ontslagen, zodat de doorstroom naar bestemming eerder en met meer zekerheid kan worden ingezet.
Hoe werkt dit dan?
Het model heeft op basis van de SEH registraties van de afgelopen 10 jaar geleerd te herkennen welke patiënten opgenomen worden en welke ontslagen. Hiervoor zijn gegevens gebruikt zoals de geregistreerde bloeddruk, hartslag, leeftijd of ingangsklacht, maar ook de medische voorgeschiedenis. Daardoor kan het model nu met de gegevens van nieuwe patiënten die op de SEH aankomen uitrekenen wat de kans is dat de patiënten opgenomen of ontslagen worden. Op deze manier is het voor veel patiënten vrijwel direct duidelijk wat hun uiteindelijke bestemming zal zijn.
Waarom is dit belangrijk?
Het kost een dokter veel tijd én ervaring om per patiënt te beslissen of deze uiteindelijk moeten worden opgenomen in het ziekenhuis of dat ze naar huis mogen. Voor een goede inschatting moet de arts de medische voorgeschiedenis doorpluizen en op uitslagen van onderzoeken wachten, óf veel ervaring hebben. Ons AI model kan dokters ondersteunen door dit heel snel en voor veel patiënten tegelijk de bestemming te bepalen om zo de doorstroom van SEH patiënten te verbeteren. Bij een betere doorstroom worden patiënten sneller opgenomen of ontslagen. Dat is goed voor de patiënt en verlaagt de werkdruk voor de SEH medewerkers.
Uitgelicht
Uitgelicht
€2.500.000 voor eerder herkennen en omkeren van chronische reumatoïde artritis met behulp van AI
Onderzoekers van het LUMC hebben samen met het Karolinska-instituut (Solna, Zweden) een subsidie van €2,5 miljoen verkregen voor onderzoek naar de inzet van AI-gedreven e-health bij het vroegtijdig herkennen van Reumatoïde artritis (RA). Met vroegtijdig herkennen is het omkerend behandelen van RA mogelijk. De digitale hulpmiddelen worden door risicogroepen zelf gebruikt om RA op te sporen. De subsidie wordt verleend door EIT Health.
Op dit moment vindt in Nederland nauwelijks identificatie van risicogroepen of vroege symptomen van RA plaats. Terwijl vroegtijdige opsporing van RA belangrijk is voor het ziekteverloop. Als gevolg van medische vooruitgang is gepersonaliseerde preventie voor risicogroepen mogelijk. We begrijpen beter welke symptomen en biologische kenmerken RA indiceren. Bovendien begrijpen we de invloed van leefstijl op RA beter. Vroegtijdige opsporing en behandeling van opkomende RA kan de ziekte terugdringen tot een staat waarin geen medicatie meer nodig is.
Het Zweedse Karolinska-instituut leidt het onderzoek naar de effectiviteit van de kunstmatige intelligentie. In het LUMC wordt de praktische toepassing van de e-health en kunstmatige intelligentie geleid en onderzocht.
Als onderdeel van het onderzoek worden mensen met symptomen in de gelegenheid gesteld om met behulp van e-health de symptomen beter te meten. Met behulp van kunstmatige intelligentie wordt de data uit de e-health geanalyseerd. Met behulp van deze analyse worden deelnemers met een hoog risico op RA geïdentificeerd. Aanvullend wordt de e-health ingezet om een gezonde leefstijl te stimuleren, waarmee het ziektebeloop van RA milder wordt.
“Uiteindelijk willen we de zorg van deze chronische ziekte veranderen. Het huidige vooruitzicht voor patiënten is een lange behandeling, maar bij vroegtijdige opsporing kunnen we de ziekte terugdringen en zelfs medicijn-vrij beperken”, vertelt dr. Rachel Knevel, reumatoloog en hoofdonderzoeker namens het LUMC. “In het LUMC weten we al veel over het implementeren van AI in de zorg. Die kennis kunnen we gebruiken om dit soort trajecten sneller te doorlopen. Een belangrijk voordeel voor ons als onderzoekers, maar ook voor de patiënt.”
Toegepaste e-health
- Online decision support system (rheumatic? https://rheumatic.elsa.science/nl/),
- Elsa app (https://www.elsa.science/en/),
- Home blood samples ThermoFisher Scientific

Blog en in het nieuws
-
Blog: Komt een chatbot in de collegebanken
Hoe kunnen we omgaan met een chatbot waarmee studenten met één druk op de knop opdrachten kunnen laten maken? In deze blog onderzoek ik mijn ongemak bij het nakijken van werkstukken nu ChatGPT vrij beschikbaar is. In dat ongemak schuilt ook een weg voorwaarts.
Introductie: technologie als (lach)spiegel
Stel je zit in de trein. Tegenover je kijkt iemand naar het beeldscherm van een smartphone. De camera van de telefoon is op jou gericht. Bedoeld of onbedoeld. Je weet niet of de camera aan of uit staat. Als je ziet dat de camera op jou gericht is, kan de vraag bij je opkomen: zit mijn coupégenoot te lezen of word ik gefilmd? (Of allebei?) Dit is een wat ouder voorbeeld vaneen bekend verschijnsel. De nieuwe mogelijkheden die een technologie biedt, dwingen ons tot nadenken. Over wat we belangrijk vinden, maar ook over hoe we ons tot de technologie en tot elkaar (willen) verhouden.
Technologie werkt in die zin als een spiegel. Het confronteert ons met onze eigen blik. Als je bij het lezen van het treinvoorbeeld denkt ‘ik wil niet zomaar gefilmd kunnen worden’, dan vind je privacy waarschijnlijk belangrijk.
We zien echter niet alleen onze eigen blik als we in de spiegel kijken die de technologie ons voorhoudt. Technologie is niet neutraal. Ineens kunnen we denken dat iemand ons mogelijk stiekem zit te filmen. Wij denken dat dan weliswaar, maar dat we dat kunnen denken komt doordat de camera van een smartphone automatisch op ons gericht kan zijn als een ander zit te lezen. Door de lens van een technologie naar de wereld kijken heeft daardoor ook iets van het kijken in een lachspiegel – het vervormt onze blik, of kleurt deze in elk geval. Door de nieuwe mogelijkheden die een technologie biedt krijgen we er als het ware een extra perspectief bij.
ChatGPT
Soms is dat extra perspectief even schrikken. Dat overkwam mij toen ik aan de vooravond van het nakijken van een stapel werkstukken nadacht over de mogelijkheden van een recente chatbot: ChatGPT*. Met deze vrij beschikbare chatbot kun je in een handomdraai vloeiende teksten over uiteenlopende onderwerpen maken. Met bronverwijzingen, zonder spelfouten. Overal wordt met ChatGPT geëxperimenteerd. Bijvoorbeeld in de media, in de kunst en in het onderwijs. Zo halen docenten opdrachten voor studenten door de chatbot om te zien wat voor teksten dit oplevert. Ook studenten kunnen er gebruik van maken. Of LUMC studenten dat doen, weten we niet.
De beschikbaarheid van ChatGPT heeft ook consequenties voor het nakijken van de werkstukken. Het wordt in de eerste plaats ongemakkelijker. Dat ongemak heeft twee bronnen.
Alles kan ineens verdacht zijn
De eerste bron van ongemak is dat ongewild bij elk werkstuk de vraag naar voren komt of het geschreven is door een mens of door ChatGPT. Vooralsnog is het namelijk niet goed mogelijk om met zekerheid te bepalen of een tekst door een mens gemaakt is of door ChatGPT. Plagiaat checkers werken niet, want vrijwel elke tekst is uniek. Een digitaal watermerk is in de maak, maar bestaat dus nog niet. Doordat het niet goed mogelijk is om op basis van de tekst zelf onderscheid te maken tussen mensenwerk en een product van ChatGPT, kunnen ook vertrouwde signalen over kennis en kunde van een student niet vanzelfsprekend meer op dezelfde manier geïnterpreteerd worden. Een tekst zonder spelfouten zou ik vóór ChatGPT vooral zien als teken van een zeer taalvaardige student. Nu kan het ook een indicatie zijn dat de tekst door ChatGPT is gemaakt. En zou ik een tekst met enkele of veel taalfouten eerst uitsluitend zien als ruimte voor verbetering, nu kunnen taalfouten ook bewust zijn toegevoegd om een ChatGPT tekst ‘menselijker’ te laten lijken (die maken meer fouten). Wat eerder een handvat was, kan nu dus verdacht zijn. Die blik, waarbij alles ineens verdacht kan zijn, vind ik erg ongemakkelijk. Temeer omdat er vooralsnog geen aanwijsbare aanleiding is om te denken dat LUMC studenten massaal frauderen, of daartoe eerder geneigd zouden zijn nu ChatGPT vrij beschikbaar is.
Onduidelijk of leerdoelen, -activiteiten en toetsing nog voldoende aansluiten
Dat brengt me bij de tweede bron van ongemak bij het nakijken van de werkstukken. Om dat te kunnen plaatsen is relevant wanneer ChatGPT beschikbaar kwam, in november vorig jaar. Dat was enige tijd vóór de bewuste werkstukken ingeleverd moesten worden. Studenten hadden in theorie dus tijd om ChatGPT een werkstuk te laten maken. Het was ook geruime tijd nadat de leerdoelen en de toetsvorm voor het betreffende vak zijn vastgelegd.
Wie onderwijs ontwerpt voelt de tweede bron van ongemak al aankomen: als we niet (kunnen) weten of een werkstuk geschreven is door een mens of door ChatGPT, hoe weten we dan of nog voldoende sprake is van de beoogde alignment, het doelbewust op elkaar laten aansluiten van leerdoelen, leeractiviteiten en toetsing? Kort en krachtig: hoe weten we dan wat iemand heeft geleerd? Bijvoorbeeld of iemand heeft geleerd om relevante ethische en juridische argumenten te identificeren en deze op een casus ‘toe te passen'?
Bij de beoordeling van werkstukken gaat het primair om inhoudelijke leerdoelen. Maar door ChatGPT weet je bijvoorbeeld ook niet of het bij de beoordeling van een werkstuk zin heeft om grammaticale opmerkingen te maken. Iemand die bewust taalfouten heeft toegevoegd weet immers al dat het fouten zijn. En bij complimenten voor een perfect essay is dan de vraag wie eigenlijk lof krijgt of verdient.
Samen zoeken naar mogelijkheden om kansen te benutten en risico’s te beperken
Het gebruik van ChatGPT staat op gespannen voet met een opdracht waarvan één van de leerdoelen is om te laten zien dat je zelf een betoog kunt schrijven. Dat zou een vorm van bedrog zijn. Toch is dit geen pleidooi tegen elk gebruik van ChatGPT in het onderwijs. Ook ben ik vooralsnog niet zo bang dat LUMC studenten de chatbot collectief als cheatbot zullen gaan gebruiken. Ik kan me zelfs voorstellen dat producten van ChatGPT op een nuttige manier ingezet kunnen worden in onderwijs en onderzoek, bijvoorbeeld door er kritisch op te reflecteren. Punt is wel: de simpele mogelijkheid dat iedereen –inclusief studenten – gebruik kan maken van ChatGPT, roept fundamentele vragen op over hoe we onderzoek, onderwijs en toetsing zo kunnen inrichten dat leerdoelen, evenals professionele en wetenschappelijke integriteit blijvend gerealiseerd kunnen worden. Vragen waar niemand nog echt een antwoord op lijkt te hebben. Ook ik niet.
Het vinden van antwoorden op die vragen lijkt me bij uitstek een gezamenlijke opgave voor o.a. studenten, docenten, onderzoekers, leidinggevenden, bestuurders, technici en onderwijs- en onderzoeksinstellingen.
André Krom - Ethiek en Recht van de Gezondheidszorg
* GPT staat voor Generative Pre-trained Transformer. ChatGPT is een chatbot die in november 2022 werd gelanceerd door Open AI en is gebaseerd op grote taalmodellen.
** link Pixabay -
https://pixabay.com/nl/illustrations/robot-kunstmatige-intelligentie-2167836/ -
Blog: Geneeskunde in de Golden State
Wat is de bijnaam van Californië? Juist ja, Golden State. En van Ohio? Potato State. Wij weten dergelijke zaken omdat het verkeer van San Francisco in bepaalde delen van de stad niet vooruit te branden is. Op dat soort momenten biedt de Wikipedia pagina van de USA een welkome afleiding. Een maand geleden verhuisden wij naar de Bay Area om voor een halfjaar onderzoek te doen in samenwerking met het Boussard Lab van de Stanford Universiteit. Het regionale verkeer biedt een prachtige metafoor voor onze werkzaamheden hier: het is rennen of stilstaan. Na trainingen waar geen eind aan leek te komen, gesteggel over onze aanstelling en bakken met bureaucratie zijn we er klaar voor. Ready, set, go!
Ons project (begeleid door een powerhouse van een PI, dr. Tina Hernandez-Boussard) heeft betrekking op het detecteren van depressieve symptomen bij kankerpatiënten. Depressie heeft een negatief effect op de prognose van kankerpatiënten en wordt vaak over het hoofd gezien. Het doel van dit project is om een machine learning model te trainen dat depressieve symptomen correct weet te classificeren, zodat de patiënt waar nodig extra ondersteuning kan krijgen.
Een eerste uitdaging van dit project is het kwantificeren van depressieve symptomen. Mentale gezondheidsproblemen worden vaak slecht gedocumenteerd in het elektronisch patiëntendossier. Bovendien is het een subjectieve uitkomstmaat en is er dus niet één gouden standard om het uit af te leiden. Een van de doelstellingen van dit project is daarom om verschillende uitkomstmaten die wij tot onze beschikking hebben met elkaar te vergelijken. Je moet hierbij denken aan de medische diagnose van depressie of het voorschrijven van anti-depressiva, maar ook zelf gerapporteerde uitkomstmaten in de vorm van vragenlijst antwoorden, én signalen uit patient-emails of notities van artsen. Aangezien deze laatste uitkomstmaten bestaan uit geschreven tekst (ook wel ongestructureerde data) zullen we in onze analyse gebruik maken van natural language processing. De hoop is dat een machine learning model getraind op een combinatie van deze uitkomstmaten een betrouwbare risico classificatie voor depressieve symptomen produceert. Op basis hiervan kan dan extra hulp geboden worden aan de geïdentificeerde patiënt.
Ook zal het project focussen op het creëren van eerlijke uitkomsten voor iedereen en het identificeren en mitigeren van ‘algorithmic bias’. We spreken van bias als een machine learning model een bepaalde groep mensen onterecht benadeeld zonder dat hier een medische verklaring voor is. Een voorbeeld van bias is bijvoorbeeld een gezichtsherkenningsalgoritmen dat een stuk minder goed de gezichten van vrouwen met een donkere huidskleur herkent. Ook een NLP model, zoals toegepast in het huidige project, kan gevoelig zijn voor bias. Het model kan bijvoorbeeld ongevoelig zijn voor verschillende communicatiestijlen (denk aan mannen vs vrouwen) en daardoor de symptomen van een bepaalde subgroep niet oppikken. Voor geschreven teksten is nog maar weinig onderzoek gedaan naar het kwantificeren en mitigeren van dergelijke bias. Het doel is dan ook om allereerst te bestuderen welke associaties (woorden) het vaakst naar voren komen bij bepaalde subgroepen en wat voor effect dit heeft op een mogelijke classificatie. Vervolgens zullen we kijken naar mogelijke methodes om de bias te minimaliseren.
En met dit prachtige project kijken wij ontzettend uit naar de komende paar maanden: de ‘goedemorg-, uh -middag’ meetings met NL, de CALtrain die de godganse dag door de achtertuin toetert, de inspirerende lab discussions, het rekenen in ponden (gedeeld door twee, duh) en Fahrenheit (gedeeld door wat nou?!), de heerlijke Stanford campus, en de Amerikaanse natuur. Een half jaar lijkt lang, maar de tijd gaat ontzettend snel. Wij rennen dus alvast even door!
Wil je meer weten over het werk van Anne en Marieke, lees dan ook de blog op LUMCGlobal.nl
-
Meer dan alleen data
Door: Margot Rakers
Vorige maand kwam mij het verhaal van Abraham Wald, een Hongaarse wiskundige, ter oren. Gedurende de Tweede Wereldoorlog kwamen gevechtsvliegtuigen met kogelgaten terug vanuit de gevechtslinie. De geallieerden vonden de gebieden die het vaakst door vijandelijk vuur werden getroffen en tekenden dit uit op hun bouwtekeningen (zie figuur via link). Ze probeerden de meest beschadigde delen van de vliegtuigen te versterken om het aantal neergeschoten vliegtuigen te reduceren. Echter, veranderde dit niets aan de situatie. Abraham Wald wees toen op het feit dat er mogelijk een andere manier was om naar de datapunten te kijken. Hij veronderstelde dat de reden dat delen van de vliegtuigen niet bedekt waren met kogelgaten kon zijn dat juist de vliegtuigen die op deze plekken geschoten waren niet terug kwamen. Dit inzicht leidde ertoe dat de bepantsering werd versterkt op de delen van het vliegtuig waar geen kogelgaten waren. En met succes.
Locatie van de getroffen plekken op het vliegtuig. (McGeddon, CC BY-SA 4.0, via Wikimedia Commons)
Het verhaal van Abraham Wald beschrijft mooi de manier waarop we naar data kunnen kijken. Hij noemt het ook wel survivorship bias; het concentreren op de mensen of dingen die door het selectieproces zijn gekomen en degenen die dat niet zijn over het hoofd zien, meestal vanwege hun gebrek aan zichtbaarheid. In de klinische praktijk gebeurt misschien wel hetzelfde. Clinici zijn voortdurend bezig met het verzamelen en samenstellen van stukjes data verkregen van individuele patiënten om beslissingen te nemen over de diagnose, prognose en behandeling van de patiënt. Klinische beslisondersteuning systemen (ook wel clinical decision support systems, CDSS) kunnen hierin helpen bij het identificeren en ordenen van grote hoeveelheden data, patronen en verbanden. Zorgverleners kunnen deze informatie verkregen uit het CDSS gebruiken, maar verkrijgen maar een beperkt deel van het totaalplaatje doordat ze ook te maken hebben met de persoonlijke omstandigheden, omgeving en andere externe factoren die niet meteen in data te vangen zijn. De zorgverlener ziet dit totaal plaatje veel completer. Het verhaal achter de data blijkt dus minstens zo belangrijk te zijn als de data zelf. Dit is een van de redenen waarom Baalen et al., een artikel schreef over Clinical Reasoning Support Systems ipv Clinical Decision Support Sytems (van Baalen et al., 2021). De taak van het CDSS moet dus worden ingebed in het klinisch redeneerproces van de zorgverlener, omdat in het CDSS nog niet alle informatie aanwezig is die nodig is voor de daadwerkelijke beslissing. Het CDSS kunnen we dus beschouwen als een hulpmiddel bij het klinisch redeneren; een Clinical Reasoning Support System.
Deze twee voorbeelden vormen een leidraad door mijn promotieonderzoek naar klinische beslisondersteuning in de huisartsenpraktijk. Of eigenlijk moet ik zeggen; naar klinische redeneerondersteuning in de huisartsenpraktijk. Een aantal vragen doet daarbij herhaaldelijk zijn intrede tijdens besprekingen binnen het consortium: Waar ligt de grootste meerwaarde van AI/kennisregels in het klinisch redeneerproces van de zorgverlener? En hoe gebruiken we de grote hoeveelheden aan data in een proces waarin ook sociale, en niet te meten factoren, een rol spelen? Vragen die we ons wat mij betreft niet vaak genoeg kunnen blijven stellen. Ze geven context aan de beslissingen die we maken.
AI cursussen
AI cursussen
Wil jij ook leren hoe je moet programmeren? Hoe werkt deep learning? En Python? Hieronder een aantal fijne links.
Analyze data with Python.
Level: Beginner
https://www.codecademy.com/learn/paths/analyze-data-with-python
Programming for everyone – Getting started with Python
Level: Beginner
https://www.coursera.org/learn/python
Introduction into Pandas – Applied data science with Python Specialization
Level: Intermediate, a basic python or programming background is necessary.
https://www.coursera.org/specializations/data-science-python
Deep learning
Level: Intermediate, experience with Python is recommended. Also knowledge about linear algebra and differential equations is useful.
https://www.deeplearning.ai/deep-learning-specialization/
Machine Learning with Python: from Linear Models to Deep Learning
Level: Advanced
https://www.edx.org/course/machine-learning-with-python-from-linear-models-to

Video item LUMC

Hoe brengen we AI naar de kliniek
Om tot een bruikbare en waardevolle toepassing van AI in de zorg te komen, is het van belang om zowel de zorgprofessional als de AI-specialist gezamenlijk te betrekken bij de ontwikkeling ervan. In het LUMC zijn er meerdere voorbeelden van AI-toepassingen en –proefprojecten, zoals:
- Snellere MRI-scans
- Spraakherkenning in de spreekkamer
- Beeldherkenning en automatische rapportage op radiologische beelden
- Herkennen van (hart)afwijkingen op echografieën
- Administratie en planning
- Hackathon: vroegtijdige melanoomherkenning
- Infectieherkenning en risicovoorspelling
- Voorspellen van de kans op heropnames op de IC
Over ons
Over ons
CAIRELab richt zich op de stappen voor, tijdens en na de ontwikkeling en implementatie van AI-modellen, maar ook op de noodzakelijke randvoorwaarden. We zijn georganiseerd met een stuurgroep en een kernteam. Vanuit het kernteam zijn werkgroepen ontstaan met ieder een eigen focus.
De werkgroepen richten zich op eigen themagebieden. Door per thema een werkgroep op te richten, kunnen we sneller en gerichter kennis delen. CAIRELab bevat op dit moment de volgende werkgroepen, met daarbij de volgende voorzitters vanuit het kernteam:
- Onderwijs - Esmee Stoop (Data Scientist)
- Eindgebruikers participatie - Martijn Bauer (Internist)
- Ethiek & Recht - Kim Bavinck (Juriste) en Martine de Vries (Hoogleraar Medische Ethiek)
- Wetenschappelijke Validatie - Ilse Kant (Postdoc Klinische AI)
- Implementatie - Stephan Romeijn (Klinisch Technoloog)
- Opschaling - Hine van Os (Arts-Onderzoeker Neurologie)
- Data & Modelling - Marco Spruit (Professor Advanced Data Science in Population Health)
Daarnaast zijn vanuit het kernteam nog de volgende mensen betrokken:
- Ilse Kant (Voorzitter)
- Charlotte van Leeuwen (Programmacoördinator)
- Marius Staring (Associate Professor LKEB)
- Tanja Alderliesten (Associate Professor Radiotherapie)
Heeft u vragen, suggesties of opmerkingen? Stuur dan een mail naar ai@lumc.nl.