Verslag symposium 17 november 2025: ‘De impact van AI op journalistiek’
Op 17 november 2025 vond het jaarlijks symposium van de Vlaamse Regulator voor de Media (VRM) plaats. Onder de titel ‘De impact van AI op journalistiek’ werd gediscussieerd over het gebruik van AI in de journalistiek.
Gedelegeerd bestuurder Joris Sels opent het symposium. In zijn welkomstwoord licht hij het programma toe en stelt hij de panelleden en moderator voor.
Situatieschets: Carlo Adams
Carlo Adams, voorzitter van de algemene kamer van de VRM, schetst het thema van de dag. Hij benadrukt het belang van transparantie en menselijk toezicht bij AI-gebruik in de journalistiek. Aanleiding was het recente nieuws dat Ventures Media honderden AI-gegenereerde artikels publiceerde onder fictieve namen, zonder dit te vermelden. Dit leidde tot verontwaardiging bij de VVJ en een klacht bij de Raad voor de Journalistiek. Een ander voorbeeld betreft een door AI geschreven verslag van een vrouwenvoetbalwedstrijd op het EK 2024, gepubliceerd door Sporza. Hoewel de tekst door AI werd gegenereerd, werd deze wel nagelezen en aangepast door een menselijke redacteur. Dit illustreert het belang van de “human in the loop”: AI kan ondersteunen, maar menselijke supervisie blijft essentieel.
De voorbeelden tonen aan dat ook de Vlaamse media experimenteren met generatieve AI, vooral sinds de lancering van ChatGPT in 2022. AI wordt vooral ingezet voor ondersteunende taken zoals vertalingen, samenvattingen en research, maar journalisten zijn terughoudend om AI te gebruiken voor het schrijven van volledige artikels, omdat AI hun schrijfstijl niet kan nabootsen.
Uit de AI Media Barometer van de Arteveldehogeschool blijkt dat het AI-gebruik onder journalisten toeneemt, maar nog steeds achterblijft bij andere mediaprofessionals. Efficiëntie en tijdswinst zijn de belangrijkste motieven. Steeds meer nieuwsorganisaties hebben intussen richtlijnen voor het gebruik van generatieve AI.
Het symposium biedt ruimte voor debat over deze evoluties en de uitdagingen die AI met zich meebrengt voor de journalistiek.
Paneldebat
Na deze situatieschets geeft Carlo Adams het woord aan moderator Jelle Mels (VRT, host en eindredacteur Karrewiet), die het paneldebat leidt met volgende sprekers:
- Charlotte Michils (Algemeen secretaris van de Vlaamse Vereniging van Journalisten)
- Dominique Deckmyn (technologie-journalist bij De Standaard)
- Karolien Van Dinter (adjunct-uitgever van de lifestyle titels van Roularta Media Group)
- Stephanie D’haeseleer (doctoraatsonderzoeker UGent)
- Philip Heymans (VRT, lid Raad voor de Journalistiek)
Paneldebat: gebruik van AI
De moderator vraagt aan de journalisten in welke mate ze vandaag AI gebruiken in hun journalistiek werk.
Dominique Deckmyn en Philip Heymans gaven aan AI vooral in te zetten voor research en het samenvatten van grote tekstfragmenten. Deckmyn gebruikt AI niet om volledige artikels te genereren, maar wel als hulpmiddel bij het voorbereiden van onderwerpen. Heymans vermeldde de ontwikkeling van interne VRT-tools, zoals een smart news assistant voor titels en inspiratie. Bij podcasts wordt AI sporadisch gebruikt, bijvoorbeeld voor het snel genereren van tijdlijnen, maar men blijft voorzichtig met blind vertrouwen op AI. Het zelf nalezen van de artikels blijft belangrijk.
Andere panelleden bevestigden dat AI vooral als ondersteunende tool wordt ingezet: voor transcripties, samenvattingen, vertalingen en efficiëntie in de workflow. Creativiteit en tijdsbesparing zijn de belangrijkste motieven, maar journalisten blijven waakzaam voor de mogelijke vervangingsdreiging door technologie.
De moderator polst expliciet naar welke tools er dan worden ingezet.
Philip Heymans vermeldt Notebook LLM en de betalende versie van ChatGPT. Bij de VRT is er een toegewijd team bezig met het ontwikkelen van AI-toepassingen. Een specifiek voorbeeld is een tool waarbij je een podcast kan uploaden en waarbij meteen een online artikel wordt gegenereerd. De VRT heeft een eigen panel samengesteld die al die toepassingen op voorhand moet goedkeuren. Op die manier kunnen ze remmen inbouwen in de tools die door hun eigen mensen worden ingezet.
Dominique Deckmyn stelt dat Mediahuis net iets minder middelen heeft dan de VRT. Ze hebben een eigen redactiesysteem Q om bijvoorbeeld titels of samenvattingen te genereren. Hij vermeldt ook Notebook LLM. Dominique waarschuwt voor overschatting van de eigen tools.
Karolien Van Dinter beaamt dit. Er is een wildgroei van interne tools, hetgeen niet bevorderlijk is voor de efficiëntie. Terwijl er veel externe algemene tools zijn die je goed kan integreren in interne systemen. Roularta is bijvoorbeeld nu bezig met metadatering met AI voor archivering en om content beter bij de lezer te brengen omdat zoekopdrachten eenvoudiger worden.
Stephanie D’haeseleer is wel fan van interne systemen. Interne richtlijnen zijn doorgaans beter afgestemd op interne systemen. Bovendien is het onduidelijk wat er gebeurt met de data bij externe systemen (de zgn. black box).
Charlotte Michils doet met de VVJ onderzoek naar problematische aspecten van die externe toepassingen, zoals Deeple, Claude en Goodtape, gaande van bias tot privacy. Elke externe toepassing blijft zijn problemen hebben, op die manier is het een beetje kiezen tussen de pest en de cholera. Zij wijst op het belang van steeds de betalende versie van een AI-toepassing te gebruiken.
De moderator maakt gewag van efficiëntiewinsten dankzij AI en toetst dit af bij de panelleden.
Dominique Deckmyn beaamt dit. Een interview via AI laten omzetten in tekst, dat is gewoon een ongelooflijke efficiëntiewinst.
Philip Heymans wijst er wel op dat dat bij interviews met oudere mensen die dialect spreken nog wel heel moeilijk is. Hij geeft wel toe dat je doordat spraak snel wordt omgezet in tekst, je meteen een quote kan vinden, grote documenten veel sneller kan doorlopen en extra artikels kan genereren voor bv. Sporza. Je kan dus meer doen met evenveel middelen. Het belang van transparantie en redactionele controle wordt nogmaals benadrukt.
Bepaalde zaken werken heel goed met AI, maar niet alles gaat goed volgens Dominique Deckmyn. Een theatercriticus bijvoorbeeld gaat niet veel productiever worden. Het werkt dus niet altijd.
Karolien Van Dinter wijst op het belang om te vertrekken vanuit de noden van de redactie. Niet kijken wat voor leuke toepassingen er zijn, maar kijken naar de noden. Op die manier organiseren ze opleidingstrajecten, pilots, …
Stephanie D’haeseleer verwijst naar een studie die ze recent uitvoerde. Daaruit blijkt dat journalisten opleidingen en richtlijnen missen. Ze is blij dat daar nu meer op wordt ingezet. In haar onderzoek zag ze drie groepen journalisten: degenen die positief stonden t.o.v. AI, de twijfelaars en degenen die er negatief tegenover stonden. Het is belangrijk om in je mediaorganisatie alle groepen te benaderen.
De moderator haalt de AI Media Barometer aan. Dat onderzoek stipuleert dat er een kloof dreigt te ontstaan tussen grotere mediabedrijven die tijd en budget kunnen vrijmaken voor de ontwikkeling en implementatie van (eigen) GenAI-tools, en mediabedrijven waar die tijd en middelen niet beschikbaar zijn. Hij vraagt of de panelleden die mening delen.
Charlotte Michils vindt dit een open deur intrappen. Maar er moet rekening gehouden worden met alle kloven die dreigen te ontstaan. Zo is er ook een kloof tussen het publiek en de journalist. Doordat elk gebruik van AI moet worden gecontroleerd, moeten de efficiëntiewinsten ook worden gerelativeerd.
Dominique Deckmyn heeft een tegenovergestelde mening. Met de nieuwe tools, bijvoorbeeld vibecoding, krijgt een kleine organisatie heel veel mogelijkheden om zaken te verwezenlijken die je vroeger enkel kon doen als grote organisatie. Denk maar aan kunstmatige video’s maken alsof je een videoploeg hebt of complexe infografieken maken alsof je grafici in dienst hebt. Je hebt nu geen of veel minder personeel nodig om content te creëren.
De moderator vraagt zich af of hier dan misschien een extra rol ligt voor organisaties zoals de VVJ om mediabedrijven hierin te ondersteunen?
Charlotte Michils zegt dat er wel bepaalde initiatieven zijn en dat vorming belangrijk is om verantwoord gebruik te propageren. Zij zegt dat grote mediabedrijven doorgaans zelf voor de nodige opleiding zorgen voor de eigen medewerkers.
De moderator peilt naar de impact van AI op tewerkstelling binnen de Vlaamse journalistiek.
Karolien Van Dinter zegt dat AI wordt gezien als disruptor, maar ook als trein die je niet wil missen. Volgens haar komt de voornaamste druk op het aantal journalisten niet van AI, maar van Amerikaanse spelers die aan de advertentiekoek knagen. Dat zet de werking van mediabedrijven veel meer onder druk. Roularta is overtuigd van de waarde van hun merken, journalisten en producten. AI bedreigt niet de toekomst van de redactie, want we gaan hierdoor net meer moeten inzetten op menselijke kennis en expertise. Jobs zullen wel moeten evolueren. Bijvoorbeeld een eindredacteur die enkel focust op taalfouten eruit halen, die moeten nu heel snel mee transformeren.. Zal je op lange termijn vier infografici behouden? Waarschijnlijk niet, maar je zal wel mensen nodig hebben die nadenken over hoe we content op een interessante manier brengen. Karolien Van Dinter ziet AI eerder als een enabler en niet als een technologie die jobs gaat afpakken.
Philip Heymans is het ermee eens dat de journalistiek de onderscheidende waarde van de mens nog meer moet uitspelen. Bij de VRT doen ze dat bijvoorbeeld door in een liveblog de foto en naam van de journalist te vermelden. Hij zinspeelt op de verhouding tussen het echte journalistieke werk en de ‘verwerkers’ van dat journalistieke werk. Die verhouding helt momenteel heel sterk over naar de verwerkers. Volgens hem kunnen we dankzij AI efficiëntiewinsten boeken in het verwerkingsproces om zo meer mensen vrij te maken voor het echte journalistieke werk.
Charlotte Michils denkt ook dat een aantal rollen onder druk komen: eindredacteurs, grafici, layouters, vertalers, startende journalisten, … Die mensen moeten geheroriënteerd worden, want er zullen ongetwijfeld nieuwe rollen ontstaan. Zij ziet momenteel al nieuwe kansen in de regiojournalistiek en onderzoeksjournalistiek.
Dominique Deckmyn gelooft niet dat uitgevers investeren in AI om journalisten te ontslaan. Maar wanneer het eens echt slecht zal gaan, zal er waarschijnlijk wel bespaard worden met hulp van AI. Hij merkt op dat ze nu al het woord AI vermijden als het gaat over ontslagen.
Paneldebat: richtlijnen voor het gebruik van AI
De moderator wijst de panelleden er op dat er bij verschillende mediaorganisaties, maar bijvoorbeeld ook bij de Raad voor de Journalistiek en de Vlaamse Vereniging van Journalisten, intussen heel wat richtlijnen bestaan rond het gebruik van AI. Wat zijn de belangrijkste elementen?
Karolien Van Dinter vat het kort samen: AI schrijft geen tekst.
Dominique Deckmyn vindt dit een pijnpunt. Niet alle uitgevers hebben richtlijnen gemaakt en de richtlijnen die er zijn, zijn voorbarig, voorzichtig en vaag. Een belangrijke richtlijn is dat er altijd een mens in de keten moet zitten. Dat is heel eenvoudig op papier te zetten. Maar wie is die mens, wat is zijn taak, wat als die gewoon op oké klikt? Echt werkbare AI-principes op de werkvloer moeten veel gedetailleerder zijn. Er is echt een nood aan operationele concrete afspraken.
Philip Heymans wijst ook op de onduidelijkheid rond het begrip transparantie. Wanneer is iets gemaakt o.b.v. AI? Als er iets vertaald is met AI, moet je dat dan aangeven? Bij de VRT kiezen ze ervoor om enkel transparant te zijn over het gebruik van AI bij sterk inhoudelijke bijdragen. Daarnaast is er op het einde van de keten altijd een mens die de inhoud controleert. Maar wie is er verantwoordelijk? De persoon die op het einde alles controleert? Welke naam zet je uiteindelijk onder het artikel? Dat zijn allemaal vragen waarop het antwoord nog onduidelijk is.
Dominique Deckmyn geeft het voorbeeld van Business Insider. Daar hebben journalisten de toestemming om de kladversie van hun stuk met AI te maken. Langs de ene kant is er druk van het management om AI-tools te gebruiken, maar als er een fout gemaakt wordt, is het wel de schuld van de journalist. Bovendien is het voor een eindredacteur heel moeilijk om een AI-hallucinatie te achterhalen als die niet weet of er AI is gebruikt. Daarom zijn duidelijke richtlijnen nodig.
De moderator haalt aan dat uit de AI Media Barometer blijkt dat journalisten enerzijds beter op de hoogte zijn van het bestaan van richtlijnen, maar dat dit nog niet betekent dat ze ook weten wat er effectief in die richtlijnen staan. Hij vraagt om een reactie van het panel.
Charlotte Michils vindt dit een belangrijk spanningsveld. Richtlijnen moeten er zijn, maar ze moeten ook vindbaar en te implementeren zijn. In de Code van de Raad voor de Journalistiek staat er dat de hoofdredactie verantwoordelijk is en dat AI gebruikt mag worden in elk proces. Maar hoe haalbaar is dit? Er is echt nog wel een verschil tussen theorie en praktijk.
Stephanie D’haeseleer zegt dat journalisten vinden dat elke stakeholder verantwoordelijk is. Uit onderzoek blijkt ook dat er wel al enige kennis is over de richtlijnen, maar dat die nog niet voldoende is. Het is nodig om taken waarvoor AI gebruikt wordt af te bakenen en transparantie te bieden. AI schrijft geen tekst maar als je bijvoorbeeld AI vraagt om een titel sensationeler of aantrekkelijker te maken kan dat ook als een deel van de tekst gezien worden. Het publiek vindt het ook belangrijk om te weten waarvoor AI gebruikt is.
Philip Heymans legt uit dat ze bij de VRT een aantal verantwoordelijkheden bij de hoofdredactie gelegd hebben, bv. om geen druk te leggen op journalisten om AI te gebruiken.
Paneldebat: AI-geletterdheid
De moderator raakt het begrip AI-geletterdheid aan. Die term handelt over het begrijpen wat AI is, hoe het werkt, wat het kan (maar evengoed wat het niet kan) en welke impact het heeft op de samenleving. Daarvoor zijn bijscholingen en opleidingen heel belangrijk.
Dominique Deckmyn zegt dat ze bij Mediahuis evolueren van vrijwillige workshops naar verplichte opleidingen. Het probleem is dat het niet voor elke journalist zo relevant is. Buitenlandjournalisten willen die tools allemaal gebruiken, maar voor een cultuurjournalist is dat al een pak minder. Dat maakt het moeilijk om iedereen op zijn wenken te bedienen.
Karolien Van Dinter vertelt dat ze bij Roularta sinds 2024 een opleidingstraject hebben uitgerold, op vrijwillige basis. Die opleidingen zijn voortdurend in beweging en worden afgestemd op de noden.
De moderator merkt op dat de VVJ de voorbije maanden heel wat initiatieven heeft genomen rond AI en journalistiek, denken we aan o.a. debatten onder de VVJ Academy. Hij vraagt zich af of er in de nabije toekomst nog extra ondersteuning voor journalisten m.b.t. AI gepland staat.
Charlotte Michils zegt dat de VVJ Academy als merk blijft bestaan, maar dat ze momenteel nog op zoek zijn naar financiering om dat verder te kunnen blijven organiseren.
Paneldebat: AI-chatbots
De moderator verschuift de focus naar de opkomst van AI-chatbots. Die geven vandaag de dag al uitgebreide antwoorden op een zoekvraag waardoor het niet altijd nodig is om nog door te klikken naar de primaire bron. Zo heeft dat impact op de bezoekersaantallen van media en kan het een bedreiging vormen voor de journalistiek, zowel naar advertenties toe als naar abonnementen.
Dominique Deckmyn beaamt dit. Er wordt 50% minder doorgeklikt naar nieuwswebsites dankzij de AI-samenvattingen van Google.
Karolien Van Dinter detecteert dit ook als één van de evoluties die een bedreiging zijn, tezamen met Google en Meta die hun algoritmes wijzigen waardoor nieuwspagina’s niet meer in de resultaten zitten. De uitdaging voor mediabedrijven is zorgen dat je een ‘destination’ wordt in plaats van dat consumenten je zien in de Google-resultaten. Dat is een grote transformatie die nodig is.
Philip Heymans duidt allereerst dat dit voor de publieke omroep geen commerciële last is, maar dat ze wel verplicht worden via de beheersovereenkomst om zoveel mogelijk Vlamingen te bereiken. Hij merkt wel dat er in het onderwijs veel meer ingezet wordt op mediageletterdheid. Daarnaast denkt hij dat betrouwbaarheid cruciaal is in deze context.
Stephanie D’haeseleer denkt dat nieuwspersonalisatie nog belangrijker wordt. Een voorbeeld uit het buitenland om dit te kaderen, is de Financial Times. Daar hebben ze een chatbot geïntegreerd waardoor je geen artikels meer moet lezen, maar gewoon kunt chatten.
Karolien Van Dinter vertelt over de conversational bot die Libelle Lekker heeft gelanceerd. Een AI-chatbot enkel gebaseerd op de eigen content. Je kan er kookvragen aan stellen. Ze is heel benieuwd hoe surfers dat gaan gebruiken. Ook bij andere titels is Roularta aan het kijken of ze iets kunnen uitwerken.
Charlotte Michils denkt dat het beslissende tijden zijn voor mediabedrijven. Ze moeten een partner worden van AI-bedrijven, bv. op het vlak van auteursrechten. Het is cruciaal om die economische waarde te erkennen, maar er is natuurlijk een probleem met het level playing field. Gaandeweg worden er wel deals gesloten tussen mediabedrijven en AI-bedrijven. Europa heeft ook transparantiewetgeving opgelegd, maar vaak is het nog onduidelijk op welke informatie de AI-toepassing getraind is.
Paneldebat: AI-labels
De moderator vraagt zich af in welke mate het belangrijk is om aan de lezer aan te geven dat een artikel tot stand kwam met behulp van AI en of dit dan met een soort van label of eerder met een vrij toegankelijk redactioneel charter moet.
Philip Heymans denkt dat dit best case by case bekeken kan worden. Als voorbeeld haalt hij artikels aan die door AI worden voorgelezen. Waar en hoe ben je daar transparant over? In dit geval koos de VRT voor een informatiebolletje. Labels zijn echter zeer belangrijk om later ook AI-archiefstukken te kunnen detecteren.
Dominique Deckmyn hoort momenteel enkel slechte oplossingen. Er is vrij snel gezegd, transparantie is de oplossing voor alles. Maar straks gaat elk artikel met AI gemaakt worden. Moet je dat daar dan allemaal bij zetten? Hij ziet momenteel nog geen goede oplossing.
Karolien Van Dinter vindt dat de algemene manier waarop AI als tool gebruikt wordt best beschreven wordt in een redactioneel charter. De zeer zichtbare gevallen van AI-gebruik zouden dan wel weer best ter plaatse geëxpliciteerd worden.
Stephanie D’haeseleer organiseerde onlangs focusgroepen met gebruikers en stelde daar vragen in verband met de nood aan transparantie. Het verschil lag in de journalistieke taak. Genereert AI een samenvatting, foto of infographic, dan is transparantie ter plaatse absoluut gewenst door het publiek. Bij kleine zaken, zoals een titelaanpassing, vindt men dat niet nodig. Bij zacht nieuws wordt transparantie omtrent AI-gebruik ook veel minder belangrijk gevonden dan bij hard nieuws. Ze merkt dat het moeilijk is om de grens te bepalen: wanneer labelen, wanneer niet. Daarnaast zorgt labelen ook een beetje voor een verschuiving van de verantwoordelijkheid naar de eindgebruiker. Ze is wel heel benieuwd naar het AI Charter, misschien is dat eerder de manier om hiermee om te gaan. Als voorbeeld geeft ze het PP-logo, dat ook totaal niet opvalt. Tot slot merkt ze op dat hoe transparanter men is over het AI-gebruik, hoe minder vertrouwen men krijgt van de lezer.
Charlotte Michils vindt het een genuanceerd verhaal. Te veel transparantie creëert wantrouwen. Labels mogen ook niet werken als disclaimer, want wat moet de lezer daar dan mee. Ze vindt het ook niet nodig dat er zoveel inkijk in de keuken is, een journalist geeft toch ook niet aan dat hij Wikipedia heeft gebruikt.
Paneldebat: de glazen bol-vraag
Tot slot blikt de moderator vooruit. Staan we aan het begin van een AI-revolutie of komen er geen grote doorbraken meer?
Charlotte Michils zegt dat het vak zal veranderen en rollen zullen verschuiven. Ze roept op om massaal te blijven inzetten op geletterdheid.
Dominique Deckmyn geeft aan dat niemand in staat is om voorspellingen te maken op tien jaar. Als ze erin slagen om AGI (Artificial General Intelligence) te maken, dan is volgens hem geen enkele job nog nodig. Hij geeft wel aan heel enthousiast te zijn over de vibecoding tools. Hij gelooft ook dat er nog nuttige tools voor journalisten kunnen worden gemaakt.
Philip Heymans denkt dat een nieuwsmedium nooit klanken en beelden zal gaan genereren. Je zou bijvoorbeeld een persbericht van de minister met AI ook door de minister kunnen laten uitspreken. Daar is hij resoluut tegen. Maar hoe ver ga je in klank opkuisen bijvoorbeeld? Met AI maak je dan eigenlijk een nieuw klankbestand. Of bijvoorbeeld een beeld van Trump die wegwandelt, maar je hebt eigenlijk 2 seconden extra nodig. Je zou dat met AI kunnen genereren. Voorlopig doen ze dat allemaal niet.
Karolien Van Dinter vraagt zich vooral af hoe het publiek zal omgaan met de mogelijkheden die AI creëert en hoe content nog interessanter kan worden gemaakt voor het publiek.
Stephanie D’haeseleer denkt dat journalistiek belangrijker dan ooit gaat worden. Het publiek ziet volgens haar meer en meer in dat journalisten cruciaal zijn dankzij fake news en AI-generatie.
Vragen uit de zaal
Na het paneldebat is het woord aan het aanwezige publiek. Ook zij kunnen hun vragen stellen aan het panel.
Volgende onderwerpen komen daarin aan bod:
- Factcheckers
- Ecologische voetafdruk AI
- Financiële vergoeding mediabedrijven – AI-bedrijven
- Richtlijnen
- A priori controle
Slotwoord: Vlaams minister van Media
Het slotwoord werd gegeven door Cieltje Van Achter, minister van Media.
De minister benadrukt dat transparantie over het gebruik van AI in de journalistiek cruciaal is, maar tegelijk moeilijk scherp af te bakenen. Het is een belangrijk thema met heel wat uitdagingen en gevoeligheden. Kunstmatige intelligentie biedt zowel kansen als risico’s. Zo vreest 82% van de mensen dat AI foute informatie zal verspreiden, terwijl 74% bang is dat ze niet meer kunnen onderscheiden wat door een mens of door een machine is gemaakt.
Te veel inkijk in de journalistieke keuken kan nefast zijn, maar enige inkijk blijft noodzakelijk om vertrouwen te behouden. AI kan snelheid en efficiëntie leveren, maar de journalist blijft onmisbaar om context en duiding te geven. Vertrouwen in journalistiek is en blijft een fundament. Onderzoek toont bovendien aan dat chatbots in nieuwsrapportage tot 50% fouten bevatten, wat het belang van menselijke controle onderstreept.
Daarom moeten mediabedrijven niet alleen inzetten op transparantie, maar ook op weerbaarheid. Initiatieven zoals het AI-charter van de VRT en richtlijnen van de Raad voor de Journalistiek zijn stappen in die richting. Dit verhaal heeft twee kanten: ook de lezer speelt een rol. Mediawijsheid wordt steeds belangrijker, en mediabedrijven zetten daar sterk op in.
AI zal de journalist nooit volledig vervangen. Vlaamse media beschikken over alle troeven om Vlamingen ook in de toekomst te blijven overtuigen van kwaliteitsvolle, betrouwbare informatie.
De VRM wenst graag alle sprekers, panelleden, moderator en de aanwezigen te bedanken voor hun bijdrage en aanwezigheid op het symposium.