Explainable AI, in het Nederlands ook wel uitlegbare of verklaarbare AI genoemd, is een vakgebied binnen de kunstmatige intelligentie dat zich bezighoudt met het begrijpelijk maken van de beslissingen en acties van AI-systemen. Het doel is om de ‘black box’-werking van complexe AI-modellen te doorgronden, zodat mensen de resultaten en redeneringen van AI-systemen kunnen begrijpen en vertrouwen.





