Après avoir salué les potentialités des technologies de l'Intelligence artificielle, l'APD a évoqué les moyens à sa disposition sur base du RGPD pour en assurer le contrôle. Ainsi, lorsque l’IA aboutit à des décisions automatisées prises sur base d’un algorithme (licenciement, non-octroi de crédit, contrôles fiscaux, etc.), les autorités de protection des données peuvent, au besoin, sanctionner le manque de transparence de la décision ou son modus operandi lorsqu'elle repose sur des corrélations erronées, ou encore des biais de confirmation/discriminations.
Une attention particulière doit être accordée au risque accru induit par les traitements de données réalisés au moyen de paramètres évolutifs auto-apprenants dits "machine learning », durement critiqués par la Cour de Justice de l’Union européenne (arrêt PNR du 21 juin 2022 ; C-817/19).
A travers son Centre de Connaissances, l'APD a déjà émis plusieurs avis sur des projets législatifs impliquant de tels traitements de données par l’administration, à des fins de contrôle ou d’attribution d’allocations, etc.
L’APD recommande généralement d’évaluer les risques afin d’envisager les meilleures garanties à mettre en œuvre sur base de la proposition de Règlement européen concernant l’intelligence artificielle, outre les recommandations de base en vue d’assurer la qualité des données qui entrainent les algorithmes, éviter les erreurs de corrélation et évaluer l'impact de la technologie sur droits et libertés des personnes affectées.
De nouvelles questions sont posées par la reconnaissance faciale et par les IA dites « génératives » de contenu (chatbot), notamment quant au fondement légal de la collecte des données-sources. L’APD est saisie de plaintes contre des Chatbot, qui sont actuellement sous investigation.