A Coruña, 7 oct (EFECOM).- Le directeur de l'Agence Espagnole de Supervision de l'Intelligence Artificielle (Aesia), Ignacio Belda, a indiqué que le rôle de l'organisme qu'il dirige "n'est pas d'enquêter", mais "de superviser le marché" et d'être "attentif" lorsque qu'une entreprise ou une administration publique "ne respecte pas le règlement", en plus de "délivrer des certificats".
Il a ainsi exprimé cela lundi dans le Paraninfo de l'Université de A Coruña (UCD), dans le cadre d'une journée de débat autour du talent jeune et de l'impact que l'intelligence artificielle aura sur son développement professionnel.
Selon lui, beaucoup de gens en Espagne pensent que l'Aesia est "un centre de recherche ou un centre technologique", c'est pourquoi il a voulu préciser que "son travail est de superviser".
Belda a discuté avec les étudiants de l'UCD lors d'une présentation participative intitulée '¿AI que poner límites?', dans laquelle il a évoqué le Règlement en matière d'Intelligence Artificielle de l'Union Européenne, approuvé cet été.
Il a affirmé que la réglementation peut parfois être perçue comme négative par les entreprises, en raison du désavantage international, de la limitation de l'innovation, de la fuite des talents ou des sanctions économiques possibles, qui peuvent dépasser 35 millions d'euros.
Belda a dit que l'un des principes de la nouvelle réglementation, qui sera appliquée progressivement, est que "un humain ne peut être jugé que par un autre humain" et ajoutant que ce ne sont pas les technologies qui sont réglementées "mais les applications" de ces technologies.
Dans son intervention, il a évoqué des applications de risque inacceptable, et donc interdites par la législation, celles à risque élevé, celles à risque moyen et celles à risque bas.
Parmi les applications interdites, figurent "l'utilisation de systèmes d'identification biométrique à distance en temps réel dans des espaces d'accès public", sauf dans certains cas ; l'utilisation de systèmes d'IA qui créent ou élargissent des bases de données de reconnaissance faciale par l'extraction non sélective d'images faciales d'internet ou de circuits fermés de télévision ; ou l'utilisation de systèmes d'IA pour inférer les émotions d'une personne physique sur les lieux de travail et dans les établissements éducatifs.
En ce qui concerne les applications à risque élevé, il a affirmé qu'elles sont liées à la violation des droits humains ou à "mettre une vie en danger". EFECOM
(photo)