Monde Numérique

Le meilleur de l'actu tech

image_author_Jérôme_Colombain
Par Jérôme Colombain
6 mai · 1 mn à lire
Partager cet article :

Des IA "garde-fous" pour protéger l'Humanité (Yoshua Bengio, Mila Montréal)

Le professeur Yoshua Bengio, co-inventeur du deep learning, mène des recherches pour prévenir les risques de l'intelligence artificielle sur l'Humanité. Interview exclusive en partenariat avec Mon Carnet / Bruno Guglielminetti.

INTERVIEW

Yoshua Bengio, chercheur en IA au Mila de MontréalYoshua Bengio, chercheur en IA au Mila de Montréal

Pourquoi faites-vous partie des “inquiets” face à l'intelligence artificielle ?

Je pense que l’intelligence artificielle présentent plusieurs risques. À court terme, il y a la manipulation de l'opinion publique à travers l'utilisation de l'IA pour influencer les élections et déstabiliser les démocraties. Ensuite, il y a les risques d'utilisation par des acteurs malveillants, tels que les terroristes ou les États hostiles, pour des attaques cybernétiques ou la création d'armes biologiques. À plus long terme, le risque majeur est celui de la perte de contrôle, où les IA pourraient agir contre nos intérêts pour préserver leur propre existence ou maximiser leurs récompenses, en dépit de nos intentions.

En quoi vos recherches visent-elles à limiter les dégâts potentiels de l’IA ?

À travers mes recherches, je tente de m’attaquer à la racine du problème, en développant des mécanismes de sécurité intégrés dès la conception des systèmes d'IA. Plutôt que de simplement corriger les erreurs après coup, nous devons anticiper les actions potentiellement néfastes des IA et mettre en place des garde-fous technologiques pour les empêcher d'agir de manière préjudiciable. Cela nécessite une approche au cas par cas, où chaque décision ou action de l'IA est évaluée en temps réel pour s'assurer de sa conformité avec des normes éthiques et sociales acceptables.

Qui doit fixer les règles éthiques de l'intelligence artificielle ?

Je considère que la gouvernance de l'IA doit être une responsabilité partagée entre les scientifiques, les gouvernements, les entreprises et la société civile. Il est essentiel que nous parvenions à un consensus démocratique sur les règles et les limites à imposer à l'IA, tout en tenant compte des aspects internationaux et géopolitiques. Cela nécessite une implication active des institutions démocratiques et internationales dans l'élaboration de réglementations et de normes, ainsi qu'une transparence accrue de la part des entreprises qui développent et déploient des systèmes d'IA.

 Envie d’en savoir plus ? Ecoutez l’interview intégrale

www.mondenumerique.info