Les étudiants du MIT explorent les dimensions éthiques de l’intelligence artificielle

La récente poussée de progrès technologiques a laissé le monde se débrouiller pour suivre le rythme. Cependant, avec le développement, le monde peut également ressentir un ensemble de problèmes. Trois étudiants du MIT qui ont vu le potentiel de la technologie se tromper sont en train de se développer. Ils prennent le manteau pour aider le corps étudiant du MIT et, par extension, les communautés à mieux comprendre l’IA. Ils ont créé un groupe de lecture sur l’éthique de l’IA.

Les étudiants sont Leilani Gilpin, Harini Suresh et Irene Chen. Ces trois étudiants sont diplômés du Département de génie électrique et d’informatique (EECS) du MIT. Ces trois étudiants ont également travaillé à la Silicon Valley et ont acquis une expérience directe de travail avec les dernières avancées technologiques. Cette exposition à la capacité de la technologie tombant entre de mauvaises mains les a poussé à créer le groupe.

Contents

Contexte

Le monde s’est levé et a avalé l’assaut de la technologie de l’IA. Cela facilite la vie, et les gens y sont tout à fait pour. Cependant, des problèmes tels que les fausses nouvelles issues de l’IA ayant des impacts réels irritent les gens. Quand Mark Zuckerberg a promis au Congrès que l’IA résoudrait le problème de la propagation des fake news via Facebook, personne ne savait comment il le ferait. Deux ans après le fiasco de Cambridge Analytica, nous sommes loin de connaître une réponse.

La discrimination basée sur un algorithme défectueux dans un logiciel d’IA est également une préoccupation réelle. En mai 2016, l’organisation de presse ProPublica a fait une révélation révolutionnaire sur COMpas. COMPAS était une IA utilisée dans le système pénitentiaire américain pour déduire si un condamné a de fortes chances de récidive. ProPublica a révélé que l’IA était raciste et a délibérément marqué les prisonniers noirs comme étant plus susceptibles de commettre une infraction. Les préjugés sexistes dans l’IA sont également très apparents et horrifiants. Une étude réalisée en 2015 a révélé que Google AI était plus susceptible de montrer des emplois bien rémunérés aux hommes et non aux femmes. Une autre étude a révélé comment Google AI ne devinait correctement le sexe que s’il s’agissait d’un homme blanc. Les résultats sont particulièrement médiocres pour les femmes de couleur.

Un autre incident horrible de la vie réelle s’est produit à cause d’une IA. La traduction AI de Facebook a mal traduit « Bonjour » de l’arabe par un musulman palestinien en « Attaquez-les » en hébreu. Les autorités israéliennes ont arrêté, percé et torturé l’homme pour découvrir l’erreur plus tard. Facebook s’est excusé. Il était trop tard.

Dans de telles situations, il est temps de faire une pause et de réévaluer.

Le groupe de lecture sur l’éthique de l’IA :

Lors d’un atelier « fairness in machine learning » à Cambridge, un professeur du MIT leur a donné l’idée de créer un groupe. Le même professeur a lié les trois femmes qui ont fait des obligations, et le groupe a été terminé. Les étudiants cherchaient à élargir le public de leur débat sur l’éthique de l’IA. L’atelier et le professeur leur ont permis de le faire.

Sur le site officiel de l’IA , la raison de la création de ce groupe est la suivante :

« Alors que l’intelligence artificielle et les machines autonomes deviennent de plus en plus importantes, il est crucial d’examiner l’éthique, la morale et l’explicabilité de ces systèmes. Pour mieux comprendre, nous lançons un groupe de lecture sur l’IA et l’éthique. Nous explorerons la littérature fondamentale et récente sur l’IA et l’éthique. »

Sur le site officiel, les utilisateurs peuvent s’inscrire à des réunions et à des sessions de lecture. Ils peuvent le faire en rejoignant une liste de diffusion ou en remplissant un formulaire d’intérêt. Le site Web répertorie toutes les dates prévues pour les réunions passées et futures au cours d’un semestre. Les membres peuvent participer à la réunion et échanger du matériel de lecture. Ils peuvent discuter des questions éthiques liées à la production et à l’utilisation de l’IA lors des réunions. Les membres réfléchiront également à la façon dont la communauté sur le campus du MIT peut contribuer à la compréhension ou à la résolution de ces problèmes.

Le débat

La discussion au sein du groupe fait circuler la question éthique de l’IA. La première réunion du groupe a eu lieu à peu près au même moment où le MIT a officiellement annoncé l’ouverture de son collège d’informatique Stephen A. Schwarzman du MIT. Dans ce nouvel institut, l’université enseigne officiellement l’éthique et la gouvernance de l’intelligence artificielle. Son objectif est le suivant :

« Ce cours poursuivra une enquête interdisciplinaire sur le développement et le déploiement de systèmes adaptatifs complexes opaques qui sont de plus en plus utilisés dans les secteurs public et privé. Nous explorerons la prolifération de la prise de décision algorithmique, des systèmes autonomes, de l’apprentissage automatique et de l’explication ; la recherche d’un équilibre entre la réglementation et l’innovation ; et les effets de l’IA sur la diffusion de l’information, ainsi que des questions liées aux droits individuels, à la discrimination et à la architectures de contrôle. »

Après l’annonce du nouvel institut et du cours, 60 étudiants se sont présentés. Au cours des réunions qui ont suivi, plusieurs sujets ont été abordés. Ils ont parlé de qui devrait être responsable d’un Uber autonome qui rentre sur un piéton. Les étudiants ont débattu de la question de savoir si ce devait être l’ingénieur qui avait conçu l’IA ou la personne derrière le volant.

Un autre sujet de débat animé a été celui de savoir si l’éthique, en tant que cours, devait être intégrée dans les cours en général. Plusieurs étudiants ont discuté de la façon dont il devrait être enseigné séparément en tant que cours exclusif.

Inférences

Un élève a déclaré : « Il est difficile d’enseigner l’éthique dans un cours de CS, alors il devrait peut-être y avoir des cours distincts ». Cependant, Natalie Leo, étudiante diplômée de l’EECS, a déclaré :

« Quand on apprend à coder, on apprend un processus de conception. Si vous incluez l’éthique dans votre pratique de conception, vous apprenez à internaliser la programmation éthique dans le cadre de votre flux de travail. »

Comme il n’est pas clair quel mode d’apprentissage sera utilisé lors du cours d’éthique de l’IA au MIT, le débat continue.

Gaston Alexandre

En tant que travailleur indépendant, j’ai décidé de me lancer dans la rédaction d’articles basée sur le buzz international. Je traite ainsi différents sujets, et particulièrement ceux qui ont suscité un énorme engouement dans la société mondiale. J’écris ainsi des articles concernant les thématiques à fort caractère, c’est-à-dire qui créent un véritable impact émotionnel chez le lecteur. Le nombre d’articles que j’écris est variable au quotidien. L’objectif étant de fournir le maximum d’informations pertinentes du jour, vous pouvez alors découvrir de nombreuses publications d’une douzaine de lignes par article.
Bouton retour en haut de la page