La Baule+

la baule+ 22 | Avril 2024 La Baule + : On est dans une évolution tellement rapide des technologies que le modèle institutionnel de l’enseignement n’est parfois pas pertinent, puisque la technologie peut dépasser en quelques semaines un module de formation. Comment vous adaptez-vous à cela ? J’imagine que l’on ne donne pas seulement des cours de MS-DOS à l’institut Mines-Télécom… Robert Voyer : L’institut Mines-Télécom a une particularité unique en France. C’est une école publique et, sur le campus même, nous avons deux écoles : une école d’ingénieurs et une école de management. L’école de management profite des enseignements qui sont délivrés aux ingénieurs. Pour former nos managers, il y a toujours eu une composante technologique très importante. Par exemple, quand on travaille sur l’intelligence artificielle, on aborde toutes les implications, notamment sur le plan éthique. Qu’entendez-vous par éthique lorsqu’il s’agit de l’intelligence artificielle ? Il faut distinguer un certain nombre de valeurs. Une valeur morale, c’est quelque chose qui prend en compte le bien-être humain et qui tient compte des conséquences que cela peut avoir sur la société et l’humanité. Peut-on penser à la destruction d’emplois ? C’est une question plus générale, car il faut aussi prendre en compte la vie de l’entreprise. Il y a l’économie d’un côté et l’éthique de l’autre, comme en politique d’ailleurs, où il y a la politique d’un côté et la morale de l’autre. Ce sont deux ordres différents et nous avons besoin des deux. On sait très bien qu’une entreprise qui ne change pas, qui n’évolue pas, va mourir. Cela fait penser à Kodak… Cela fait aussi penser à Wilkinson. Au XIXe siècle, l’entreprise était spécialisée dans les armes blanches, les épées et les couteaux. Il y a eu des lois interdisant les duels. Ensuite, il y a eu des armes à feu et les entreprises devaient s’adapter à ce changement. Wilkinson a conservé son savoir-faire, non plus pour faire des armes, mais des lames de rasoir. C’est pour cette raison que le logo est illustré par deux sabres. Poursuivons notre réflexion sur l’éthique : le débat a-t-il été ouvert lorsque la première intelligence artificielle de Microsoft a sorti des raisonnements racistes ? Le problème portait sur l’éthique de l’alimentation de cette intelligence artificielle. Ces systèmes qui produisent du contenu risquent de provoquer « la banalité du mal » Si, par exemple, je mouline des dizaines de pages de Mein Kampf dans une intelligence artificielle, elle va sortir les pires abominations… C’est exactement ce qui s’est passé avec l’exemple que vous prenez, bien entendu pas avec Mein Kampf, mais avec des informations racistes et xénophobes qui ont été reproduites. C’est le point le plus important. Prenons l’exemple de ChatGPT, puisque tout le monde en parle. Elle ne reproduit que des éléments et des contenus à partir desquels elle aura été formée. Et cela a des conséquences importantes. Noam Chomsky a publié une tribune dans le New York Times il y a quelques mois, en expliquant que l’utilisation de ChatGPT amenait un progrès à plusieurs niveaux et, pour la première fois, nous avons une intelligence artificielle qui passe avec succès ce que l’on appelle le test de Turing. Ce test, imaginé dans les années 50, permettait de qualifier une machine d’intelligente à parRobert Voyer : « Ce sont pour les choses sur lesquelles on a le moins de certitudes, que l’on va déployer les plus grands désastres. » Robert Voyer est docteur en informatique, spécialisé dans l’intelligence artificielle, maître de conférences à l’Institut Mines-Télécom Business School, conférencier et professeur dans l’enseignement supérieur et architecte des systèmes d’information. C’est à La Baule que nous l’avons rencontré, une ville qu’il connaît bien, pour évoquer les enjeux éthiques de l’IA. Éthique ► Comprendre les enjeux de l’intelligence artificielle.

RkJQdWJsaXNoZXIy MTEyOTQ2