L’éthique artificielle ou, plus largement, l’éthique appliquée à l’intelligence artificielle est le domaine de l’éthique qui se demande ce qui est bon, juste ou vertueux dans la mise en œuvre des systèmes d’intelligence artificielle. Comme c’est souvent le cas en éthique, les réponses sont complexes, diversifiées et elles dépendent beaucoup du contexte. C’est pourquoi, du point de vue méthodologique, il importe de se défier tout autant de la panique morale qui voit des robots tueurs et des pentes glissantes partout, que de la hype – pour reprendre le terme de Paula Boddington (2017) – c’est-à-dire du battage médiatique et de sa fascination pour la nouveauté au détriment de l’esprit critique.

Sans doute l’intelligence artificielle (IA) a-t-elle déjà une longue histoire : la fameuse conférence de Dartmouth souvent considérée comme son acte fondateur fut organisée par John McCarthy durant l’été 1956. Mais c’est avec l’émergence de l’apprentissage profond – deep learning en anglais – que plusieurs avancées spectaculaires, comme la reconnaissance d’image ou la traduction automatique, ont récemment eu lieu. Depuis quelques années, cette forme d’apprentissage automatique qui fonctionne au moyen de réseaux de neurones artificiels, plus ou moins inspirés des neurones biologiques, est devenue si efficace qu’elle soulève des questions éthiques avec une grande acuité – et parfois, peut-être, une certaine confusion. Il faut d’ailleurs noter que les systèmes d’IA sont de plus en plus présents dans la vie quotidienne des gens et qu’il y a de bonnes raisons de penser que ce n’est qu’un début (Auteur: Martin Gibert via encyclo-philo.fr).

Lire la suite

Lire le blogue de Martin Gibert sur l’IA