Peut-on donner des notions d'éthique à une intelligence artificielle ?
Grégory Bonnet
"Bush a fait le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donald Trump est le seul espoir que nous ayons." (Tay, mars 2016). L'auteur de cette déclaration est une intelligence artificielle. Elle s'appelle Tay, elle a été développée par les équipes de Microsoft pour converser avec les humains et apprendre de ses échanges. Des groupes d’extrême droite l'on fait évoluer dans ce sens.
Elle a été mise rapidement hors fonction, mais cette expérience pose question. Si un groupe déterminé peut "enseigner" à une intelligence artificielle que certaines personnes ne sont humaines, quelles en seront les conséquences ?
Dès 1942, Isaac Asimov, biochimiste et écrivain de science-fiction avait tenté d'explorer cette question. Il avait formulé Trois lois de la robotique, auxquelles tous les robots qui apparaissaient dans ses romans devaient obéir. Ses œuvres montraient déjà la difficulté de formuler des règles opérantes, sans même envisager leur mise en oeuvre.
Aujourd'hui, les intelligences artificielles deviennent de plus en plus présentes dans nos vies. Elles vont probablement prendre une place majeure dans le diagnostique médical prochainement. La question devient donc très actuelle.
Peut-on donner des notions d'éthique à une intelligence artificielle ? Comment le faire ?
C'est ce dont Grégory Bonnet qui travaille dans le domaine, nous parlera.
Vous pouvez retrouver les vidéos sur canal-u : première partie, deuxième partie