Bienvenue sur Africanews

Merci de choisir votre version

Regarder en direct

Sci tech

sci-tech

Intelligence artificielle et robotique : quelle éthique ?

Intelligence artificielle et robotique : quelle éthique ?

Etats-Unis

L’utilisation abusive de l’intelligence artificielle et de la robotique inquiète les experts qui s’interrogent sur la question de son éthique. Le débat a été lancé lors du RoboBusiness 2018, organisé dans la Silicon Valley, aux Etats-Unis.

Lorsqu’on évoque l’utilisation de l’intelligence artificielle, la première inquiétude qui se pose est de savoir comment faire en sorte qu’elle réponde à une certaine éthique. La question était au cœur du RoboBusiness 2018 qui vient de s’achever à Silicon Valley, en Californie, aux Etats-Unis.

Les participants se sont notamment penchés sur l’utilisation abusive des robots dans les usines et entrepôts. Un abus dangereux, reconnaissent-ils. « Le monde a déjà de nombreux problèmes. Et l’IA, la robotique et les technologies d’apprentissage automatiques vont résoudre ces problèmes et les amplifier. Est-ce dangereux ? Est-ce dangereux ? La réponse est clairement oui », affirme Brian Patrick Green, directeur de l’éthique technologique à l’Université de Santa Clara.

Je pense que si nous voulons maintenir la sécurité de la technologie, nous devons déléguer moins que plus.

Une alerte qui en dit long sur les menaces suscitées par l‘évolution fulgurante de la robotique. Mais, pour Brian Patrick Green, la plus grosse inquiétude se situe notamment au niveau des systèmes d’armes et les risques de les voir échapper au contrôle de l’homme. « Nous sentons que nous voulons avoir le contrôle, mais en même temps, nous voulons déléguer beaucoup de pouvoir à la technologie. Et sur cette base, quel équilibre y aura-t-il. Je pense que si nous voulons maintenir la sécurité de la technologie, nous devons déléguer moins que plus », plaide-t-il.

L‘équation reste cependant très complexe comme l’expliquent les avocats d’un groupe de robotique et d’automatisation qui ont vu des fermetures d’usine accidentelles avec employés bloqués dans des dispositifs autonomes. Mais l’intelligence artificielle a ouvert une nouvelle frontière juridique. « Nous avons normalement une sorte d’élément de culpabilité dans ces déterminations. Et quand aucun humain n’est impliqué, et que le YX a été choisi au lieu de Y, comment gérez-vous la culpabilité ? Est-ce le programmeur de la machine qui l’a finalement mené là à un moment donné ? Cela devient son propre mécanisme d’apprentissage ou pas ? Mais au bout du compte, nous allons tous nous battre avec ça », explique Brian Clifford qui reste tout de même confiant. D’autant que le système juridique finit toujours par rattraper la technologie.

Voir plus