Livre blanc - 5 étapes pour choisir votre GMAO
Ce livre blanc va vous permettre de choisir et implémenter stratégiquement votre solution de gestion de maintenance assistée par ordinateur (GMAO) en 5 étapes.
En savoir plusSupposons que vous utilisiez un robot pour effectuer la maintenance d’un bâtiment ou de ses installations et qu’il détériore quelque chose pendant ses travaux. Qui est responsable ? Les robots étant de plus en plus souvent utilisés à des fins professionnelles, c'est véritablement une question qui se pose.
Alors que le débat portait jusqu'ici sur les dangers de l'intelligence artificielle et restait de ce fait hypothétique et spéculatif, la discussion s'oriente désormais de plus en plus souvent vers les risques concrets que présente l'utilisation de robots. Qui est responsable lorsqu'un robot abîme quelque chose pendant l'exécution de sa mission ?
Dans un blog précédent, j'ai écrit que l’utilisation des robots pour nous assister dans l'exécution de tâches complexes devient de plus en plus évidente. En effet, l'utilisation des capteurs, de la robotique et de simulations pour les inspections, les réparations et le gros entretien, permet d'économiser beaucoup d'argent. La question n'est donc plus de savoir si cela va arriver, mais quand cela va arriver. En conséquence, de nombreuses entreprises étudient les applications concrètes de robots ainsi que les opportunités et les dangers qui s'y rattachent.
Même Google intervient dans cette discussion et relance le débat en prenant comme exemple un robot chargé du nettoyage. Dans l'article intitulé « Concrete Problems in AI Safety » (Problèmes concrets liés à la sécurité de l'IA), l'équipe de recherche de Google recense cinq problèmes pratiques :
Plus les robots sont en mesure d'accomplir des tâches, plus ce genre de questions joue un rôle important. Les robots travaillent d'une manière toujours plus autonome et cette autonomie croissante a à son tour une incidence sur la responsabilité juridique. En effet, la loi stipule actuellement que seule une personne physique peut commettre des infractions pénales. Dans le débat sur les voitures autonomes, il apparaît que la responsabilité peut être imputée également au propriétaire ou au conducteur, tout comme dans le cas de dommages causés par des animaux. Que cela signifie-t-il pour les robots qui assurent la maintenance ou le nettoyage ?
Il n'est pas impensable que les robots soient bientôt amenés à faire des choix. Un robot peut-il évaluer les risques et porter un jugement y afférent ? Le fait de casser un vase, par exemple, est-il justifié si le ménage est bien fait à l'endroit où se trouvait le vase ? Et qu'en est-il lorsque des dommages corporels sont causés à un être humain ?
À mon avis, un œil humain est bien mieux à même de porter ce genre de jugement qu'un robot. Je pense que nous devons, par conséquent, évoluer vers une situation où les robots, dans de telles situations conflictuelles, font appel à l'aide d'un humain pour juger. Ceci implique immédiatement que l'humain est responsable de la prise d'une décision. C'est une solution pratique à un problème pratique. En effet, le robot entièrement autonome est encore loin d'exister, il n’est donc pas nécessaire de trouver dès à présent une réponse à ces questions.
Nico van Dijk
Product Manager Maintenance Management