lundi, février 27, 2017

*RoboLaw : Réglementation de la robotique*

RoboLaw : 
Réglementation de la robotique.

Quels droits juridiques accorder aux robots ? Polo Sant'Anna Valdera est l'un des principaux centres de recherche en robotique. À mesure que la technologie progresse, son personnel constate que cette question devient de plus en plus importante. L'innovation soulève de nouvelles questions juridiques et éthiques. Le Parlement européen souhaite aborder ces questions pour que la robotique continue de prospérer en 2017.


Transcription:
"Des robots industriels aux équipements médicaux, drones, jouets ou appareils électroménagers, la robotique et l'intelligence artificielle occupent une place de plus en plus importante dans notre vie quotidienne. Le Parlement européen est la première institution au monde à tenter de légiférer sur les questions juridiques et éthiques relatives à l'intelligence artificielle. Il y a une révolution en marche puisque que déjà, il y a beaucoup de robots, et il y en aura beaucoup à l'avenir, et ils seront présents dans tous les domaines de la vie. J'ai réussi à convaincre la Commission juridique de créer un groupe de travail pour justement, s'occuper des implications juridiques, mais aussi éthiques que la robotique aurait sur nos sociétés. À Pise, l'Institut Sant'Anna, un centre important pour la robotique, participe au projet européen Robolaw. Ici, les chercheurs travaillent sur la question de la responsabilité des robots et d'autres aspects juridiques. Pour eux, que le Parlement européen s'intéresse à de telles questions est positif et ouvre la voie pour une nouvelle approche de la robotique. Même si la tâche est compliquée. Le monde de la robotique est un immense domaine, et si l'approche est trop générale, vous risquez d'échouer dans la résolution du problème central. Andrea Bertolini est un expert en droit privé. Pour lui, les robots ne sont pas comme tout autre produit, bien que les lois actuelles leur soient appliquées. Ces lois ont été élaborées avec différents types de dispositifs à l'esprit. Par conséquent, les solutions qu'elles apportent peuvent ne pas être les plus adaptées en matière de robotique. En cas d'accident causé par un robot, une voiture sans conducteur, par exemple, qui est responsable ? En principe, le chauffeur n'a plus de responsabilité. Donc, se pose la question, qui va porter l'assurance ? Est-ce le producteur ? Est-ce le programmeur ? Est-ce l'utilisateur ? La réponse à cette question est très compliquée et onéreuse. Cela a beaucoup plus de sens de tenir responsable la partie qui est le mieux placée pour minimiser ce coût et minimiser ce risque. C'est ce que j'appelle une « approche de gestion des risques ». Dans ce scénario, moi-même ou le producteur pourrait contracter une assurance couvrant tous les coûts associés à cette responsabilité. Non seulement les robots, de plus en plus autonomes, se rapprochent du marché, mais dans les laboratoires, les ingénieurs conçoivent des robots avec la capacité d'apprendre de leur environnement et de leur expérience, ainsi que de prendre des décisions indépendantes. « Prenez la bouteille, s'il-vous-plaît ». Dans ce cas-là, se pose la question : est-ce que c'est toujours le programmeur qui est responsable de l'action puisque l'environnement a une influence sur le robot ? Pour le Parlement européen, une réponse possible pourrait être d'accorder à cette catégorie de robots une personnalité électronique. Une personnalité électronique signifie traiter les robots comme une personne morale, une entité juridique qui a certains droits et obligations qui sont purement instrumentaux pour poursuivre un intérêt économique spécifique d'un être humain. Une autre préoccupation majeure pour le Parlement européen concerne les questions éthiques soulevées par la robotique. Sans parler de la relation de dépendance qui pourrait se développer entre un humain et un robot, en particulier dans le cas des personnes vulnérables. Nous devons nous assurer que les personnes vulnérables ne seront pas amenées à croire que les robots sont réellement capables d'éprouver des émotions, parce que les machines ne peuvent pas en avoir. Enfin, est-ce que le fait de légiférer sur toutes ces questions pourrait entraver l'innovation ? Bien au contraire, cela pourrait être un moteur pour la croissance dans le secteur, car la sécurité juridique encouragera la recherche et le développement industriel. L'élaboration de normes revêt une importance stratégique, parce que celles qui vont émerger, pourraient devenir des normes américaines, des normes internationales. S'il s'agit de normes européennes, il est clair que les industries européennes auront un avantage. Nous sommes à un bon moment puisque les États membres n'ont pas encore fait de législation, donc nous pourrons créer un cadre et les États membres pourront s'en inspirer pour avoir les règles qui s'appliquent dans toute l'Union européenne. Des robots industriels aux équipements médicaux, drones, jouets ou appareils électroménagers, la robotique et l'intelligence artificielle occupent une place de plus en plus importante dans notre vie quotidienne. Le Parlement européen est la première institution au monde à tenter de légiférer sur les questions juridiques et éthiques relatives à l'intelligence artificielle. Il y a une révolution en marche puisque que déjà, il y a beaucoup de robots, et il y en aura beaucoup à l'avenir, et ils seront présents dans tous les domaines de la vie. J'ai réussi à convaincre la Commission juridique de créer un groupe de travail pour justement, s'occuper des implications juridiques, mais aussi éthiques que la robotique aurait sur nos sociétés. À Pise, l'Institut Sant'Anna, un centre important pour la robotique, participe au projet européen Robolaw. Ici, les chercheurs travaillent sur la question de la responsabilité des robots et d'autres aspects juridiques. Pour eux, que le Parlement européen s'intéresse à de telles questions est positif et ouvre la voie pour une nouvelle approche de la robotique. Même si la tâche est compliquée. Le monde de la robotique est un immense domaine, et si l'approche est trop générale, vous risquez d'échouer dans la résolution du problème central. Andrea Bertolini est un expert en droit privé. Pour lui, les robots ne sont pas comme tout autre produit, bien que les lois actuelles leur soient appliquées. Ces lois ont été élaborées avec différents types de dispositifs à l'esprit. Par conséquent, les solutions qu'elles apportent peuvent ne pas être les plus adaptées en matière de robotique. En cas d'accident causé par un robot, une voiture sans conducteur, par exemple, qui est responsable ? En principe, le chauffeur n'a plus de responsabilité. Donc, se pose la question, qui va porter l'assurance ? Est-ce le producteur ? Est-ce le programmeur ? Est-ce l'utilisateur ? La réponse à cette question est très compliquée et onéreuse. Cela a beaucoup plus de sens de tenir responsable la partie qui est le mieux placée pour minimiser ce coût et minimiser ce risque. C'est ce que j'appelle une « approche de gestion des risques ». Dans ce scénario, moi-même ou le producteur pourrait contracter une assurance couvrant tous les coûts associés à cette responsabilité. Non seulement les robots, de plus en plus autonomes, se rapprochent du marché, mais dans les laboratoires, les ingénieurs conçoivent des robots avec la capacité d'apprendre de leur environnement et de leur expérience, ainsi que de prendre des décisions indépendantes. « Prenez la bouteille, s'il-vous-plaît ». Dans ce cas-là, se pose la question : est-ce que c'est toujours le programmeur qui est responsable de l'action puisque l'environnement a une influence sur le robot ? Pour le Parlement européen, une réponse possible pourrait être d'accorder à cette catégorie de robots une personnalité électronique. Une personnalité électronique signifie traiter les robots comme une personne morale, une entité juridique qui a certains droits et obligations qui sont purement instrumentaux pour poursuivre un intérêt économique spécifique d'un être humain. Une autre préoccupation majeure pour le Parlement européen concerne les questions éthiques soulevées par la robotique. Sans parler de la relation de dépendance qui pourrait se développer entre un humain et un robot, en particulier dans le cas des personnes vulnérables. Nous devons nous assurer que les personnes vulnérables ne seront pas amenées à croire que les robots sont réellement capables d'éprouver des émotions, parce que les machines ne peuvent pas en avoir. 
Enfin, est-ce que le fait de légiférer sur toutes ces questions pourrait entraver l'innovation ? Bien au contraire, cela pourrait être un moteur pour la croissance dans le secteur, car la sécurité juridique encouragera la recherche et le développement industriel. L'élaboration de normes revêt une importance stratégique, parce que celles qui vont émerger, pourraient devenir des normes américaines, des normes internationales. S'il s'agit de normes européennes, il est clair que les industries européennes auront un avantage. Nous sommes à un bon moment puisque les États membres n'ont pas encore fait de législation, donc nous pourrons créer un cadre et les États membres pourront s'en inspirer pour avoir les règles qui s'appliquent dans toute l'Union européenne."


A suivre...!

Morgane BRAVO, 
*Ancienne stagiaire ("Blue Book") de la Commission Européenne, au Secrétariat Général*
Présidente et Fondatrice du «Think Tank» Europe-Mexique.
@MorganeBravo
Think Tank" Europe-Mexique, 
    headquarters in Paris, France.

Aucun commentaire:

Enregistrer un commentaire