Artificial intelligence: Commission takes forward its work on ethics guidelines.
The Commission presents today next steps for building trust in artificial intelligence by taking forward the work of the High-Level Expert Group.
Building on the work of the group of independent experts appointed in June 2018, the Commission is today launching a pilot phase to ensure that the ethical guidelines for Artificial Intelligence (AI) development and use can be implemented in practice. The Commission invites industry, research institutes and public authorities to test the detailed assessment list drafted by the High-Level Expert Group, which complements the guidelines.
Today's plans are a deliverable under the AI strategy of April 2018, which aims at increasing public and private investments to at least €20 billion annually over the next decade, making more data available, fostering talent and ensuring trust.
Vice-President for the Digital Single Market Andrus Ansip said: “I welcome the work undertaken by our independent experts. The ethical dimension of AI is not a luxury feature or an add-on. It is only with trust that our society can fully benefit from technologies. Ethical AI is a win-win proposition that can become a competitive advantage for Europe: being a leader of human-centric AI that people can trust.”
Commissioner for Digital Economy and Society Mariya Gabriel added: “Today, we are taking an important step towards ethical and secure AI in the EU. We now have a solid foundation based on EU values and following an extensive and constructive engagement from many stakeholders including businesses, academia and civil society. We will now put these requirements to practice and at the same time foster an international discussion on human-centric AI."
Artificial Intelligence (AI) can benefit a wide-range of sectors, such as healthcare, energy consumption, cars safety, farming, climate change and financial risk management. AI can also help to detect fraud and cybersecurity threats, and enables law enforcement authorities to fight crime more efficiently. However, AI also brings new challenges for the future of work, and raises legal and ethical questions.
The Commission is taking a three-step approach: setting-out the key requirements for trustworthy AI, launching a large scale pilot phase for feedback from stakeholders, and working on international consensus building for human-centric AI.
1.Seven essentials for achieving trustworthy AI
Trustworthy AI should respect all applicable laws and regulations, as well as a series of requirements; specific assessment lists aim to help verify the application of each of the key requirements:
- Human agency and oversight: AI systems should enable equitable societies by supporting human agency and fundamental rights, and not decrease, limit or misguide human autonomy.
- Robustness and safety: Trustworthy AI requires algorithms to be secure, reliable and robust enough to deal with errors or inconsistencies during all life cycle phases of AI systems.
- Privacy and data governance: Citizens should have full control over their own data, while data concerning them will not be used to harm or discriminate against them.
- Transparency: The traceability of AI systems should be ensured.
- Diversity, non-discrimination and fairness: AI systems should consider the whole range of human abilities, skills and requirements, and ensure accessibility.
- Societal and environmental well-being: AI systems should be used to enhance positive social change and enhance sustainability and ecological responsibility.
- Accountability: Mechanisms should be put in place to ensure responsibility and accountability for AI systems and their outcomes.
2. Large-scale pilot with partners
In summer 2019, the Commission will launch a pilot phase involving a wide range of stakeholders. Already today, companies, public administrations and organisations can sign up to the European AI Alliance and receive a notification when the pilot starts. In addition, members of the AI high-level expert group will help present and explain the guidelines to relevant stakeholders in Member States.
3. Building international consensus for human-centric AI
The Commission wants to bring this approach to AI ethics to the global stage because technologies, data and algorithms know no borders. To this end, the Commission will strengthen cooperation with like-minded partners such as Japan, Canada or Singapore and continue to play an active role in international discussions and initiatives including the G7 and G20. The pilot phase will also involve companies from other countries and international organisations.
Next steps
Members of the AI expert group will present their work in detail during the third Digital Day in Brussels on 9 April. Following the pilot phase, in early 2020, the AI expert group will review the assessment lists for the key requirements, building on the feedback received. Building on this review, the Commission will evaluate the outcome and propose any next steps.
Furthermore, to ensure the ethical development of AI, the Commission will by the autumn 2019: launch a set of networks of AI research excellence centres; begin setting up networks of digital innovation hubs; and together with Member States and stakeholders, start discussions to develop and implement a model for data sharing and making best use of common data spaces.
Background
The Commission is facilitating and enhancing cooperation on AI across the EU to boost its competitiveness and ensure trust based on EU values. Following its European strategy on AI, published in April 2018, the Commission set up the High-Level Expert Group on AI, which consists of 52 independent experts representing academia, industry, and civil society. They published a first draft of the ethics guidelines in December 2018, followed by a stakeholder consultation and meetings with representatives from Member States to gather feedback. This follows the coordinated plan with Member States to foster the development and use of AI in Europe, also presented in December 2018.
The Commission is facilitating and enhancing cooperation on AI across the EU to boost its competitiveness and ensure trust based on EU values. Following its European strategy on AI, published in April 2018, the Commission set up the High-Level Expert Group on AI, which consists of 52 independent experts representing academia, industry, and civil society. They published a first draft of the ethics guidelines in December 2018, followed by a stakeholder consultation and meetings with representatives from Member States to gather feedback. This follows the coordinated plan with Member States to foster the development and use of AI in Europe, also presented in December 2018.
Intelligence artificielle: la Commission franchit une étape dans ses travaux sur les lignes directrices en matière d'éthique
La Commission présente aujourd'hui les prochaines étapes en vue d'instaurer la confiance dans l'intelligence artificielle en poussant de l'avant les travaux du groupe d'experts de haut niveau.
En s'appuyant sur les travaux d'experts indépendants désignés en juin 2018, la Commission lance aujourd'hui une phase pilote afin de faire en sorte que les lignes directrices en matière éthique pour le développement de l'intelligence artificielle (IA) puissent être mises en œuvre dans la pratique. La Commission invite l'industrie, les instituts de recherche et les autorités publiques à tester la liste d'évaluation détaillée élaborée par le groupe d'experts de haut niveau, qui complète les lignes directrices.
Les projets présentés aujourd'hui constituent un résultat attendu de la stratégie sur l'IA d'avril 2018, qui a pour objectif d'augmenter les investissements publics et privés de manière à ce qu'ils atteignent au moins 20 milliards d'euros par an au cours de la prochaine décennie, ce qui permettra d'accroître le volume des données disponibles, de favoriser les talents et de garantir la confiance.
Andrus Ansip, vice-président pour le marché unique numérique, s'est exprimé en ces termes: «Je salue le travail accompli par nos experts indépendants. La dimension éthique de l'IA ne constitue ni un luxe superflu, ni un simple complément accessoire. Seule la confiance peut permettre à notre société de tirer pleinement parti des technologies. La proposition relative à l'IA éthique est une proposition gagnant-gagnant qui peut devenir un avantage concurrentiel pour l'Europe, en lui permettant de devenir le chef de file d'une IA axée sur le facteur humain, en laquelle les citoyens ont confiance».
Mariya Gabriel, commissaire chargée de l'économie et de la société numériques, a fait la déclaration suivante: «Aujourd'hui, nous avons franchi une étape importante sur la voie d'une IA éthique et sûre dans l'UE. Nous disposons désormais d'une base solide fondée sur les valeurs de l'UE et qui résulte d'un engagement profond et constructif de la part de nombreuses parties prenantes, y compris les entreprises, le monde universitaire et la société civile. Nous allons maintenant mettre ces exigences en pratique et, dans le même temps, favoriser un débat international sur une IA axée sur le facteur humain.»
L'intelligence artificielle (IA) peut s'avérer bénéfique dans un large éventail de secteurs, comme les soins de santé, la consommation énergétique, la sécurité des véhicules, l'agriculture, le changement climatique et la gestion des risques financiers. Elle peut également contribuer à la détection des fraudes et des menaces pesant sur la cybersécurité, et permet aux autorités répressives de lutter plus efficacement contre la criminalité. Toutefois, l'IA fait naître de nouveaux enjeux pour l'avenir du travail et soulève des questions d'ordre juridique et éthique
La Commission a choisi d'adopter une approche en trois étapes: définir les exigences clés pour une IA digne de confiance, lancer une phase pilote à grande échelle pour recueillir les réactions et retours d'informations des parties prenantes, et élaborer un consensus international pour une IA centrée sur l'humain.
1. Sept éléments essentiels pour parvenir à une IA digne de confiance
Une IA digne de confiance devrait respecter toutes les législations et réglementations applicables ainsi qu'une série d'exigences; des listes d'évaluation spécifiques visent à faciliter la vérification du respect de chacune de ces exigences:
- Facteur humain et contrôle humain: les systèmes d'IA devraient être les vecteurs de sociétés équitables en se mettant au service de l'humain et des droits fondamentaux, sans restreindre ou dévoyer l'autonomie humaine.
- Robustesse et sécurité: une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d'IA.
- Respect de la vie privée et gouvernance des données: il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
- Transparence: la traçabilité des systèmes d'IA doit être assurée.
- Diversité, non-discrimination et équité: les systèmes d'IA devraient prendre en compte tout l'éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
- Bien-être sociétal et environnemental: les systèmes d'IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
- Responsabilisation: il convient de mettre en place des mécanismes pour garantir la responsabilité à l'égard des systèmes d'IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.
2. Processus pilote à grande échelle avec des partenaires
À l'été 2019, la Commission lancera une phase pilote impliquant un large éventail de parties prenantes. À l'heure actuelle déjà, les entreprises, les administrations publiques et les organisations peuvent adhérer à l'Alliance européenne pour l'IA, et elles seront informées du démarrage du processus pilote. En outre, les membres du groupe d'experts de haut niveau sur l'IA aideront à présenter et à expliquer les lignes directrices aux parties prenantes concernées dans les États membres.
3. Élaboration d'un consensus international pour une IA axée sur le facteur humain
La Commission souhaite porter son approche en matière d'IA sur la scène internationale parce que les technologies, les données et les algorithmes ne connaissent pas de frontières. À cette fin, la Commission renforcera sa coopération avec les partenaires partageant les mêmes idées, comme le Japon, le Canada ou Singapour, et continuera à jouer un rôle actif dans les discussions et initiatives internationales, y compris au sein du G7 et du G20. La phase pilote concernera également les entreprises d'autres pays et les organisations internationales.
Les prochaines étapes
Les membres du groupe d'experts sur l'IA présenteront leurs travaux de manière détaillée durant la troisième Journée du numérique qui se tiendra à Bruxelles le 9 avril. À la suite de la phase pilote, au début de l'année 2020, le groupe d'experts sur l'IA dressera un bilan des listes d'évaluation des exigences clés, en se fondant sur les retours d'informations reçus. En s'appuyant sur ce bilan, la Commission analysera les résultats obtenus et proposera d'éventuelles prochaines étapes.
En outre, afin de garantir le développement éthique de l'IA, d'ici à l'automne 2019, la Commission: lancera un ensemble de réseaux de centres d'excellence en matière d'IA; entamera la création de réseaux de pôles d'innovation numérique; et engagera, avec les États membres et les parties prenantes, des discussions destinées à concevoir et mettre en œuvre un modèle de partage des données et d'utilisation optimale des espaces de données communs.
Contexte
La Commission facilite et favorise la coopération en matière d'IA à travers l'Europe afin de renforcer sa compétitivité et de garantir la confiance fondée sur les valeurs de l'UE. À la suite de la publication de sa stratégie européenne sur l'intelligence artificielle (IA) en avril 2018, la Commission a mis en place le groupe d'experts de haut niveau sur l'IA, composé de 52 experts indépendants représentant le monde universitaire, l'industrie et la société civile. Ce groupe d'experts a publié un premier projet de lignes directrices en matière d'éthique en décembre 2018, à la suite de quoi ont été organisées une consultation des parties prenantes et des réunions avec des représentants des États membres afin de recueillir des réactions et retours d'informations. Ces travaux font suite au plan coordonné élaboré avec les États membres pour favoriser le développement et l'utilisation de l'IA en Europe, qui a été présenté en décembre 2018.
Bruxelles, le 8 avril 2019
#FutureOfEurope
Aucun commentaire:
Enregistrer un commentaire