Information

Huawei: défis de l'IA et de la protection des données et réponses avec les régulateurs de données

Huawei: défis de l'IA et de la protection des données et réponses avec les régulateurs de données


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Toutes les technologies perturbatrices de l'histoire de l'humanité ont changé le monde d'une manière ou d'une autre. Dans le cas de Intelligence artificielle (AI), les analystes du secteur conviennent de la réalité selon laquelle l'IA a la capacité de changer tous les secteurs de la planète ainsi que toutes les organisations. Même si l'industrie ne semble pas avoir une définition unifiée de l'IA, les caractéristiques de base de l'IA incluent la gestion d'objectifs complexes, la collecte et la combinaison d'une quantité différente de données, l'extraction d'informations et de connaissances, l'apprentissage autonome et la prise de décisions automatisées à différents niveaux.

Les deux principaux types d'applications d'IA de niveau commercial comprennent les applications d'entreprise internes, qui sont utilisées pour améliorer l'efficacité du travail dans l'entreprise, et les applications permettant aux industries verticales d'améliorer l'automatisation, d'améliorer les capacités, d'inspirer l'innovation ou une combinaison de celles-ci.

Nous pouvons différencier quatre rôles clés des activités impliquant l'IA:

  • Consommateurs / clients

  • Deployeurs

  • Fournisseurs de solutions

  • Collecteurs de données

Ce sont les caractéristiques, les applications et les activités d'IA qui fournissent la base de la gouvernance de la sécurité de l'IA et de la protection de la vie privée, selon Huawei.

Cependant, offrir des opportunités et des avantages substantiels n'est qu'un côté de la médaille. Cette technologie polyvalente passionnante, ainsi que stimulante, possède également un côté sombre: les défis en matière de sécurité et de protection de la vie privée, néanmoins. Selon Huawei, le développement sain de l'intelligence artificielle repose sur la gouvernance de la sécurité de l'IA et de la protection de la vie privée.

Récemment, Huawei et Université Normale de Beijing en collaboration avec les régulateurs de données de l'UE, du Royaume-Uni et de Hong Kong, ont appelé les gouvernements, les organisations standard et les industries du monde entier à s'unir pour favoriser le développement de la protection des données et de la vie privée par intelligence artificielle (IA), ainsi que la fiabilité et établir une protection mondiale des données. normes pour l'IA. Huawei espère avoir plus de discussions sur les défis posés par l'IA à la protection des données dans diverses régions, ainsi que pour déclencher les réflexions et les progrès politiques des régulateurs.

John Suffolk, Global Cyber ​​Security and Privacy Officer chez Huawei, a présenté les pratiques de protection de la vie privée de Huawei, y compris la sécurité de l'IA et la gouvernance de la protection de la vie privée lors de l'événement parallèle AI and Data Protection: Global challenge Global Response au 41e Conférence internationale des commissaires à la protection des données et à la vie privée (ICDPPC), sur le thème Convergence et connectivité, Élever les normes mondiales de protection des données à l'ère numérique, organisé à Tirana, la capitale de l'Albanie, au début du mois.

Il a déclaré que la technologie allait rapidement au-delà des politiques et des cadres juridiques existants, en particulier dans le domaine de l'IA. Il a également déclaré que nous ne devrions pas attendre le développement des TIC pour imposer la formulation de politiques ou de cadres juridiques - au lieu de cela, nous devrions prendre des mesures immédiates pour élaborer des politiques et un cadre juridique capables de maximiser les opportunités de développement et d'éviter des conséquences inattendues.

Huawei a proposé qu '"en tant que nouvel élan à l'ère numérique, l'IA a un besoin urgent de résoudre les problèmes de protection des données et de la vie privée et d'établir des normes mondiales". La proposition a été largement reconnue par les leaders de l'industrie qui ont également exprimé leur point de vue sur les défis de la confidentialité de l'IA et de la protection des données du point de vue des politiques, des lois et des pratiques de l'industrie.

Dans son Penser à la sécurité de l'IA et à la protection de la vie privée: protéger les données personnelles et faire progresser les capacités technologiquespapier blanc (PDF), Huawei affirme que bien que l'IA transforme de nombreuses industries, ayant un impact profond sur elles, il n'y a pas encore de définition unifiée. L'article énonce la caractéristique de base de l'IA comme suit:

  • Gérer des objectifs complexes

  • Collecter et combiner différentes quantités de données

  • Extraire des informations et des connaissances et apprendre de manière autonome

  • Prendre des décisions automatisées à différents niveaux

Pouvons-nous tous convenir d'une définition de l'IA, s'il vous plaît?

  • Selon le Conception conforme à l'éthique Première édition article publié par IEEE en 2019, l'IA peut être définie comme «la conception, le développement, le déploiement, la mise hors service et l'adoption de logiciels autonomes ou intelligents lorsqu'ils sont installés dans d'autres systèmes logiciels et / ou matériels capables d'exercer un raisonnement, une prise de décision, une formation d'intention indépendants, et des compétences motivantes selon des principes auto-définis. "

  • Les règles d'éthique pour une IA digne de confiance publié par le Commission européenneLe groupe d'experts de haut niveau sur l'intelligence artificielle (AI HLEG) a également déclaré en 2019 que `` les systèmes d'intelligence artificielle (IA) sont des systèmes logiciels (et peut-être aussi matériels) conçus par des humains qui, étant donné un objectif complexe, agissent dans le dimension numérique en percevant leur environnement grâce à l'acquisition de données, en interprétant les données structurées ou non structurées collectées, en raisonnant sur les connaissances ou en traitant les informations dérivées de ces données et en décidant de la ou des meilleures actions à entreprendre pour atteindre l'objectif donné. IA les systèmes peuvent soit utiliser des règles symboliques, soit apprendre un modèle numérique, et ils peuvent également adapter leur comportement en analysant comment l'environnement est affecté par leurs actions précédentes. "

  • Livre blanc sur la sécurité de l'intelligence artificielle publié par le Académie chinoise des technologies de l'information et des communications (CAICT) en 2018, déclare que «l'IA permet des machines intelligentes ou des systèmes intelligents sur des machines. Elle étudie et développe des théories, des méthodes et des technologies pour simuler, étendre et étendre l'intelligence humaine, percevoir l'environnement, obtenir des connaissances et utiliser les connaissances pour atteindre des résultats optimaux. "

  • Un modèle de cadre de gouvernance de l'IA proposé produit par Comité de protection des données personnelles de Singapour (PDPC) en 2019, déclare que «l'intelligence artificielle (IA) fait référence à un ensemble de technologies qui cherche à simuler des traits humains tels que la connaissance, le raisonnement, la résolution de problèmes, la perception, l'apprentissage et la planification».

Défis de l'IA en matière de sécurité et de protection de la vie privée

Aucune organisation ou entreprise ne dispose de ressources suffisantes pour faire face aux risques de sécurité et de confidentialité de plus en plus complexes, ainsi qu'aux menaces pesant sur l'IA.

Selon le Penser à la sécurité de l'IA et à la protection de la vie privée: protéger les données personnelles et faire progresser les capacités technologiques papier blanc (PDF), la sécurité et la protection de la vie privée du développement de l'IA sont confrontées à trois grands défis, chacun d'entre eux impliquant d'autres défis plus petits. Les normes et spécifications de l'industrie indiquent que la fiabilité technique, les applications sociétales, les exigences légales et les responsabilités sont les principaux défis de la sécurité de l'IA et de la protection de la vie privée.

  • Fiabilité technique: Les plus petits défis dans ce domaine plus large incluent le manque de robustesse des réseaux neuronaux profonds (DNN) entraînant une vulnérabilité aux attaques d'invasion. Le manque de transparence et d'explicabilité de ces systèmes complexes peut enfreindre les exigences légales ou réglementaires telles que le RGPD en termes de prise de décision automatisée. En outre, les violations de données, la falsification, le vol et l'utilisation abusive de grandes quantités de données peuvent résulter de l'indisponibilité d'une protection complète de la sécurité des données. Un cas de ceci est dans le domaine de la conduite autonome où les attaques d'évasion peuvent conduire à des infractions routières et même déclencher des accidents. Dans le domaine de la santé, les attaquants peuvent également introduire des erreurs importantes dans le dosage recommandé par les modèles d'IA en n'ajoutant qu'une petite quantité de données malveillantes, mais entraînant d'énormes conséquences graves. Le document indique que bien que le taux de précision du dépistage du cancer par l'IA soit élevé, les médecins ne sont d'accord qu'avec environ la moitié de ces résultats, car ils semblent croire que les résultats manquent de raisonnement et de logique. Bien que cela puisse être discuté ou mieux étudié.

  • Applications sociétales: Ici, les plus petits défis au sein des applications sociétales plus larges peuvent inclure le manque de gestion et de contrôle sur les objectifs de l'IA, ce qui conduit à son tour à une utilisation abusive de l'IA; De plus, les problèmes de qualité des données conduisent à des jugements biaisés et injustes. Un défi sérieux se présente lorsque les développeurs et les déployeurs d'applications avec des connaissances et des capacités insuffisantes utilisent à mauvais escient les systèmes d'IA, provoquant de graves incidents de sécurité et de confidentialité. Par exemple, le logiciel de reconnaissance faciale correspond de manière incorrecte aux photos avec les clichés des criminels montrant un taux élevé de fausses correspondances en raison de paramètres de paramètres incorrects.

  • Obligations légales et responsabilités: Il n'est pas encore possible de définir clairement les droits et les responsabilités des parties prenantes car il n'y a pas de lois ou de réglementations telles que les réglementations sur la conduite autonome et la responsabilité des algorithmes. Un cas clair ici est celui où un véhicule à conduite autonome a tué un piéton, ce qui a conduit à des discussions sur la surveillance et les responsabilités légales des véhicules autonomes. Qui doit être tenu légalement responsable, la machine ou l'humain qui l'a programmée? Il peut également s'agir d'un cas où le système autonome rencontre un problème technique, par exemple une rupture de fil, qui n'est pas lié à la programmation réelle du système autonome mais provoque un dysfonctionnement et le véhicule devient incontrôlable.

Afin de clarifier les responsabilités des parties prenantes de l'IA dans la construction d'un monde numérique, Huawei déclare: "Nous appelons les gouvernements, les organisations standard, les utilisateurs finaux et l'industrie dans son ensemble à parvenir à un consensus et à travailler ensemble pour développer de nouveaux codes de conduite et de nouvelles normes. , et les lois spécifiques à l'IA et à ses cas d'utilisation. Huawei et ses partenaires mondiaux travailleront ensemble pour examiner leurs tâches en fonction de scénarios commerciaux, clarifieront davantage les responsabilités et les activités, et fourniront des méthodes de raisonnement et de gouvernance systématiques pour fournir conjointement aux gens des services d'IA qui peuvent assurer la sécurité et la confidentialité. "

Selon Huawei, aucune organisation ou entreprise ne dispose de ressources suffisantes pour lutter contre les risques de sécurité et de confidentialité de plus en plus complexes, ainsi que les menaces pesant sur l'IA.

Par conséquent, il est urgent de lancer un appel général pour rejoindre les leaders de l'industrie. En travaillant ensemble à l'élaboration de nouveaux codes de conduite ciblés, de normes définies et de nouvelles lois pour améliorer la sécurité de l'IA et la protection de la vie privée, il sera possible de garantir un déploiement responsable et éthique de l'IA à l'avenir. L'IA est une responsabilité partagée. Et ce n'est que le début.


Voir la vidéo: Colloque Les données de lIntelligence Artificielle dans le champ de bataille - Vidéo 2 (Mai 2022).