Information

Qu'est-ce que l'intelligence artificielle explicable et est-elle nécessaire?

Qu'est-ce que l'intelligence artificielle explicable et est-elle nécessaire?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

L'intelligence artificielle explicable-XAI est un sujet fréquemment débattu ces dernières années et un sujet de contradictions. Avant de discuter de la fiabilité de l'intelligence artificielle (IA), si l'IA essaie de modéliser notre réflexion et notre prise de décision, nous devrions être en mesure d'expliquer comment nous prenons réellement nos décisions! N'est-ce pas?

CONNEXES: L'INTELLIGENCE ARTIFICIELLE ET LA PEUR DE L'INCONNU

Il y a une transformation de l'apprentissage automatique qui se déroule parfois plus vite et parfois plus lentement depuis les années 1950. Dans un passé récent, le domaine le plus étudié et le plus frappant est l'apprentissage automatique, qui vise à modéliser le système de décision, le comportement et les réactions.

Les bons résultats obtenus dans le domaine de l'apprentissage automatique ont conduit à une augmentation rapide de la mise en œuvre de l'IA. Le travail avancé promet d'être des systèmes autonomes capables de se percevoir, d'apprendre, de prendre des décisions et de bouger.

CONNEXES: 13 SITES GRATUITS POUR OBTENIR UNE INTRODUCTION À L'APPRENTISSAGE MACHINE

Surtout après les années 1990, le concept d'apprentissage profond est basé sur le passé, mais les réseaux de neurones récursifs, les réseaux de neurones convolutifs, l'apprentissage par renforcement et les réseaux contentieux connaissent un succès remarquable. Bien que des résultats positifs soient obtenus, il est inadéquat d'expliquer ou d'expliquer les décisions et les actions de ces systèmes aux utilisateurs humains.

Portée de l'intelligence artificielle explicable

Les modèles d'apprentissage en profondeur conçus avec des centaines de millions de couches de réseaux de neurones artificiels ne sont pas infaillibles. Ils peuvent perdre rapidement leur crédibilité, surtout lorsqu'ils sont simplement induits en erreur comme dans le cas d'une attaque à un pixel! Ensuite, il devient inévitable de se poser la question de savoir comment réussir ou échouer!

Le ministère de la Défense (DoD) déclare que les systèmes plus intelligents, autonomes et symbiotiques sont confrontés à des défis.

"L'IA explicable - en particulier l'apprentissage automatique explicable - sera essentielle si les futurs combattants veulent comprendre, faire confiance de manière appropriée et gérer efficacement une génération émergente de machines partenaires artificiellement intelligentes."

La complexité de ce type d'applications avancées augmente avec les succès et la compréhension-explicabilité devient difficile. Même dans certaines conférences, il n'y a que des sessions où ce sujet est discuté.

Les raisons des nouveaux systèmes d'apprentissage automatique / profond

Il vise à expliquer les raisons des nouveaux systèmes d'apprentissage automatique / profond, à déterminer leurs forces et leurs faiblesses et à comprendre comment se comporter à l'avenir. La stratégie pour atteindre cet objectif est de développer des techniques d'apprentissage artificiel nouvelles ou modifiées qui produiront des modèles plus définissables.

Ces modèles sont destinés à être combinés avec des techniques d'interface interactive homme-ordinateur de pointe, qui peuvent convertir les modèles en boîtes de dialogue d'explication compréhensibles et utiles pour l'utilisateur final.

Avec trois attentes de base, on souhaite aborder le système:
▪. Expliquez la raison pour laquelle les parties qui conçoivent et utilisent le système sont affectées.
▪. Expliquez comment les sources de données et les résultats sont utilisés.
▪. Expliquez comment les entrées d'un modèle d'IA mènent aux sorties.

«XAI est l'un des rares programmes DARPA actuels censés permettre aux systèmes d'intelligence artificielle de troisième vague de permettre aux machines de comprendre le contexte et l'environnement dans lesquels elles opèrent, et de construire au fil du temps des modèles explicatifs sous-jacents qui leur permettent de caractériser les phénomènes du monde réel. . »

Si l'on part de la pratique médicale, après avoir examiné les données du patient, à la fois le médecin doit comprendre et expliquer au patient qu'il a proposé au patient concerné le risque de crise cardiaque sur recommandation du système d'aide à la décision.

À ce stade, premièrement, quelles données sont évaluées est un autre critère important. Il est également important d'identifier les données nécessaires et ce qui doit être fait pour une évaluation appropriée.

La psychologie de l'explication

Regardons le point où nous refusons d'utiliser la technologie d'apprentissage artificiel parce que nous ne pouvons pas expliquer comment l'intelligence artificielle donne sa décision. D'un autre côté, tant de gens ne peuvent pas vraiment expliquer comment ils ont pris la décision!

Imaginons comment une personne a pris une décision au niveau du modèle: lorsque nous abordons notre structure biologique au niveau chimique et physique, nous parlons de signaux électriques d'une cellule cérébrale à une autre cellule cérébrale. Si vous n'êtes pas satisfait de cette explication, dites-moi comment vous avez décidé de commander un café!

Lorsqu'un de vos amis a commandé un café glacé, l'autre a commandé du café chaud et l'autre une tasse de thé dans un café. Pourquoi choisissent-ils le café glacé et le café chaud? Quelqu'un peut-il expliquer les produits chimiques et les synapses dans le cerveau? Peux-tu expliquer? Voulez-vous une telle explication? Tu sais ce que c'est? Un humain commence à inventer une histoire sur la façon dont il / elle décide! J'espère que ce sera une histoire fantastique que vous écouterez, essayez-la!

Regardez simplement vos données d'entrée et de sortie, puis racontez une histoire amusante! En fait, il existe une approche similaire pour les questions analytiques et importantes. Les interprétations, la transparence et la clarté sont analytiques, et les analyses sans test sont comme un billet de train aller simple qui crée un sentiment de sécurité.

Dans des conditions parfaites;
▪, Un système qui produit les meilleures performances,
▪. Vous voulez la meilleure explication.

Mais la vraie vie nous oblige à choisir.

Performance vs explicabilité

Interprétation: Vous comprenez, mais ça ne marche pas bien!

Performance: Vous ne comprenez pas mais fonctionne bien!

En particulier, les universitaires, les chercheurs et les entreprises technologiques n'accorderont généralement pas beaucoup d'attention dans la mesure où ils accorderont plus d'importance à la performance. Cependant, le scénario avec les personnes et les institutions impliquées dans le secteur est légèrement différent. Ils veulent faire confiance et attendent une explication.

Les approches de l'IA diffèrent pour les banques, les compagnies d'assurance, les prestataires de soins de santé et d'autres secteurs différents. En effet, les modèles pour ces secteurs apportent des réglementations juridiques et des exigences éthiques différentes. Dans ce cas, nous revenons au même point. Si vous voulez que votre système soit expliqué dans la condition suivante, vous devrez le remplacer par le plus simple et pas trop fort, pour l'instant!

Les recherches sur ce sujet sont principalement DARPA, Google, DeepMind et ainsi de suite. Si les institutions continuent à être menées de manière intensive, cela ressort des rapports; Quel que soit le secteur et les personnes utilisées par les systèmes d'intelligence artificielle, il existe une telle relation entre la clarté et la précision qu'un compromis est inévitable et semble se poursuivre pendant un certain temps.

Après tout, l'IA ne doit pas être transformée en une puissance divine que nous serons amenés à poursuivre sans établir une relation de cause à effet. D'un autre côté, nous ne devons pas ignorer les informations qui nous seront fournies.

Fondamentalement, nous devons penser à créer des modèles flexibles et interprétables qui peuvent travailler ensemble en harmonie avec les experts qui ont des connaissances au niveau technique et académique et les opinions de différents secteurs et disciplines.

Merci

Je remercie chaleureusement Başak Buluz, Yavuz Kömeçoğlu ve Hakan Aydemir pour leurs commentaires.


Voir la vidéo: Cynthia Fleury - Enjeux éthiques de lintelligence artificielle et.. (Juillet 2022).


Commentaires:

  1. Steve

    Je m'excuse d'avoir interféré ... Je comprends ce problème. Je vous invite à une discussion. Écrivez ici ou dans PM.

  2. Parisch

    Pas clairement

  3. Siraj-Al-Leil

    C'est une réponse drôle

  4. Jerard

    C'est vraiment cool

  5. Umar

    Quelle locution...



Écrire un message