Information

Les Deepfakes IA sont désormais plus faciles à réaliser que jamais, indiquant un avenir inquiétant

Les Deepfakes IA sont désormais plus faciles à réaliser que jamais, indiquant un avenir inquiétant


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Dans un développement inquiétant, les chercheurs ont conçu une nouvelle technique pour produire des deepfakes d'IA qui ne nécessitent que la saisie du texte que vous voulez que la personne dise.

Une nouvelle technologie dérangeante ne cesse de s'améliorer sans raison valable

Les chercheurs ont développé un nouveau logiciel AI deepfake qui peut éditer une vidéo pour faire dire à une personne ce que vous voulez simplement en tapant ce que vous voulez qu'elle dise. C'est le prochain pas en avant dans une technologie qui n'a pas de réelle utilité sociale positive, sauf pour aider les studios de cinéma à économiser de l'argent, mais qui est garantie d'être mal utilisée par les gouvernements autoritaires du monde entier pour discréditer les voix dissidentes, générer du porno vengeur et fomenter des conflits sociaux.

CONNEXES: CETTE PERSONNE N'EXISTE PAS LE SITE WEB EST UN REGARD PLEIN VERS LE FUTUR

Des scientifiques de l'Université de Stanford, de l'Université de Princeton, du Max Planck Institute for Informatics et d'Adobe Research sont allés de l'avant et ont démontré à première vue pourquoi les gens se méfient de la technologie en développant une nouvelle plate-forme logicielle qui peut vous permettre de modifier la transcription textuelle de quelqu'un enregistré. discours pour modifier la vidéo pour dire quelque chose qu'ils n'ont pas réellement dit.

La technologie fonctionne en faisant correspondre un phonème, le terme de traitement du langage naturel pour différents sons, avec un visime, la forme du visage que ces phonèmes font lorsque la personne parle un phonème, puis en utilisant une IA pour générer la nouvelle vidéo basée sur une transcription de ce que la personne a dit. La modification de la transcription modifiera ensuite la vidéo de la personne pour qu'elle corresponde au texte modifié.

Selon les chercheurs, "Notre approche d'édition basée sur du texte jette les bases de meilleurs outils d'édition pour la post-production de films. Les scènes de dialogue filmées nécessitent souvent un re-timing ou un montage basé sur de petits changements de script, ce qui nécessite actuellement un travail manuel fastidieux. Notre technique d'édition permet également une adaptation facile du contenu vidéo audiovisuel à des publics cibles spécifiques: par exemple, les vidéos d'instruction peuvent être adaptées à des publics de différents horizons, ou une vidéo de conteur peut être adaptée aux enfants de différents groupes d'âge uniquement sur la base de modifications de scripts textuels. En bref, notre travail a été développé à des fins de narration. "

Les chercheurs reconnaissent le potentiel des mauvais acteurs d'utiliser leur technologie à des fins néfastes et proposent des solutions potentielles à ce problème inévitable.

«Bien que les méthodes de manipulation d'images et de vidéos soient aussi anciennes que les médias eux-mêmes», écrivent les chercheurs [PDF], «les risques d'abus sont accrus lorsqu'ils sont appliqués à un mode de communication qui est parfois considéré comme une preuve faisant autorité des pensées et des intentions. . - Nous reconnaissons que de mauvais acteurs pourraient utiliser ces technologies pour falsifier des déclarations personnelles et calomnier des personnalités éminentes. Nous sommes préoccupés par ces tromperies et abus.

"Par conséquent", poursuivent-ils, "nous pensons qu'il est essentiel que la vidéo synthétisée à l'aide de notre outil se présente clairement comme synthétique. Le fait que la vidéo soit synthétisée peut être évident par contexte (par exemple, si le public comprend qu'il regarde un film de fiction) , directement indiqué dans la vidéo ou signalé par filigrane. Nous pensons également qu'il est essentiel d'obtenir la permission des interprètes pour toute modification avant de partager une vidéo résultante avec un large public. Enfin, il est important que nous, en tant que communauté, continuions à nous développer des techniques médico-légales, d'empreintes digitales et de vérification (numériques et non numériques) pour identifier la vidéo manipulée. De telles mesures de sauvegarde réduiraient le potentiel d'utilisation abusive tout en permettant des utilisations créatives de technologies de montage vidéo comme la nôtre.

Prenons-les un à la fois.

Premièrement, suggérer que les deepfakes devraient clairement se présenter comme tels montre une compréhension extrêmement naïve de la propagande. Staline aurait trouvé ces avertissements étranges, de même que tout gouvernement autoritaire ou mouvement politique à l'avenir qui utilisera cette technologie pour cibler des dissidents, des opposants politiques et des minorités ethniques ou religieuses.

Deuxièmement, si une IA peut générer de fausses vidéos, un réseau d'IA peut supprimer un filigrane encore plus facilement. Ce n'est pas une solution.

Troisièmement, consentir à ce que votre discours soit modifié en tant qu'artiste est certainement un avantage dans l'industrie cinématographique, mais cela ne veut rien dire si quelqu'un entreprend de créer une contrefaçon illicite. Les mauvais acteurs ne recherchent pas le consentement pour créer une fausse célébrité ou venger le porno, ou pour calomnier et ternir les autres pour un agenda.

Enfin, créer des outils pour détecter les faux est absolument inutile en matière de propagande. Les protocoles des anciens de Sion est un faux tsariste vieux de plus d'un siècle et a été discrédité en tant que faux pendant tout aussi longtemps, mais il est toujours utilisé pour fomenter avec succès l'antisémitisme mondial à ce jour. Combien de temps avant que des clips de George Soros ne commencent à circuler en ligne sur l'utilisation du sang d'enfants chrétiens pour des pâtisseries juives? Sommes-nous censés croire que prouver que ces vidéos sont des deepfakes est tout ce dont nous avons besoin pour éviter que ces vidéos ne causent un dommage incroyable?

Cette technologie va faire tuer des populations entières

L'industrie de la technologie est habituée à être vénérée en tant que sauveur de notre temps et de notre argent, se vantant d'une éthique entrepreneuriale qui frôle presque Bioshock-niveau d'objectivisme-narcissisme, mais les fissures dans leur image publique commencent à se répandre. Les chauffeurs d'Uber et de Lyft approchent du point de révolte ouverte contre les salaires de misère. Facebook essaie désespérément, ridiculement, de se rebaptiser comme un «réseau axé sur la confidentialité» alors même qu'il continue de répandre des données personnelles dans le monde comme un ivre au bar essayant de conserver cette dernière pinte de bière. Désormais, les chercheurs travaillant sur les deepfakes d'IA peuvent affirmer sans détour que la réponse à l'utilisation abusive propagandiste de leur technologie est un filigrane ou de faire confiance à une autre technologie pour nous sauver des dangers de la technologie qu'ils créent.

Comme l'élection présidentielle américaine de 2016 l'a montré au monde, une technologie de l'information à faible coût relatif peut avoir un impact démesuré, et la valeur propagandiste des deepfakes à travers le monde est horrible. Nous n'avons pas non plus à attendre pour voir ce jeu; cela se produit peut-être déjà. Une récente vidéo du réveillon du Nouvel An du président gabonais, Ali Bongo Ondimba, a provoqué une crise politique après que certains critiques - y compris l'armée du pays - aient contesté la vidéo comme un deepfake destiné à cacher la condition actuelle du président.

Que la vidéo soit un deepfake ou non n'est pas clair et est honnêtement hors de propos. Le fait que cette technologie existe fait des dégâts dans les deux cas. Les fausses vidéos peuvent être utilisées pour discréditer les personnalités de l'opposition, soutenir les dirigeants défaillants ou répandre d'autres informations erronées; ou, les gens peuvent désormais rejeter la documentation vidéo des choses qu'ils n'aiment pas comme des "deepfakes" même s'ils sont réels. Déterminer l'authenticité de la vidéo sera aussi utile que les vérificateurs de faits l'ont été pour lutter contre la propagation de fausses nouvelles.

Les chercheurs qui ont développé cette nouvelle technologie logicielle appellent à toutes sortes de garanties qui devraient être mises en place pour protéger le monde des conséquences de leur technologie, mais alors qu'ils se précipitent pour développer la technologie pour produire de fausses vidéos, personne ne semble être tout ce que intéressé à développer ces garanties.

Au lieu de cela, les chercheurs à l'origine de ce dernier logiciel sont essentiellement convaincus que la population mondiale - dont la plupart ont divers niveaux de contrôle imposés à leurs sources d'information - découvriront par eux-mêmes si la vidéo qu'ils viennent de voir à la télévision gouvernementale était un faux ou non. Ils ne peuvent pas être dérangés de le faire eux-mêmes, apparemment.

Les conséquences de cette technologie ne peuvent être sous-estimées. En 1994, un avion transportant le président du Rwanda a été abattu, tuant tout le monde à bord. Le gouvernement hutu du Rwanda a blâmé une armée rebelle tutsie pour l'attaque, précipitant un génocide de cent jours de civils tutsis qui a fait près d'un million de vies. Les divers conflits dans les Balkans ont coûté la vie à plus de cent mille vies depuis l'éclatement de la Yougoslavie et les gouvernements ont longtemps utilisé la désinformation et des fabrications flagrantes pour inciter les pogroms contre les Juifs et d'autres minorités persécutées à travers l'histoire de l'humanité.

Des tensions comme celles-ci existent partout dans le monde en ce moment, en attendant qu’un point d’éclair enflamme ces tensions en guerre et génocide. Une imitation profonde d'un chef ou d'une figure éminente d'une minorité religieuse ou ethnique "avouant" un crime horrible serait une "justification" plus solide pour inciter à un génocide que les génocides passés ne l'ont invoquée. À ce jour, personne ne sait qui a abattu l'avion du président rwandais, mais il n'a fallu que des accusations énergiques pour déclencher le massacre.

Toutes les situations ne sont pas au Rwanda en 1994, parfois une accusation ne suffit pas - mais qui a besoin d'une accusation quand on peut avoir une «confession»? Rien n'empêche un deepfake de devenir le 21e siècle Protocoles des anciens de Sion- en fait, il est garanti qu'un tel faux est désormais inévitable et que des gens mourront sûrement à cause de cela. Beaucoup de gens.

Dans son Mère Jones histoire de la controverse du deepfake gabonais, Ali Breland écrit: «[w] hile la plupart de la couverture médiatique des deepfakes s'est concentrée sur des scénarios d'horreur où ils sont utilisés contre les États-Unis et d'autres pays occidentaux, les experts préviennent que les deepfakes pourraient faire le plus de ravages dans les pays en développement , qui abritent souvent des gouvernements fragiles et des populations dotées d'une littératie numérique naissante. Plutôt qu'une fausse vidéo du PDG d'Amazon Jeff Bezos annonçant sa retraite, déclenchant une baisse des stocks, la désinformation dans certains pays pourrait conduire à des coups d'État, à des violences sexistes ou à motivation ethnique , menaçant la stabilité d'États entiers. "

Dans un article récent du New York Times, le Dr Regina Rini, professeur de philosophie à l'Université York de Toronto, estime qu'il est déjà trop tard pour faire demi-tour et que nous devons nous préparer à traiter la vidéo plus comme un témoignage de témoin que comme une preuve documentaire. . "Il est clair que les arguments actuels sur les fausses nouvelles ne sont qu'un avant-goût de ce qui se passera lorsque les sons et les images, et pas seulement les mots, seront susceptibles d'être manipulés par quiconque possède un ordinateur décent."

Ethique, Shmethics

Si les personnes impliquées dans la production de cette technologie avaient reçu une formation appropriée en éthique - ou même simplement en histoire -, cette technologie n'aurait jamais quitté le stade de la proposition et quiconque aurait poussé pour elle aurait été renvoyé par des gestionnaires qui avait a reçu une éducation éthique appropriée. Étant donné qu'aucun responsable des entreprises et des institutions qui ont développé cette technologie ne semble penser que de telles considérations étaient suffisamment préoccupantes pour empêcher la construction de cette technologie, il serait peut-être temps pour la société d'intervenir et de contenir ces personnes avec une réglementation.

Les chercheurs en question semblent apprécier ce point eux-mêmes, lorsqu'ils écrivent «nous pensons qu'une conversation publique robuste est nécessaire pour créer un ensemble de réglementations et de lois appropriées qui équilibreraient les risques de mauvaise utilisation de ces outils par rapport à l'importance de la créativité et du consensus. cas d'utilisation. " Elle n'aurait jamais dû aller aussi loin, cependant, puisque les «cas d'utilisation créatifs et consensuels» perdent de leur importance à côté des énormes dommages que causera «l'utilisation abusive» de leur technologie. En pesant les uns contre les autres, toute personne raisonnable aurait dû être en mesure de conclure qu'en aucun cas un avantage de cette technologie pour l'industrie ne justifie le préjudice que cette technologie causera à la société. Il semble cependant que l'industrie de la technologie soit privée de personnes raisonnables, car elles ne peuvent manifestement pas s'aider elles-mêmes chaque fois qu'elles voient un autre fil du tissu social qu'elles peuvent «perturber».

Déjà, cette technologie signifie que nous ne pouvons plus faire confiance à ce que nous voyons de nos propres yeux. On pourrait soutenir que nous devrions toujours être vigilants contre la désinformation, mais cela aussi est naïf. Qui veut passer chaque moment éveillé à lire, visualiser ou digérer des informations avec ce genre de scepticisme intransigeant, tout le temps? Cela nécessite un niveau d'éducation et d'énergie mentale que tout le monde ne possède pas et que personne ne peut maintenir éternellement. La société se construit, en fin de compte, sur un certain niveau de confiance. Cette technologie détruit simplement une partie de cette confiance durement gagnée les uns envers les autres qui ne peut pas être facilement réparée, voire pas du tout.

Mais bon, si vous avez une modification mineure du script et que vous devez recommencer 15 secondes de dialogue, cette technologie vaut totalement le coût social.


Voir la vidéo: Home Stallone DeepFake (Juillet 2022).


Commentaires:

  1. Elimu

    boyan

  2. Muzshura

    Ce n'est pas dommage d'imprimer un tel post, on trouve rarement ça sur internet, merci !

  3. Jorma

    Peut-être que c'est faux ?



Écrire un message