La falsification visuelle de l'IA générative trompe son logiciel de détection
La falsification visuelle de l'IA générative trompe son logiciel de détection 1809
Une fausse photo d'un baiser entre Elon Musk et une femme robot qui n'a pas été détectée par les outils technologiques spécialisés (Twitter)
Il n'y a aucune protection pour le public contre cela, avec l'échec des entreprises technologiques à concevoir des outils de prévention
Depuis le lancement explosif de ChatGBT le 30 novembre 2022, des avertissements massifs et profonds concernant l'IA générative se sont succédé comme des vagues océaniques agitées.
Il est possible de parler d'innombrables choses, mais les dangers réels et étendus que cette intelligence comporte ne nécessitent rien de moins qu'une alerte multidimensionnelle globale à son sujet. Les alertes aux catastrophes ne sont pas venues de sociétés arriérées ou de systèmes de pensée hostiles au changement, au progrès et aux technologies, mais plutôt des créateurs de cette intelligence artificielle et de ceux qui accompagnent la vision d'ensemble de la technologie, de ses dimensions et de ses effets. Peut-être est-il utile de dire que ces voix responsables et avertisseuses ont également appelé sous diverses formes à des relations positives et critiques avec l'intelligence générative afin de la contrôler positivement. Il est plus probable que ce fil relie des avertissements et des visions de tonalités différentes émanant de l'investisseur technologique Elon Musk et du fondateur de Google, Eric Schmidt, du conseiller en chef de l'intelligence reproductive de Google, le Dr Geoffrey Hinton, et du fondateur de Microsoft, Bill Gates (il est devenu le principal investisseur de l'entreprise qui fait GBT). ) et l'Union européenne et même la Maison Blanche.
La falsification visuelle de l'IA générative trompe son logiciel de détection 1-1745
Quelques semaines après avoir rencontré de hauts responsables de sociétés d'information et de communication avancées à la Maison Blanche en avril 2023, Biden a assisté à une conférence à San Francisco d'experts et d'universitaires de premier plan spécialisés dans l'intelligence artificielle. Cette rencontre a débouché sur un consensus sur la gravité, la profondeur et l'universalité des dangers que l'intelligence artificielle générative fait peser sur les sociétés humaines contemporaines, et donc sur la nécessité d'une action synergique multidimensionnelle et globale pour trouver des solutions qui garantissent le contrôle de cette intelligence et la maintiennent comme un outil brillant au service des esprits humains et du développement des sociétés humaines.
Une histoire d'échec déclaré
Face à cette image empreinte de peur et de prudence, plus d'une voix s'est élevée dans les contextes précités sur la nécessité pour les entreprises fabriquant de l'intelligence artificielle générative d'assumer leur responsabilité, notamment dans la création d'outils permettant au public d'en conjurer les dangers. intelligence. Mais il semble que le début ne soit qu'une histoire d'échec déclaré.
Parmi les principaux dangers de l'intelligence générative figure la question de son utilisation dans les techniques de falsification profonde , en particulier pour les images, les vidéos et autres.
La falsification visuelle de l'IA générative trompe son logiciel de détection 1--808
Selon le résumé d'un long article paru récemment dans le « New York Times », les outils techniques mis en œuvre par les entreprises technologiques traînent la queue de la déception et de la défaite devant la profonde falsification de l'intelligence obstétricale, et l'amertume de celle-ci. la déception augmente que les images influentes soient bloquées dans les yeux et la mémoire visuelle, laissant en elles des interactions entrelacées même si les esprits savaient que ce que les yeux voyaient n'était rien d'autre que l'art de la manipulation et de la falsification.
Le New York Times en a fourni un ensemble bien connu d'exemples, car Elon Musk n'a pas embrassé une femme robot, et le pape François n'a pas porté l'écharpe "Balenciaga" connue aux couleurs de l'arc-en-ciel en référence aux personnes ayant des orientations sexuelles non traditionnelles. , et la police américaine n'a pas arrêté Donald Trump en tant que criminel capturé par un officier sous la forme de Joe Biden, et ainsi de suite.
D'un autre côté, ces images et ces bandes se sont répandues comme une traînée de poudre, parcourant le monde et pleuvant sur des centaines de millions d'écrans partout dans le monde.
La falsification visuelle de l'IA générative trompe son logiciel de détection 1-1746
Ce que vous voyez n'est pas l'image d'une jolie fille, mais un faux travail avec une intelligence obstétricale qui peut échapper aux outils technologiques dans sa détection (Midjourney)
L'humain n'a qu'un esprit critique
Le New York Times s'est concentré sur ce type de scène et d'autres. Le journal a testé cinq outils technologiques de base dans la détection de faux en profondeur réalisés par des sociétés techniques spécialisées dans ce domaine de traitement de l'intelligence artificielle. Sur ces outils technologiques, le journal a montré plus de 100 images superposées par des applications d'IA générative bien connues qui créent des images, des peintures et des vidéos, telles que Midjourney, Stable Diffusion et DALL.E.
Le journal a également fourni à ces mêmes outils technologiques un ensemble de photos réelles, dont certaines ont été prises par des photographes travaillant pour ce journal. Les résultats ont montré que ces outils technologiques qui sont fabriqués et présentés par les entreprises technologiques comme des moyens de détecter les contrefaçons profondes peuvent s'améliorer, mais ils sont toujours sujets à l'échec.
La falsification visuelle de l'IA générative trompe son logiciel de détection 1--809
Un exemple décevant d'échec frustrant est la fausse image d'un baiser mutuel entre Elon Musk et un robot en forme de femme réalisée par la célèbre application "Medjourney" spécialisée dans l'installation d'intelligence artificielle, et bien que la plupart des gens aient réalisé sa fausseté , il a confondu des outils tels que "Hive" et "Illuminarty, Sensity, AI or Not, Umm-maybe's AI Art Detector, et d'autres.
La plupart de ces gadgets technologiques ont été trompés par l'image d'une religieuse âgée avec un léger sourire sur le visage, et ils ont été fabriqués par un passionné d'art et d'informatique utilisant l'intelligence artificielle générative.
La même description d'échec s'appliquait à la capacité des outils des entreprises technologiques à détecter la falsification de la célèbre bande vidéo de l'explosion près du Pentagone, qui a parcouru la terre en quelques secondes et a fait chuter le marché boursier pendant des minutes, au cours desquelles beaucoup d'argent a été perdu.

Bref, nous en sommes probablement encore aux premiers passages du livre de la relation entre l'esprit humain et l'intelligence artificielle générative. Quant à la prévention de l'utilisation abusive de l'intelligence artificielle dans la falsification profonde, il est plus probable que le public soit encore semi-exposé et sans défense à ce sujet, et il doit s'appuyer sur l'augmentation du degré de suspicion systématique et de pensée critique . La situation changera-t-elle dans un avenir proche pour le pire ou pour le mieux ? Attendons voir.





Source: sites Internet