Les scientifiques sont incapables d'expliquer l'existence de zones mystérieuses dans le travail de l'intelligence artificielle
Les scientifiques sont incapables d'expliquer l'existence de zones mystérieuses dans le travail de l'intelligence artificielle 11669
Quelle est votre saveur de glace préférée ? Vous pourriez dire vanille ou chocolat, et si vous demandez pourquoi, vous direz probablement parce que c'est bon. Mais pourquoi a-t-il bon goût ? Et pourquoi avez-vous toujours envie d'essayer d'autres saveurs parfois ? Nous remettons rarement en question les décisions fondamentales que nous prenons dans notre vie quotidienne, mais si nous le faisons, nous pouvons réaliser que nous ne pouvons pas identifier les raisons exactes de nos préférences, émotions et désirs à un moment donné.
De même, il existe un problème similaire avec l'intelligence artificielle : les personnes qui développent l'intelligence artificielle ont de plus en plus de mal à expliquer comment elle fonctionne et pourquoi elle donne certains résultats, parfois inattendus.
Les réseaux de neurones DNN-Deep - constitués de plusieurs couches de systèmes de traitement de données que les scientifiques y ont alimentés pour imiter les réseaux de neurones du cerveau humain - semblent souvent refléter non seulement l'intelligence humaine, mais aussi l'incapacité d'expliquer comment c'est fait Le fonctionnement du cerveau humain.

!La boîte noire.. la mystérieuse
La plupart des systèmes d'intelligence artificielle fonctionnent d'une manière appelée "boîte noire", qui est un système qui n'est exposé qu'en termes d'entrées et de sorties, mais les scientifiques n'essaient pas de déchiffrer cette "boîte noire", ou les opérations mystérieuses effectuées par le système, tant qu'ils reçoivent les sorties qu'ils recherchent .
Par exemple, si vous fournissez des données à l'IA sur chaque saveur de crème glacée et des données démographiques sur les facteurs économiques, sociaux et de style de vie de millions de personnes, elle devinera probablement votre saveur de crème glacée préférée ou l'endroit où vous préférez la manger et dans quel glacier, même s'il n'est pas programmé à cet effet.
Ces types de systèmes d'IA sont connus pour certains problèmes, car les données sur lesquelles ils sont formés sont souvent de nature biaisée, imitant les préjugés raciaux et sexistes qui existent au sein de notre société. Par exemple, l'IA est souvent identifiée à tort comme des personnes noires de manière disproportionnée grâce à la technologie de reconnaissance .sur le visage.
?Comment se débarrasser de la dépendance aux applications
Les scientifiques sont incapables d'expliquer l'existence de zones mystérieuses dans le travail de l'intelligence artificielle 1-272
!Je ne peux pas expliquer
Au fil du temps, ces systèmes deviennent difficiles à réparer en partie parce que leurs développeurs ne peuvent souvent pas expliquer pleinement leur fonctionnement, ce qui rend le problème difficile. Alors que les systèmes d'IA deviennent plus complexes et que les humains deviennent moins capables de les comprendre, les experts et les chercheurs en IA avertissent les développeurs de prendre du recul et de se concentrer davantage sur comment et pourquoi l'IA produit certains résultats plutôt que sur le fait que le système peut les produire avec précision et rapidité.
Écrit par Roman F. Yampolsky, professeur d'informatique à l'Université de Louisville, dans son article intitulé "L'inexplicabilité et l'incompréhensibilité de l'IA" déclare : "De plus, si nous nous habituons à accepter les réponses de l'IA sans explication, en la traitant essentiellement comme un oracle, nous ne pourra pas savoir s'il commencerait à donner des réponses fausses ou manipulatrices à l'avenir. D'après ce qui a été publié par "Vice".
Il convient de noter que les systèmes d'intelligence artificielle ont été utilisés dans les voitures autonomes, les chatbots pour le service client et le diagnostic des maladies, et ils ont également la capacité d'effectuer certaines tâches mieux que les humains.

Par exemple, une machine est capable de se souvenir d'un billion d'éléments, tels que des chiffres, des lettres et des mots, contre des humains, qui s'en souviennent en moyenne de sept dans leur mémoire à court terme. Les modèles d'IA en sont capables, et la capacité de leurs développeurs pour expliquer son fonctionnement a diminué avec le temps.
"Si les chefs d'entreprise et les scientifiques des données ne comprennent pas pourquoi et comment l'IA calcule la sortie qu'elle fait, cela crée des risques potentiels", a déclaré Emily M. Bender, professeur de linguistique à l'Université de Washington, dans un communiqué de presse. d'une capacité à expliquer le fonctionnement de l'intelligence artificielle limite sa valeur potentielle.
Le risque est que le système d'IA puisse prendre des décisions en utilisant des valeurs avec lesquelles nous ne sommes peut-être pas d'accord, comme des décisions biaisées (comme le racisme ou le sexisme). Un autre risque est que le système prenne une très mauvaise décision, mais nous ne pouvons pas nous impliquer parce que nous ne comprenons pas ses raisons, a déclaré Jeff Clune, professeur adjoint d'informatique à l'Université de la Colombie-Britannique.


Source: sites Internet