L'IA générative en quatre questions fondamentales
L'IA générative en quatre questions fondamentales 12151
Le modèle linguistique de l'IA générative a été capable de créer des textes à partir de sa propre création obscure jusqu'à ses créateurs (Noroflex.net)
Commençons par les questions faciles, menant peut-être à leurs homologues plus profondes, sur l'IA générative.Pourquoi cette technologie dans l'interaction des machines avec l'humanité a-t-elle soulevé tout ce bruit inconnu depuis le lancement du modèle de chat bot « Chat GPT », suivi de « GPT », par Sam Altman, directeur de la société « Open ai » ? Pourquoi les tonalités de critique de cette technologie ont-elles atteint des niveaux si élevés d'avertissement, voire d'appréhension catastrophique ? N'est-il pas remarquable que cette pensée critique prudente soit venue des principaux fabricants de technologies et de ceux qui s'en occupent ? Ne vaut-il pas la peine de prêter attention à la mesure dans laquelle les institutions du système international ont adopté la haute critique d'avertissement à l'égard de cette technologie, et qu'elle en est arrivée à rédiger un code de conduite à son sujet par l'Union européenne et les Nations unies le lancement d'une initiative internationale pour parvenir à une action internationale coordonnée à ce sujet, et l'implication de la Maison Blanche dans des réunions successives avec des dirigeants de haut niveau. Les sociétés d'information et de communication avancées, qui parrainent la fabrication et le développement de l'intelligence générative, pour proposer une vision des moyens d'empêcher son des risques?
Avant de chercher des pistes qui peuvent ou non conduire à des réponses, il convient de commencer par une première question : qu'est-ce que l'IA générative ? Qu'est-ce qu'il y a de nouveau là-dedans qui a suscité tout ce remue-ménage ? Comment ça marche? Y pense-t-il vraiment, ou ne s'agit-il, selon les experts en machine learning de Facebook, ni d'un changement fondamental ni d'une révolution technique?

Tout d'abord, il est clair que le suivi de ces questions est quelque chose qu'un article, pas même un grand groupe d'entre eux, réalise, mais il n'y a rien de mal à essayer de jeter quelques lumières flash sur certaines fonctionnalités de cette technologie qui a soulevé des confusions et des peurs , en plus de l'optimisme pour le développement continu de la relation entre l'intelligence humaine et son homologue dans les machines.
?Intelligence générative ? Qu'est ce que ça veut dire
Très probablement, le mot Génératif constitue la différence entre le développement et les risques supportés par la nouvelle technologie. Le terme d'intelligence artificielle circule en référence à l'intelligence artificielle depuis les travaux du célèbre scientifique Alan Turing (1912-1954) vers le milieu du XXe siècle. Depuis lors, Turing a prédit que l'intelligence artificielle évoluera pour "simuler" l'intelligence humaine, mais la différence entre les deux persistera. Turing a exigé que les humains soient prêts à accepter cette intelligence. L'ironie est qu'il a fixé un examen qui a été considéré comme un test décisif, pour tester la similitude entre les deux intelligences. Pendant des décennies, l'intelligence artificielle n'a pas vraiment réussi le test de Turing. Le paradoxe est que l'intelligence générative a pu passer ce critère, ce qui signifie qu'elle est passée au stade de développement vers l'imitation et la "similarité" avec l'intelligence humaine.
?Qu'est-ce qui a permis aux machines de faire cela
Considérez le nom de la nouvelle technologie, GPT, qui signifie Generative Pre Trained Transformer. Le mot génération, dans une sténographie relativement mauvaise, fait référence à quelque chose comme une paraphrase de textes, et cela inclut la création d'un nouveau texte qui les résume et les réduit et préserve leur style, leur disposition et leurs connexions. C'est un domaine linguistique ancien et bien établi dans l'enseignement à tous les niveaux.
L'IA générative en quatre questions fondamentales 11983
En Occident, les bases d'une théorie linguistique de la "paraphrase" ont été posées dans un livre de ce titre écrit par le savant Desiderius Erasmus en l'an 1548. Cette faculté linguistique était incluse dans l'enseignement scolaire et universitaire, et ses méthodes, méthodes de fabrication, et les mécanismes de la pratique se sont approfondis. La description s'applique à l'enseignement moderne des langues dans la plupart des pays.
Est-ce à dire que « GPT » représente une intelligence artificielle traditionnelle à laquelle s'est ajoutée la possibilité de paraphraser des textes, avec ce qu'elle comporte de résumé et de sténographie ? Non, si on veut une réponse semi-suffisante, et oui de façon relative aussi, si on veut en développer une perception générale, pratique et large.
Avant de continuer, l'accent sera mis sur l'IA générative liée au langage car elle a formé la structure de base, plutôt le modèle d'expression technique, qui est maintenant en cours de développement pour former d'autres modèles.
L'IA générative en quatre questions fondamentales 1-1333
?Comment les machines apprennent-elles les sciences du langage
Pour en revenir au langage, ce n'est pas seulement le refactoring qui a fait la différence pour GPT, mais il est intervenu à un moment où l'apprentissage automatique dans le domaine du langage a atteint un stade avancé, qui sera expliqué en quelques lignes.
Si les machines ont commencé à s'exercer à préparer des textes linguistiques, après qu'on leur ait «transféré» des connaissances humaines et des méthodes pour les traiter.
Qu'est-ce que cela signifie que les sciences du langage ont été « transférées » vers des machines intelligentes ? Il existe toute une science dans le domaine de l'informatique numérique appelée "Computer Linguistics", qui traite de la majeure partie de ce chemin.
L'IA générative en quatre questions fondamentales 1-1357
Avec une brièveté excessive, il est possible de souligner que les sciences du langage se sont développées en Occident, notamment avec la cristallisation de ce qu'on appelle le terme « sémiotique ».
En bref, la sémiotique comprend trois branches des sciences du langage : la pragmatique, la sémantique et la signalisation ou syntaxe, c'est-à-dire la structure des signes dans le langage. La pragmatique traite de la façon dont le langage est utilisé dans les sociétés, y compris la grammaire, la syntaxe et la morphologie, et comment la signification des mots évolue au fil du temps, ainsi que la façon dont les phrases acquièrent un sens à travers l'utilisation sociale et temporelle. La sémantique étudie le sens des mots dans les phrases, au sens d'étudier la relation de différentes formes linguistiques avec des significations mentales, plutôt des représentations mentales. Ainsi, les sciences sémantiques permettent de comprendre comment les phrases sont comprises pour les possesseurs d'une langue particulière, et cela a évolué au fil du temps.
La syntaxe traite du langage comme de purs symboles, organisés selon des formules qui ont des spécifications similaires à la façon dont les nombres forment les nombres, l'arithmétique et d'autres types de mathématiques.

Malheureusement, il n'y a pas une telle ligne de développement dans la langue arabe. Parmi les quelques livres en arabe sur ces sciences linguistiques modernes, le livre de Twain Van Dyke "Text and Context, Investigation of Research in Semantic and Pragmatic Discourse", a été traduit par son collègue Abdul Qadir Qanini en 2000.
Pour diverses raisons, ce développement des sciences du langage en Occident depuis les années 80 et 90 du XXe siècle s'est concentré sur la formulation des sciences sémiotiques en équations mathématiques claires. Et parce que les machines électroniques et l'informatique numérique fonctionnent par des équations mathématiques, décrites par le terme d'Algorithmes, les informaticiens ont pu donner à ces machines diverses capacités dans le traitement du langage. Les lignes précédentes ont peut-être fourni une explication de la raison de la répétition fréquente du terme algorithmes dans la discussion sur l'intelligence artificielle, en particulier celle générative.
L'IA générative en quatre questions fondamentales 1-393
Une image fusionnant les personnages de Superman et Batman issus de la synthèse de l'intelligence artificielle générative (Midjourney)
?Comment sont fabriqués les grands modèles de langage de base
Ainsi, les machines intelligentes "utilisent" les sciences modernes du langage, la sémiotique avec ses branches pragmatiques, sémantiques et indicatives, pour traiter les textes linguistiques, à partir du mot unique, jusqu'aux phrases et syllabes et leurs contrôles en grammaire, grammaire et morphologie, ainsi comme des structures de signalisation qui présentent le langage directement comme des signes abstraits semblables à des nombres.
Qu'est-ce que cela veut dire de dire que les machines intelligentes "utilisent" la linguistique moderne ? Outre le fait que ces sciences formulent le langage en équations/algorithmes mathématiques, elles bénéficient du développement de deux approches techniques apparues dans le cadre de l' apprentissage automatique , qui forme le cœur de base de l'intelligence artificielle avancée. Les deux méthodes techniques s'incarnent dans l'avancement de formules d'équations mathématiques qui décrivent les relations et les liens entre différentes choses, ainsi que les algorithmes qui permettent la reconnaissance de formes, c'est-à-dire de capturer ce qui se répète, se ressemble, converge et se produit dans une séquence spécifique, puis basée sur celle-ci pour effectuer des tâches.
L'IA générative en quatre questions fondamentales 1--642
Grâce à l'énorme mémoire des ordinateurs et à la puissance croissante des puces électroniques, les scientifiques ont entraîné les ordinateurs sur les textes de la langue, en utilisant des algorithmes liés à la reconnaissance du motif et à la capture des associations, basés sur les trois sciences de la sémiotique.
Sur la base de ces techniques et sciences linguistiques, ainsi que d'autres outils tels que la paraphrase, les scientifiques ont également formé des machines pour créer des modèles, des structures ou des proto-représentations, afin qu'ils puissent créer leurs propres textes, plutôt paraphraser, raccourcir et condenser des textes. trouvé dans des milliards de livres, publications et publications, afin de Il génère des modèles sur lesquels il se base pour donner des réponses aux questions qui lui sont posées.
Toute cette description précédente donne une explication du sens de faire des grands modèles de langage, qui est considéré comme la structure de base du modèle "GBT", qui ne devient un grand modèle de langage de base que s'il est entraîné à traiter le langage quotidien en vigueur. chez les humains. Il est probable qu'il est devenu familier au public depuis des années de voir les appareils intelligents dans leurs mains, qui complètent les phrases et leur donnent des options pour les mots qui sont fréquemment utilisés dans un contexte spécifique, comme les expressions de félicitations pour les vacances, l'assurance de la santé, ou des compliments lors d'occasions publiques et privées, et autres.
L'IA générative en quatre questions fondamentales 1685
Pour arriver au grand modèle de base, les prototypes d'IA générative sont entraînés sur les dialogues, les écrits, les questions, les réponses et même les appels téléphoniques après avoir été transcrits en scripts. L'écriture d'audience sur les plateformes de médias sociaux a été largement utilisée dans la formation de machines intelligentes et la création de grands modèles de langage de base.
Il est agréable de rappeler que l'utilisation des écrits, des blogs et des tweets du public, sans la moindre autorisation, a suscité des débats qui perdurent.
Afin de compléter la description ci-dessus, après avoir transformé en grands modèles de langage de base, ces modèles sont placés sur des ordinateurs qui sont super puissants en calcul, dans le sens d'une mémoire énorme et de puces avancées dans la vitesse de calcul et de traitement des algorithmes, donc que de grands modèles peuvent être réalisés . La fabrication de grands modèles de base nécessite des esprits informatiques qui entraînent et enseignent les machines, ainsi que de puissants superordinateurs. Chaque modèle de base majeur coûte plus d'un milliard de dollars. D'autre part, fabriquer des modèles de base nécessite quelques dizaines de millions de dollars, et la présence d'ordinateurs avancés et puissants, mais sans avoir besoin d'esprits humains travaillant sur des machines d'entraînement, qui sont peu nombreuses dans le monde, et une lutte énorme est ayant lieu sur eux.
L'IA générative en quatre questions fondamentales 1-1692
Des références en politique et en technologie ont émis un groupe d'avertissements sur les risques majeurs associés à l'intelligence artificielle générative (Daly Lab)
?Que se passe-t-il dans l'obscurité des machines
Une autre caractéristique, et l'une des principales préoccupations de l'IA générative, est qu'on ne sait pas comment cette intelligence fonctionne réellement, ni comment elle évolue, comment elle se développe.
De la description précédente, il ressort clairement que l'intelligence artificielle générative ne connaît pas le sens et le contenu des textes eux-mêmes, mais les traite à travers des techniques telles que la reconnaissance du format. En d'autres termes, il s'agit d'un outil technique qui dispose de la puissance de calcul connue des ordinateurs, en plus des capacités issues de la linguistique informatique et des algorithmes des sciences du langage. Après cela, personne ne sait ce qui se passe. Par exemple, les machines sont formées pour créer des modèles et des représentations, appelées "représentations préformées", mais on ne sait pas comment elles seront utilisées une fois qu'elles en feront partie. Dans quelle mesure la description donnée par Tecnológico de Monterrey à propos de "Chat GBT" ressemble-t-elle à un énorme perroquet répétant ce qu'il ne comprend pas ? Génère-t-il de nouveaux modèles et représentations ? Transférez-vous des représentations et des structures de textes poétiques et littéraires, par exemple, d'une langue à une autre ? Traduit-il lui-même d'une langue à l'autre, en formulant des modèles en allemand, par exemple, à partir de structures en anglais ? Comment les grands modèles d'IA gèrent-ils les informations actuelles qui leur parviennent sur Internet 24 heures sur 24 ? Quel effet cela a-t-il sur l'exactitude de ses réponses, d'autant plus qu'elle ne comprend pas ou ne comprend pas les significations auxquelles elle a réellement affaire ? Il existe un consensus d'experts techniques surPhénomène de méconnaissance de l'intelligence artificielle .
L'IA générative en quatre questions fondamentales 1-554
C'est peut-être une introduction pour comprendre pourquoi l'intelligence artificielle générative fait des erreurs et donne des réponses illogiques et incorrectes sur beaucoup de choses. Il semble plutôt qu'elle assemble ce qui est similaire au modèle de la question qui lui est présentée, simplement parce que ce sont des choses. qui ont été répétés avec un pourcentage élevé des textes auxquels cette intelligence faisait référence. Par exemple, on a demandé à l'intelligence artificielle générative de donner six titres des livres d'Henry Kissinger sur la technologie. Il a donné cinq titres erronés qui pourraient être des phrases récurrentes dans les écrits de Kissinger. Il a donné un titre correct mais l'a attaché à la mauvaise date, peut-être parce que cette date était correcte. le titre a été répété si souvent dans les écrits sur la vision de Kissinger de la technologie. .
Les scientifiques appellent ces réponses fabriquées des "hallucinations", et certains les comparent même à un perroquet répétant des textes avec la confiance d'un scientifique confiant.
Et il en est venu au point qu'un article scientifique a décrit le manque de connaissances des créateurs de l'intelligence artificielle générative sur ce qui se passe dans ses couloirs, comme un casse-tête déroutant qui ne trouvera peut-être jamais de solution, mais le considérait plutôt comme le plus grand défi auquel sont confrontées des générations d'humanité, présentes et futures. Les auteurs de cet article n'étaient autres qu'Eric Schmidt, PDG de Google pendant 11 ans puis à la tête d'Alphabet entre 2011 et 2017 ; et le célèbre politicien Henry Kissinger, et le professeur Daniel Hooten Luscher, professeur d'intelligence artificielle au Massachusetts Institute of Technology. Le trio est l'auteur de The Age of AI: And Our Human Future.

Difficile de ne pas siffler fort dans les pays arabes à ce stade de l'intelligence artificielle. Si les Arabes ne s'engagent pas à faire un modèle linguistique majeur et fondamental pour leur langue, ils ouvriront un fossé majeur les séparant du rythme du temps, et cela deviendra un autre fossé de connaissance, en plus de beaucoup de choses similaires. Les Arabes ont beaucoup de connaissances en sciences traditionnelles sur le langage, mais ils en ont moins qu'un peu en sciences modernes, en particulier la sémiotique avec ses trois branches. Ce défi est susceptible d'être un élément essentiel de toute réponse arabe positive à l'ère de l'IA générative.




Source: sites Internet