Intelligence artificielle
de la technologie

Intelligence artificielle

Actuellement, un réseau neuronal profond résout un Rubik's cube en 1,2 seconde. Pour parvenir à ce résultat, au tournant des XIIIe et IVe siècles, les machines logiques de Ramon Lull ont été créées. Dans cet article, vous apprendrez étape par étape ce qui s'est passé au cours des siècles.

XIII-IV v. philosophe espagnol Ramon Lully (1) en développement machines logiques. Il a décrit ses machines comme des objets mécaniques qui pouvaient relier des vérités fondamentales et indéniables par de simples opérations logiques effectuées par une machine utilisant des marqueurs mécaniques.

30-50 ans. XXe siècle Cela a été démontré par la recherche dans le domaine des neurosciences. Norbert Wiener décrit le contrôle cybernétique et la résilience des réseaux électriques. Claude Shannon crée la théorie de "l'information décrite par des signaux numériques".

1936 , dont le but était de résoudre le problème de solvabilité présenté par David Hibert en 1928, c'est ce qu'il y a introduit voiture abstraitecapable d'effectuer une opération mathématique programmée, c'est-à-dire un algorithme.

La machine ne pouvait exécuter qu'un seul algorithme particulier, comme mettre au carré un nombre, diviser, additionner, soustraire. Dans mon propre travail Turing il a décrit de nombreuses machines de ce type, qui ont acquis le nom commun Machines de Turing. Une extension de ce concept était la soi-disant machine de Turing universelle, qui, en fonction des instructions enregistrées sur la bande, devait effectuer n'importe quelle opération (2).

2. Un des modèles de la machine de Turing

1943 Warren McCalloh i Walter Pitts montre le neurone artificiel peut simuler des opérations simples en créant un modèle réseau neuronal. Leur modèle était purement basé sur les mathématiques et les algorithmes et n'a pas pu être testé en raison du manque de ressources informatiques.

1950 Dans son texte intitulé "Computer Science and Intelligence", publié dans la revue Mind, Alan M. Turing présente pour la première fois le test, alors appelé "test de Turing". C'est la façon de définir capacité de la machine à utiliser le langage naturel et indirectement destiné à prouver qu'elle avait maîtrisé la capacité de penser de la même manière qu'une personne.

1951 Marvin Minski раз Dean Edmonds ils construisent SNARK (Anglais), premier réseau de neurones artificiels avec 3 mille tubes à vide. La machine jouait le rôle d'un rat qui cherchait un moyen de sortir du labyrinthe pour se nourrir. Le système permettait de suivre tous les déplacements du « rat » dans le labyrinthe. Une erreur de conception a permis d'y introduire plus d'un «rat», et les «rats» ont commencé à interagir les uns avec les autres. Les nombreuses tentatives qu'ils ont faites leur ont permis de commencer à "penser" sur une base logique, ce qui a contribué à renforcer le bon choix. Les "rats" plus avancés ont été suivis par d'autres "rats".

1955 Allen Newel et (futur lauréat du prix Nobel) Herbert A.Simon composer le Théoricien de la Logique. En fin de compte, le programme prouve 38 des 52 premières déclarations de Principia Mathematica. Russell i Tête blanche, trouvant des preuves nouvelles et plus élégantes pour certains.

1956 Le terme "" est né. Il a été utilisé pour la première fois lors d'une conférence organisée par le Dartmouth College dans le New Hampshire (3). Le nouveau concept a été défini comme "un système qui perçoit et réagit consciemment à son environnement afin de maximiser ses chances de succès". Parmi les organisateurs de l'événement figuraient notamment Marvin Minski, Jean McCarthy et deux scientifiques seniors : Claude Shannon i Nathan Rochester zIBM.

. Membres de la Conférence de Dartmouth de 1956 De gauche à droite : Marvin Minsky et Claude Shannon.

1960 construction réseaux électrochimiques éléments d'apprentissage nommés Adaline. construit Bernard Vidrou de l'Université de Stanford, le réseau se composait d'éléments individuels d'Adaline, qui, une fois reproduits et combinés, ont abouti à dit Madalin (Eng. De nombreux Adalines). C'était le premier neuro-ordinateur proposés dans le commerce. Le réseau Madaline est utilisé par des radars, des sonars, des modems et des lignes téléphoniques.

1966 monte Programme ELIZA, un prototype de chatbot testé au MIT. Il a été conçu de manière simple : il convertit les phrases déclaratives données par l'utilisateur en questions et l'incite à obtenir d'autres déclarations. Par exemple, lorsqu'un utilisateur a dit "J'ai mal à la tête", le programme a demandé "Pourquoi as-tu mal à la tête ?" ELIZA a été utilisé avec succès dans le traitement des personnes atteintes de troubles mentaux..

1967 Au Japon, l'Université Waseda a lancé Projet VABOT (4) en 1967 pour la première fois au monde robot humanoïde intelligent pleine grandeur. Son système de contrôle des membres lui permettait de marcher avec ses membres inférieurs, ainsi que de saisir et de déplacer des objets avec ses mains à l'aide de capteurs tactiles. Son système de vision lui a permis de mesurer les distances et les directions vers des objets à l'aide de récepteurs externes, d'yeux et d'oreilles artificiels. Et le système conversationnel lui permettait de communiquer avec une personne en japonais en utilisant des lèvres artificielles.

1969 Marvin Minski i Seymour Papert montrer les contraintes de perceptron. Leur livre contenait des preuves formelles que les réseaux monocouches avaient une gamme d'applications très limitée, ce qui a conduit à une stagnation dans ce domaine de recherche. Cet état de choses s'est poursuivi pendant environ 15 ans jusqu'à la publication d'une série de publications dans lesquelles il est démontré de manière très convaincante que les réseaux non linéaires sont exempts des limitations présentées dans les travaux antérieurs. Il a été annoncé à l'époque une gamme de méthodes d'apprentissage automatique pour les réseaux multicouches.

1973 Edouard Shortliff, médecin et informaticien, il a créé Programme MAISIN, l'un des premiers systèmes experts de diagnostic du traitement des infections bactériennes, basé sur le diagnostic des maladies du sang basé sur les résultats des tests et le calcul des doses correctes d'antibiotiques.

Dans les années 70, la plupart des médecins avaient besoin de l'avis d'un spécialiste avant de prescrire des antibiotiques à un patient. Chaque antibiotique a affecté un certain groupe de micro-organismes, mais a également provoqué certains effets secondaires. Cependant, la connaissance de ce sujet parmi les médecins ordinaires n'était pas grande. C'est pourquoi la Stanford University School of Medicine, un centre de recherche de renommée mondiale dans le domaine des antibiotiques, s'est tournée vers des informaticiens pour obtenir de l'aide. Ainsi, un système de conseil a été créé, composé d'une vaste base de données et de 500 principes pour aider les médecins à utiliser correctement les antibiotiques.

1975 Paul Werbos invente la rétropropagation qui a résolu le problème et les limites des réseaux à couche unique et a généralement fait former plus efficacement les réseaux de neurones.

80-s connus sous le nom de "systèmes experts", et la connaissance est devenue le centre de la recherche sur l'IA. Au lieu de se concentrer sur l'intelligence générale, les systèmes experts se sont concentrés sur l'utilisation d'un ensemble de principes pour automatiser des tâches spécifiques et prendre des décisions spécifiques dans le monde réel.

La première solution réussie, connue sous le nom de RI, a été introduite par Digital Equipment Corporation pour personnaliser les commandes de l'entreprise et améliorer la précision. Cependant, Apple et IBM ont rapidement introduit des ordinateurs centraux avec plus de puissance de traitement que ceux utilisés pour la maintenance. intelligence artificielle, perturbant l'industrie de l'IA. Cela a de nouveau arrêté les investissements dans l'IA.

1988 Des chercheurs d'IBM ont publié un article présentant les principes de probabilité dans la traduction automatique du français vers l'anglais. Cette approche, plus proche de cela, a jeté les bases de la technologie d'apprentissage automatique d'aujourd'hui.

1989 Apparaît ELVINN (), qui était le résultat de huit années de recherche financée par l'armée au CMU Robotics Institute (5). Il peut être considéré comme l'ancêtre d'aujourd'hui. La mise en œuvre d'ALVINN a traité des données provenant de deux sources : une caméra vidéo et un télémètre laser. C'était un système perceptif qui apprenait à contrôler les véhicules en observant le conducteur. il l'a utilisé réseau neuronal et prendre des décisions sans carte.

5. Véhicule avec système autonome ALVINN

Années 90. Dans le monde de l'IA, un nouveau paradigme appelé "agents intelligents" est en train d'être adopté. Perle de Judée, Allen Newel, Leslie P. Kelbling et d'autres ont proposé d'appliquer la théorie de la décision et l'économie à la recherche sur l'intelligence artificielle.

1997 Deep Blue créé par IBM bat le grand maître avec Garrim Kasparov (6). Le superordinateur était une version spécialisée de la plate-forme créée par IBM et pouvait gérer deux fois plus de mouvements par seconde que dans le premier jeu (que la machine a perdu), soit 200 millions de mouvements par seconde.

6. Match Garry Kasparov contre Deep Blue

1998 Quatre millions vont aux arbres de Noël Robots d'oreille Furbyqui finira par apprendre l'anglais.

2002-09 En 2002, la DARPA a défié le monde. technologies intelligentes: 140 millions de dollars pour que les constructeurs parcourent 18 miles à travers le désert de Mojave. 2005 7 mai Stanley (XNUMX) a participé au Grand Challenge, armé de lasers, radar, caméra vidéo, récepteur GPS, six processeurs et une architecture logicielle intégrée, et a gagné. La voiture a depuis été exposée au Musée national d'histoire américaine du Smithsonian. Avec Stanley dans l'histoire intelligence artificielle L'équipe de conception de l'Université de Stanford dirigée par le Prof. Sebastian Thrun, qui dirigeait alors la voiture autonome de Google, créée en 2009.

2005 Honda présente Asimo robot humanoïde marchant sur deux jambes (8). Au cours de son développement, des données ont été obtenues qui ont été utilisées, par exemple, dans la conception de prothèses permettant aux personnes âgées de bouger.

2011 Le supercalculateur Watson d'IBM, qui a battu en 2011 les maîtres de l'époque dans le jeu télévisé "Jeopardy" (diffusé en Pologne sous le nom de "Va Banque").

2016 Programme informatique AlphaGo créé par l'une des sociétés de Google, dépasse Lee Sedol, 18 fois champion du monde de Go (9).

9. Match entre Go Li Sedol et AlphaGo

2018 Google et l'Allen Institute for Artificial Intelligence créent BERT, "la première représentation linguistique bidirectionnelle non supervisée qui peut être utilisée pour une variété de tâches en langage naturel utilisant le transfert de connaissances". BERT est une intelligence artificielle qui peut compléter les parties manquantes des phrases de la même manière qu'un humain. BERT est l'un des développements les plus passionnants dans le domaine du traitement du langage naturel (TAL), un domaine de l'intelligence artificielle qui s'est développé particulièrement rapidement ces dernières années. Grâce à lui, le jour où nous pourrons parler à la machine est devenu beaucoup plus proche.

2019 Le réseau neuronal profond est nommé , créé par des scientifiques de l'Université de Californie, Elle a résolu le Rubik's Cube en 1,2 seconde, presque trois fois plus rapide que la personne la plus qualifiée. En moyenne, elle a besoin d'environ 28 mouvements, alors qu'une personne effectue en moyenne 50 mouvements.

Classification et applications de l'intelligence artificielle

I. L'intelligence artificielle a deux significations principales :

  • c'est une intelligence hypothétique réalisée par un processus d'ingénierie, et non naturel ;
  • est le nom d'une technologie et d'un domaine de recherche en informatique qui s'appuie également sur les progrès des neurosciences, des mathématiques, de la psychologie, des sciences cognitives et de la philosophie.

II. Dans la littérature sur cette question, il existe trois principaux degrés d'IA :

  1. Intelligence artificielle étroite (, ANI) qui se spécialise dans un seul domaine, comme AlphaGo, qui est une IA capable de vaincre un champion dans le jeu de Go. Cependant, c'est la seule chose qu'il peut faire.
  2. Intelligence artificielle générale (, AGI) - connu sous le nom d'intelligence artificielle forte, se référant à un ordinateur du niveau intellectuel d'une personne moyenne - capable d'effectuer toutes les tâches qu'il effectue. Selon de nombreux experts, nous sommes en passe de créer une AGI efficace.
  3. superintelligence artificielle (, comme moi). Le théoricien de l'IA d'Oxford, Nick Bostrom, définit la superintelligence comme "une intelligence bien plus intelligente que les esprits humains les plus intelligents à pratiquement tous les égards, y compris la créativité scientifique, les connaissances générales et les compétences sociales".

III. Applications pratiques modernes de l'IA :

  • Technologies basées sur la logique floue – généralement utilisé, par exemple, pour contrôler l'avancement des processus technologiques dans les usines dans les conditions « d'absence de toutes les données ».
  • Systèmes experts – les systèmes qui utilisent la base de connaissances et les mécanismes d'inférence pour résoudre des problèmes.
  • Traduction automatique de textes – les systèmes de traduction ne sont pas adaptés aux humains, sont intensivement développés et conviennent particulièrement à la traduction de textes techniques.
  • Réseaux de neurones - utilisé avec succès dans de nombreuses applications, y compris la programmation "d'adversaires intelligents" dans les jeux informatiques.
  • Apprentissage automatique Branche de l'intelligence artificielle traitant d'algorithmes capables d'apprendre à prendre des décisions ou à acquérir des connaissances.
  • Collecte de données – Discute des domaines, de la relation avec les besoins d'information, de l'acquisition des connaissances, des méthodes d'analyse appliquées, des résultats attendus.
  • Reconnaissance d'image - des programmes sont déjà utilisés qui reconnaissent les personnes à partir d'une photographie d'un visage ou reconnaissent automatiquement des objets sélectionnés dans des photographies satellites.
  • Reconnaissance vocale et reconnaissance du locuteur est déjà largement utilisé dans le commerce.
  • Reconnaissance de l'écriture manuscrite (OCR) - déjà utilisé à grande échelle, par exemple pour le tri automatique des lettres et dans les blocs-notes électroniques.
  • créativité artificielle - il existe des programmes qui génèrent automatiquement de courtes formes poétiques, composent, arrangent et interprètent des œuvres musicales qui peuvent effectivement "confondre" même les artistes professionnels afin qu'ils ne considèrent pas les œuvres créées artificiellement.
  • Couramment utilisé en économie systèmes automatiquement évaluer, y compris la solvabilité, le profil des meilleurs clients ou planifier des campagnes publicitaires. Ces systèmes sont automatiquement formés à l'avance en fonction des données dont ils disposent (par exemple, les clients de la banque qui ont régulièrement remboursé le prêt et les clients qui ont eu des problèmes avec celui-ci).
  • Interfaces intelligentes - utilisé pour le contrôle automatisé, la surveillance, les rapports et les tentatives de résolution d'éventuels problèmes dans les processus technologiques.
  • Prédiction et détection des fraudes – en utilisant V.I. Les systèmes de régression logistique analysent des ensembles de données pour identifier, par exemple, des transactions financières suspectes.

Ajouter un commentaire