L’IA neuro-symbolique est l’avenir de l’intelligence artificielle. Voici comment ça fonctionne

Imaginez un plateau. Sur le plateau est un assortiment de formes: certains cubes, d’autres sphères. Les formes sont fabriquées à partir d’une variété de matériaux différents et représentent un assortiment de tailles. Au total, il y a peut-être huit objets. Ma question: “En regardant les objets, y a-t-il un nombre égal de grandes choses et de sphères métalliques?”

Ce n’est pas une question piège. Le fait qu’il semble que ce soit le cas prouve à quel point il est simple. C’est le genre de question à laquelle un enfant d’âge préscolaire pourrait très probablement répondre facilement. Mais c’est presque impossible pour les réseaux neuronaux de pointe d’aujourd’hui. Cela doit changer. Et cela doit se produire en réinventant l’intelligence artificielle telle que nous la connaissons.

Ce n’est pas mon opinion; c’est l’opinion de David Cox , directeur du MIT-IBM Watson AI Lab à Cambridge, MA. Dans une vie antérieure, Cox était professeur à l’Université Harvard, où son équipe a utilisé les connaissances des neurosciences pour aider à construire de meilleurs systèmes informatiques d’apprentissage automatique inspirés du cerveau. Dans son rôle actuel chez IBM, il supervise les travaux sur la plateforme Watson AI de l’entreprise. Watson, pour ceux qui ne le savent pas, était l’IA qui a vaincu deux des meilleurs joueurs de jeu télévisé de l’histoire au jeu télévisé Jeopardy . Watson se trouve également être un système principalement d’apprentissage automatique, formé à l’aide de masses de données par opposition aux règles dérivées de l’homme.

Donc, lorsque Cox dit que le monde doit repenser l’IA alors qu’elle se dirige vers une nouvelle décennie, cela semble un peu étrange. Après tout, les années 2010 ont sans doute été les dix années les plus réussies de l’histoire de l’IA: une période au cours de laquelle des percées se produisent apparemment chaque semaine et sans aucun indice givré d’un hiver de l’IA en vue. C’est exactement pourquoi il pense que l’IA doit changer, cependant. Et sa suggestion pour ce changement, un terme actuellement obscur appelé «IA neuro-symbolique», pourrait bien devenir l’une de ces phrases que nous connaissons intimement d’ici la fin des années 2020.

L’ascension et la chute de l’IA symbolique

L’IA neuro-symbolique n’est pas, à proprement parler, une façon totalement nouvelle de faire de l’IA. C’est une combinaison de deux approches existantes pour construire des machines à penser; ceux qui étaient autrefois opposés à chacun comme des ennemis mortels.

La partie «symbolique» du nom fait référence à la première approche dominante de création de l’intelligence artificielle. Des années 1950 aux années 1980, l’IA symbolique a régné en maître. Pour un chercheur en IA symbolique, l’intelligence est basée sur la capacité des humains à comprendre le monde qui les entoure en formant des représentations symboliques internes. Ils créent ensuite des règles pour traiter ces concepts, et ces règles peuvent être formalisées d’une manière qui capture les connaissances quotidiennes.

Si le cerveau est analogue à un ordinateur, cela signifie que chaque situation que nous rencontrons dépend de notre exécution d’un programme informatique interne qui explique, étape par étape, comment effectuer une opération, entièrement basée sur la logique. À condition que ce soit le cas, les chercheurs en IA symbolique pensent que ces mêmes règles sur l’organisation du monde pourraient être découvertes puis codifiées, sous forme d’algorithme, pour qu’un ordinateur les exécute.

L’IA symbolique a donné lieu à des démonstrations assez impressionnantes. Par exemple, en 1964, l’informaticien Bertram Raphael a développé un système appelé SIR, pour « Semantic Information Retrieval ». SIR était un système de raisonnement informatique qui était apparemment capable d’apprendre les relations entre les objets d’une manière qui ressemblait à une véritable intelligence. Si vous deviez lui dire, par exemple, «John est un garçon; un garçon est une personne; une personne a deux mains; une main a cinq doigts », alors SIR répondrait à la question« Combien de doigts John a-t-il? »avec le bon numéro 10.

«… Il y a des fissures inquiétantes dans le mur qui commencent à apparaître.»

Les systèmes informatiques basés sur l’IA symbolique ont atteint leur apogée (et leur déclin) dans les années 1980. C’était la décennie du soi-disant «système expert» qui tentait d’utiliser des systèmes basés sur des règles pour résoudre des problèmes du monde réel, comme aider les chimistes organiques à identifier des molécules organiques inconnues ou aider les médecins à recommander la bonne dose d’antibiotiques pour les infections.

Le concept sous-jacent de ces systèmes experts était solide. Mais ils ont eu des problèmes. Les systèmes étaient coûteux, nécessitaient une mise à jour constante et, pire encore, pouvaient devenir moins précis avec le nombre de règles incorporées.

Le monde des réseaux de neurones

La partie «neuro» de l’IA neuro-symbolique fait référence aux réseaux de neurones d’apprentissage en profondeur . Les réseaux de neurones sont le type de calcul inspiré du cerveau qui a conduit à de nombreuses percées de l’IA vues au cours de la dernière décennie. Une IA qui peut conduire des voitures? Réseaux neuronaux. AI qui peut traduire du texte dans des dizaines de langues différentes? Réseaux neuronaux. Une IA qui aide l’enceinte intelligente de votre maison à comprendre votre voix? Les réseaux de neurones sont la technologie à remercier.

Les réseaux de neurones fonctionnent différemment de l’IA symbolique car ils sont basés sur les données plutôt que sur des règles. Expliquer quelque chose à un système d’IA symbolique signifie lui fournir explicitement toutes les informations dont il a besoin pour pouvoir faire une identification correcte. Par analogie, imaginez envoyer quelqu’un pour chercher votre maman à la gare routière, mais devoir la décrire en fournissant un ensemble de règles qui permettraient à votre ami de la choisir dans la foule. Pour former un réseau de neurones à le faire, vous lui montrez simplement des milliers de photos de l’objet en question. Une fois qu’il sera suffisamment intelligent, il pourra non seulement reconnaître cet objet; il peut constituer ses propres objets similaires qui n’ont jamais réellement existé dans le monde réel.

“Bien sûr, l’apprentissage en profondeur a permis des avancées incroyables”, a déclaré David Cox à Digital Trends. “En même temps, il y a des fissures inquiétantes dans le mur qui commencent à apparaître.”

L’une de ces soi-disant fissures repose exactement sur ce qui a rendu les réseaux de neurones si puissants aujourd’hui: les données. Tout comme un humain, un réseau de neurones apprend à partir d’exemples. Mais alors qu’un humain n’a besoin que de voir un ou deux exemples d’entraînement d’un objet pour s’en souvenir correctement, une IA en aura besoin de beaucoup, beaucoup plus. La précision dépend du fait d’avoir de grandes quantités de données annotées avec lesquelles il peut apprendre chaque nouvelle tâche.

Brûler des feux de circulation

Cela les rend moins bons pour les problèmes statistiquement rares de «cygne noir». Un événement de cygne noir, popularisé par Nassim Nicholas Taleb , est un cas d’angle qui est statistiquement rare. “Beaucoup de nos solutions d’apprentissage en profondeur aujourd’hui – aussi étonnantes soient-elles – sont en quelque sorte des solutions 80-20”, a poursuivi Cox. «Ils obtiendront 80% des cas correctement, mais si ces cas d’angle comptent, ils auront tendance à tomber. Si vous voyez un objet qui n’appartient pas normalement [à un certain endroit], ou un objet dont l’orientation est légèrement bizarre, même des systèmes incroyables tomberont. »

Avant de rejoindre IBM, Cox a cofondé une entreprise, Perceptive Automata , qui a développé un logiciel pour les voitures autonomes. L’équipe avait une chaîne Slack dans laquelle elle avait publié des images amusantes sur lesquelles elle était tombée au cours de la collecte de données. L’un d’eux, pris à une intersection, a montré un feu de circulation en feu. “C’est l’un de ces cas que vous pourriez ne jamais voir de votre vie”, a déclaré Cox. «Je ne sais pas si Waymo et Tesla ont des images de feux de circulation en feu dans les jeux de données qu’ils utilisent pour entraîner leurs réseaux de neurones, mais je suis prêt à parier… s’ils en ont, ils n’en auront que très peu. ”

C’est une chose pour une valise d’angle d’être quelque chose qui est insignifiant car cela arrive rarement et n’a pas beaucoup d’importance quand il le fait. Obtenir une mauvaise recommandation de restaurant n’est peut-être pas idéal, mais cela ne suffira probablement pas à gâcher votre journée. Tant que les 99 recommandations précédentes du système sont bonnes, il n’y a pas vraiment de frustration. Une voiture autonome qui ne répond pas correctement à une intersection à cause d’un feu de circulation brûlant ou d’une calèche pourrait faire bien plus que gâcher votre journée. Il est peu probable que cela se produise, mais si c’est le cas, nous voulons savoir que le système est conçu pour pouvoir y faire face.

“Si vous avez la capacité de raisonner et d’extrapoler au-delà de ce que nous avons vu auparavant, nous pouvons faire face à ces scénarios”, a expliqué Cox. «Nous savons que les humains peuvent le faire. Si je vois un feu de circulation en feu, je peux apporter beaucoup de connaissances. Je sais, par exemple, que la lumière ne va pas me dire si je dois m’arrêter ou partir. Je sais que je dois faire attention parce que [les conducteurs autour de moi seront confus.] Je sais que les conducteurs venant dans l’autre sens peuvent se comporter différemment parce que leur lumière peut fonctionner. Je peux raisonner un plan d’action qui m’amènera là où je dois aller. Dans ces types de paramètres critiques pour la sécurité et la mission, c’est quelque part, je ne pense pas que le deep learning nous soit encore parfaitement utile. C’est pourquoi nous avons besoin de solutions supplémentaires. »

Idées complémentaires

L’idée de l’IA neuro-symbolique est de réunir ces approches pour combiner à la fois apprentissage et logique. Les réseaux de neurones aideront à rendre les systèmes d’IA symboliques plus intelligents en divisant le monde en symboles, plutôt que de compter sur des programmeurs humains pour le faire pour eux. Pendant ce temps, les algorithmes d’IA symboliques aideront à incorporer le raisonnement de bon sens et la connaissance du domaine dans l’apprentissage en profondeur. Les résultats pourraient conduire à des avancées significatives dans les systèmes d’IA abordant des tâches complexes, concernant tout, des voitures autonomes au traitement du langage naturel. Et tout en nécessitant beaucoup moins de données pour la formation.

“Les réseaux de neurones et les idées symboliques sont vraiment merveilleusement complémentaires”, a déclaré Cox. «Parce que les réseaux de neurones vous donnent les réponses pour passer du désordre du monde réel à une représentation symbolique du monde, trouver toutes les corrélations au sein des images. Une fois que vous avez cette représentation symbolique, vous pouvez faire des choses assez magiques en termes de raisonnement. »

Par exemple, dans l’exemple de forme avec lequel j’ai commencé cet article, un système neuro-symbolique utiliserait les capacités de reconnaissance de formes d’un réseau neuronal pour identifier des objets. Ensuite, il s’appuierait sur l’IA symbolique pour appliquer la logique et le raisonnement sémantique pour découvrir de nouvelles relations. Ces systèmes ont déjà fait leurs preuves pour fonctionner efficacement .

Ce ne sont pas seulement des cas de coin où cela serait utile non plus. De plus en plus, il est important que les systèmes d’IA soient explicables en cas de besoin. Un réseau de neurones peut accomplir certaines tâches exceptionnellement bien, mais une grande partie de son raisonnement interne est «en boîte noire», rendu impénétrable à ceux qui veulent savoir comment il a pris sa décision. Encore une fois, cela n’a pas tellement d’importance si c’est un bot qui recommande la mauvaise piste sur Spotify. Mais si l’on vous a refusé un prêt bancaire, rejeté d’une candidature ou si quelqu’un a été blessé dans un incident impliquant une voiture autonome, vous feriez mieux de pouvoir expliquer pourquoi certaines recommandations ont été faites. C’est là que l’IA neuro-symbolique pourrait entrer en jeu.

Recherche sur l’IA: la prochaine génération

Il y a quelques décennies, les mondes de l’IA symbolique et des réseaux de neurones étaient en désaccord. Les personnalités renommées qui ont défendu les approches croyaient non seulement que leur approche était la bonne; ils pensaient que cela signifiait que l’autre approche était erronée. Ils n’étaient pas nécessairement incorrects à le faire. En concurrence pour résoudre les mêmes problèmes et avec un financement limité, les deux écoles d’IA semblaient fondamentalement opposées l’une à l’autre. Aujourd’hui, il semble que le contraire pourrait se révéler vrai.

“C’est vraiment fascinant de voir la jeune génération”, a déclaré Cox. «La plupart de mon équipe sont des gens relativement juniors: frais, excités, assez récemment sortis de leur doctorat. Ils n’ont tout simplement pas cette histoire. Ils ne se soucient tout simplement pas [des deux approches opposées] – et ne pas se soucier est vraiment puissant car cela vous ouvre et vous débarrasse de ces préjugés. Ils sont heureux d’explorer les intersections… Ils veulent juste faire quelque chose de cool avec l’IA ”

Si tout se déroule comme prévu, nous bénéficierons tous des résultats.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*