Xlera8

Oubliez le malheur et le battage médiatique de l’IA, rendons les ordinateurs utiles

Approche systémique Divulgation complète : j'ai une histoire avec l'IA, j'ai flirté avec elle dans les années 1980 (vous vous souvenez des systèmes experts ?), puis j'ai évité en toute sécurité l'hiver de l'IA de la fin des années 1980 en me tournant vers la vérification formelle avant de finalement me spécialiser dans les réseaux. 1988.

Et tout comme mon collègue de l'approche systémique Larry Peterson a des classiques comme le manuel de Pascal sur sa bibliothèque, j'ai encore quelques livres sur l'IA des années 80 sur le mien, notamment celui de PH Winston. Intelligence artificielle (1984). Feuilleter ce livre est vraiment génial, dans le sens où une grande partie semble avoir été écrite hier. Par exemple, la préface commence ainsi :

Le domaine de l’intelligence artificielle a énormément changé depuis la publication de la première édition de ce livre. Les sujets en intelligence artificielle sont de rigueur pour les étudiants de premier cycle en informatique, et des articles sur l'intelligence artificielle sont régulièrement présentés dans la plupart des magazines d'information réputés. Ce changement s’explique en partie par l’accumulation de résultats solides.

J’ai également été intrigué par des exemples datant de 1984 de « ce que les ordinateurs peuvent faire ». Un exemple était la résolution de problèmes de calcul très difficiles – remarquable parce qu'une arithmétique précise semble dépasser les capacités des systèmes actuels basés sur le LLM.

Si le calcul pouvait déjà être résolu par des ordinateurs en 1984, alors que l'arithmétique de base bloque les systèmes que nous considérons comme l'état de l'art actuel, peut-être que les progrès de l'IA au cours des 40 dernières années ne sont pas aussi importants qu'il y paraît à première vue. (Cela dit, il y a même mieux Aujourd'hui, les systèmes de lutte contre le calcul ne sont tout simplement pas basés sur des LLM, et il n'est pas clair si quelqu'un les appelle IA.)

L’une des raisons pour lesquelles j’ai récupéré mon ancien exemplaire de Winston était de voir ce qu’il avait à dire sur la définition de l’IA, car c’est aussi un sujet controversé. Sa première interprétation n'est pas très encourageante :

L'intelligence artificielle est l'étude des idées qui permettent aux ordinateurs d'être intelligents.

Eh bien, OK, c'est assez circulaire, puisqu'il faut définir l'intelligence d'une manière ou d'une autre, comme l'admet Winston. Mais il poursuit ensuite en énonçant deux objectifs de l’IA :

  1. Rendre les ordinateurs plus utiles
  2. Comprendre les principes qui rendent l’intelligence possible.

En d’autres termes, il est difficile de définir l’intelligence, mais peut-être que l’étude de l’IA nous aidera à mieux comprendre de quoi il s’agit. J’irais jusqu’à dire que 40 ans plus tard, nous débattons toujours de ce qu’est le renseignement. Le premier objectif semble louable mais s’applique clairement à de nombreuses technologies non liées à l’IA.

Ce débat sur la signification du terme « IA » continue de planer sur l’industrie. J'ai entendu beaucoup de discours selon lesquels nous n'aurions pas besoin du terme Intelligence Générale Artificielle, alias AGI, si seulement le terme IA n'avait pas été aussi pollué par les gens qui commercialisent des modèles statistiques comme l'IA. Je n'achète pas vraiment ça. Pour autant que je sache, l’IA a toujours couvert un large éventail de techniques informatiques, dont la plupart ne feraient croire à personne que l’ordinateur affichait les niveaux d’intelligence humaine.

Lorsque j'ai commencé à me réengager dans le domaine de l'IA, il y a environ huit ans, les réseaux de neurones – que certains de mes collègues utilisaient en 1988 avant de tomber en disgrâce – avaient fait un retour surprenant, au point que la reconnaissance d'images par reconnaissance profonde les réseaux de neurones avaient surpassé la vitesse et la précision des humains, mais avec quelques réserves. Cette montée en puissance de l'IA a suscité un certain niveau d'anxiété chez mes collègues ingénieurs chez VMware, qui sentaient qu'un changement technologique important était en cours et que (a) la plupart d'entre nous ne comprenaient pas (b) notre employeur n'était pas en mesure d'en profiter. .

Alors que je me lançais dans la tâche d'apprendre comment fonctionnent les réseaux de neurones (avec un grosse aide de Rodney Brooks) J'ai réalisé que le langage que nous utilisons pour parler des systèmes d'IA a un impact significatif sur la façon dont nous les percevons. Par exemple, en 2017, nous entendions beaucoup parler de « deep learning » et de « réseaux de neurones profonds », et l’utilisation du mot « deep » a un double sens intéressant. Si je dis que j’ai des « pensées profondes », vous pourriez imaginer que je pense au sens de la vie ou à quelque chose d’aussi important, et « apprentissage profond » semble impliquer quelque chose de similaire.

Mais en fait, le « profond » dans « deep learning » fait référence à la profondeur, mesurée en nombre de couches, du réseau neuronal qui supporte l’apprentissage. Ce n'est donc pas « profond » au sens du terme, mais simplement profond de la même manière qu'une piscine a une partie profonde – celle qui contient le plus d'eau. Ce double sens contribue à l’illusion que les réseaux de neurones « pensent ».

Une confusion similaire s'applique à « l'apprentissage », où Brooks a été si utile : un réseau neuronal profond (DNN) s'améliore dans une tâche à mesure qu'il est exposé à des données de formation, donc en ce sens, il « apprend » de l'expérience, mais la façon dont il apprend n’a rien à voir avec la façon dont un humain apprend les choses.

À titre d'exemple de la façon dont les DNN apprennent, considérons AlphaGo, le système de jeu qui utilisait les réseaux de neurones pour vaincre grands maîtres humains. Selon les développeurs du système, alors qu'un humain gérerait facilement un changement de taille de carte (normalement une grille 19×19), un petit changement rendrait AlphaGo impuissant jusqu'à ce qu'il ait le temps de s'entraîner sur les nouvelles données de la carte redimensionnée.

Pour moi, cela illustre parfaitement à quel point « l’apprentissage » des DNN est fondamentalement différent de l’apprentissage humain, même si nous utilisons le même mot. Le réseau neuronal est incapable de généraliser ce qu’il a « appris ». Et pour souligner ce point, AlphaGo a récemment été vaincu par un adversaire humain qui a utilisé à plusieurs reprises un style de jeu qui ne figurait pas dans les données d'entraînement. Cette incapacité à gérer de nouvelles situations semble être une caractéristique des systèmes d’IA.

La langue compte

Le langage utilisé pour décrire les systèmes d’IA continue d’influencer la façon dont nous les percevons. Malheureusement, compte tenu de la réaction raisonnable suscitée par le battage médiatique récent sur l'IA et de certains échecs notables des systèmes d'IA, il se peut qu'il y ait désormais autant de personnes convaincues que l'IA ne vaut absolument rien, qu'il y a de membres du camp qui affirment que l'IA est sur le point d'atteindre une intelligence semblable à celle de l'humain. .

Je suis très sceptique à l’égard de ce dernier camp, comme indiqué ci-dessus, mais je pense également qu’il serait regrettable de perdre de vue l’impact positif que les systèmes d’IA – ou, si vous préférez, les systèmes d’apprentissage automatique – peuvent avoir.

J'aide actuellement quelques collègues à rédiger un livre sur les applications d'apprentissage automatique pour les réseaux, et cela ne devrait surprendre personne d'apprendre qu'il existe de nombreux problèmes de réseau qui se prêtent aux solutions basées sur le ML. En particulier, les traces du trafic réseau sont de fantastiques sources de données, et les données de formation sont la nourriture sur laquelle prospèrent les systèmes d’apprentissage automatique.

Les applications allant de la prévention des déni de service à la détection de logiciels malveillants en passant par la géolocalisation peuvent toutes utiliser des algorithmes de ML, et l'objectif de ce livre est d'aider les personnes travaillant en réseau à comprendre que le ML n'est pas une poudre magique que vous saupoudrez sur vos données pour obtenir des résultats. réponses, mais un ensemble d'outils d'ingénierie qui peuvent être appliqués de manière sélective pour produire des solutions à des problèmes réels. En d’autres termes, ni une panacée ni un placebo surfait. L'objectif du livre est d'aider les lecteurs à comprendre quels outils de ML conviennent aux différentes classes de problèmes de réseau.

Une histoire qui a attiré mon attention il y a quelque temps était l'utilisation de l'IA pour aider Network Rail au Royaume-Uni. gérer la végétation qui se développe le long des lignes ferroviaires britanniques. La technologie clé de « l’IA » ici est la reconnaissance d’images (pour identifier les espèces végétales) – en tirant parti du type de technologie fournie par les DNN au cours de la dernière décennie. Pas aussi excitant que les systèmes d’IA générative qui ont attiré l’attention du monde en 2023, mais une bonne application pratique d’une technique qui relève de l’IA.

Ma tendance ces jours-ci est d'essayer d'utiliser le terme « apprentissage automatique » plutôt que celui d'IA lorsque cela est approprié, dans l'espoir d'éviter à la fois le battage médiatique et les réactions allergiques que l'« IA » produit désormais. Et avec les paroles de Patrick Winston fraîches dans mon esprit, je pourrais peut-être me mettre à parler de « rendre les ordinateurs utiles ». ®

Discutez avec nous

Salut! Comment puis-je t'aider?