En intelligence artificielle, un agent intelligent (AI) est une entité autonome, éventuellement dotée d'une persona, éventuellement capable de percevoir son environnement grâce à des capteurs, ainsi que d'agir sur celui-ci, au moyen d'effecteurs, afin de réaliser une tâche (en fonction d'objectifs qui lui ont été fixés par un prompt)[1].
Un agent intelligent peut également apprendre ou utiliser des connaissances pour réaliser ses objectifs. Il peut être simple (ex : un simple système réactif, comme le thermostat, est considéré comme étant un agent intelligent) ou complexe, agir seul ou avec une ou plusieurs autres IA. Les agents intelligents sont souvent décrits schématiquement comme des systèmes fonctionnels abstraits similaires aux logiciels. Pour cette raison, ils sont parfois nommés agents intelligents abstraits (AIA) pour les distinguer de leurs mises en œuvre sous forme de logiciels, systèmes biologiques ou organisations. Avec les progrès de l'IA, ils tendent à devenir des entités de plus en plus autonomes et capables d'apprendre de leurs propres expériences. Ils sont maintenant aptes à utiliser des modèles de langage avancés et des techniques d'apprentissage par renforcement pour améliorer leurs performances
Certaines définitions mettent en avant leur autonomie et préfèrent le terme agent intelligent autonome.
Les agents sont spécifiquement conçus pour traiter les requêtes et possèdent au moins un des éléments suivants : capacité de traitement, connaissance de l'environnement dans lequel ils évoluent, ou informations sur le domaine. Pour considérer un agent comme une entité intelligente, il doit posséder les propriétés suivantes[2] :
Ils apportent un support et une assistance, principalement à l'utilisateur, afin d’apprendre à utiliser une application particulière. Ces agents interagissent graphiquement avec l'utilisateur, de façon qu'il n'a pas besoin de connaître tous les processus exécutés par l'agent, mais uniquement les résultats qu'il fournit. Cela permet aux agents d'avoir un certain degré d'autonomie par rapport aux utilisateurs.
Les agents d'interface apprennent à la fois de l'utilisateur et des autres agents. Ils peuvent apprendre en recevant des instructions explicites de l'utilisateur, des commentaires positifs ou négatifs, en observant et en imitant les actions effectuées par l'utilisateur ou en demandant à d'autres agents de collaborer avec eux pour atteindre leur objectif.
Parmi ces agents, on peut souligner les propriétés d'autonomie et de coopération, ainsi qu'une capacité de négociation pour exécuter des tâches conjointement. Ils sont utilisés dans un système où les agents développés séparément présentent une fonctionnalité obtenue uniquement grâce à leur travail ensemble.
Ces agents intelligents fonctionnent comme des processus capables de voyager sur les WAN et les WWW, d'interagir avec d'autres ordinateurs collectant des informations au profit de leur propriétaire et de revenir après avoir exécuté les tâches assignées par leur utilisateur et rapporté les résultats.
Cette technologie apparaît comme une réponse aux défis posés par la récupération d'informations sur le WWW. Ces agents remplissent le rôle de manipuler ou collecter les informations trouvées dans différentes sources distribuées pour donner une réponse pertinente aux questions soulevées par l'utilisateur.
Ces agents sont la combinaison de deux ou plusieurs philosophies au sein d'un même agent. De cette façon, les capacités de l'agent sont maximisées et les déficiences de différentes types sont minimisées.
Les agents IA basés sur de grands modèles de langage (LLM, pour Large Language Models) s’appuient sur des réseaux neuronaux de très grande taille pour analyser des instructions en langage naturel et générer des actions ou des réponses adaptées à leur environnement.
En combinant ces capacités de compréhension contextuelle avec des mécanismes d’auto-réflexion ou de planification, ils peuvent mener des tâches complexes de façon autonome, comme la résolution de problèmes ou la prise de décision stratégique.
Dans certains cadres, ces agents LLM utilisent des techniques d’apprentissage par renforcement pour ajuster dynamiquement leurs choix d’action en fonction des retours de l’environnement ou des utilisateurs[5].
L’émergence de frameworks dédiés (LangChain, AutoGen, etc.) permet désormais de coordonner plusieurs modules autour d’un LLM (analyse, planification, exécution), facilitant la construction d’agents cognitifs plus modulaires et plus évolutifs[6].
Toutefois, ces agents soulèvent de nouvelles problématiques éthiques et de fiabilité, liées notamment au risque de biais dans le traitement du langage, à la confidentialité des données et à la difficulté de garantir la transparence de leurs prises de décision.