Plongez dans le monde passionnant des systèmes d’IA autonomes alimentés par GPT, où des systèmes comme Auto-GPT repoussent les limites de l’intelligence artificielle et redéfinissent ce qui est possible.
Dans un récent article de Motherboard, l’auteur Chloe Xiang examine l’émergence de systèmes d’IA autonomes alimentés par le grand modèle de langage (LLM) GPT de l’OpenAI. Plusieurs développeurs travaillent sur ces systèmes, qui sont censés effectuer diverses tâches sans intervention humaine. Il s’agit notamment d’exécuter des tâches en séquence, d’écrire, de déboguer et de développer du code, ainsi que de s’auto-évaluer et de corriger les erreurs.
Auto-GPT, une application expérimentale à code source ouvert développée par Toran Bruce Richards, fondateur et développeur principal de Significant Gravitas Ltd, est l’un de ces systèmes. Voici la description que fait Richards d’Auto-GPT :
« Auto-GPT est une application expérimentale à code source ouvert qui démontre les capacités du modèle linguistique GPT-4. Le programme est alimenté par GPT-4 et développe et gère de manière autonome des entreprises afin d’accroître leur valeur nette. En tant que premier modèle GPT-4 entièrement autonome, Auto-GPT repousse les limites de ce qui est possible en matière d’IA. »
M. Richards a expliqué à Motherboard qu’il avait développé Auto-GPT pour appliquer l’inférence GPT-4 à des problèmes plus vastes et plus complexes qui nécessitent une planification à long terme et de multiples étapes. Une démonstration vidéo montre comment Auto-GPT peut assimiler des articles d’actualité pour acquérir des connaissances sur un sujet et créer une entreprise viable.
Une autre initiative mise en avant dans l’article de Motherboard est celle des agents autonomes pilotés par les tâches, développée par Yohei Nakajima, partenaire en capital-risque chez Untapped Capital. L’agent utilise GPT-4, une base de données vectorielle appelée Pinecone et un cadre de développement d’applications basé sur LLM appelé LangChain.
Dans un billet de blog, M. Nakajima explique que le système peut accomplir des tâches, en créer de nouvelles en fonction des résultats obtenus et les classer par ordre de priorité en temps réel. Il a expliqué à Motherboard que son application avait réussi à effectuer une recherche sur le web à partir des données saisies, à rédiger un paragraphe à partir des résultats de la recherche et à créer un document Google avec ce paragraphe.
Si ces systèmes démontrent le grand potentiel des modèles de langage de l’IA pour exécuter des tâches de manière autonome dans des contraintes et des contextes variés, l’article de Motherboard met également en évidence des problèmes potentiels.
Au fur et à mesure que ces agents acquièrent de nouvelles compétences, telles que l’accès aux bases de données et la communication humaine, M. Nakajima souligne l’importance croissante d’une surveillance humaine continue. Richards est d’accord, affirmant qu’une telle surveillance permettra de s’assurer que ces agents autonomes « fonctionnent dans des limites éthiques et légales tout en respectant la vie privée et les préoccupations en matière de sécurité ».
L’article souligne également que la recherche d’autonomie dans le domaine de l’IA vise à permettre aux modèles de simuler des chaînes de pensée, de raisonnement et d’autocritique afin d’accomplir une série de tâches et de sous-tâches. Cependant, le LLM semble avoir tendance à « halluciner » plus loin dans la liste des sous-tâches.
Enfin, il convient de noter que des chercheurs de la Northeastern University et du Massachusetts Institute of Technology ont récemment publié un article examinant l’utilisation de LLM autoréflexifs pour aider d’autres agents pilotés par LLM à accomplir des tâches sans se déconcentrer.