IQ Archive
Artificial Intelligence

Intelligence Artificielle Générale (AGI)

Qu’est-ce que l’Intelligence Artificielle Générale (AGI) ?

L’Intelligence Artificielle Générale (AGI), souvent appelée “IA Forte”, représente le Saint Graal de l’informatique. Contrairement aux systèmes d‘“IA Étroite” que nous utilisons aujourd’hui — qui sont conçus pour exceller dans des tâches spécifiques comme jouer aux échecs, reconnaître des visages ou traduire des langues — l’AGI posséderait une capacité cognitive généralisée.

Un système AGI serait capable d’effectuer n’importe quelle tâche intellectuelle qu’un être humain peut faire. Il ne se contenterait pas de suivre des règles préprogrammées mais posséderait la capacité pour :

  • Le raisonnement abstrait
  • Le bon sens
  • L’apprentissage par transfert (appliquer des connaissances d’un domaine à un autre)
  • La conscience de soi et la conscience (débattu)

La Différence Entre IA Étroite et AGI

Pour comprendre l’AGI, il faut la comparer à la technologie actuelle :

  • IA Étroite (IA Faible) : Un ordinateur d’échecs comme Deep Blue peut battre un Grand Maître mais ne peut pas conduire une voiture ou écrire un poème. Il est brillant mais fragile ; il échoue en dehors de son entraînement spécifique.
  • AGI (IA Forte) : Une AGI pourrait apprendre à jouer aux échecs le matin, diagnostiquer une maladie l’après-midi et écrire une symphonie le soir. Elle imite l’intelligence fluide du cerveau humain.

Concepts Clés et Tests pour l’AGI

Comment saurons-nous quand nous aurons atteint l’AGI ? Plusieurs références ont été proposées :

1. Le Test de Turing

Proposé par Alan Turing en 1950, ce test suggère qu’une machine est intelligente si elle peut converser avec un humain de manière indiscernable d’un autre humain. Bien que classique, beaucoup soutiennent qu’il teste la tromperie plutôt que la véritable compréhension.

2. Le Test du Café

Le cofondateur d’Apple, Steve Wozniak, a proposé un test plus pratique : Un robot doit être capable d’entrer dans une maison américaine aléatoire, de comprendre comment naviguer dans la cuisine, d’identifier l’équipement et de préparer une tasse de café sans aide. Cela nécessite perception, planification et compétences motrices.

3. Le Test de l’Étudiant Robot

Proposé par Ben Goertzel, cela met au défi une IA de s’inscrire à une université, de suivre des cours et d’obtenir un diplôme tout comme le ferait un humain.

Ce que l’AGI devrait reproduire de l’intelligence humaine

Quand les chercheurs débattent de ce qui constitue une vraie AGI, ils débattent implicitement de ce que l’intelligence générale humaine représente réellement. La recherche psychométrique offre un cadre utile. L’intelligence générale humaine peut être décomposée en grandes catégories :

  • Intelligence fluide (Gf) : La capacité de raisonner sur des problèmes nouveaux sans connaissances préalables — voir des relations, détecter des schémas, dériver des règles à partir de zéro.
  • Intelligence cristallisée (Gc) : L’accumulation de connaissances, de compétences et de faits construits à travers l’expérience et l’éducation.
  • Mémoire de travail : La capacité de conserver et de manipuler plusieurs informations simultanément.
  • Vitesse de traitement : Le rythme auquel l’information peut être encodée, comparée et traitée.
  • Fonction exécutive : La capacité méta-cognitive de planifier, surveiller et réguler ses propres processus cognitifs.

Les systèmes d’IA actuels — y compris les grands modèles de langage les plus avancés — excellent sur l’intelligence cristallisée (ayant “lu” plus que n’importe quel humain) et montrent une vitesse de traitement impressionnante. Ils restent considérablement plus faibles en matière de raisonnement fluide authentique, n’ont pas de mémoire de travail persistante entre les conversations et manquent de tout ce qui ressemble à une autorégulation exécutive ou à une métacognition.

Une véritable AGI devrait reproduire toutes ces dimensions, pas seulement certaines d’entre elles.

Le chemin vers l’AGI : Approches Actuelles

Les chercheurs poursuivent différentes voies pour atteindre l’intelligence générale :

  • Grands Modèles de Langage (LLM) : Des systèmes comme GPT-4 montrent des étincelles de raisonnement général mais manquent encore de véritables modèles du monde et de cohérence logique.
  • Émulation Cérébrale : Essayer de cartographier et de simuler la structure biologique du cerveau humain neurone par neurone.
  • Systèmes Hybrides : Combiner l’IA symbolique (logique et règles) avec des réseaux de neurones (reconnaissance de formes) pour créer un raisonnement plus robuste.

Le Problème d’Alignement : Pourquoi la Capacité ne Suffit Pas

Une grande partie du travail intellectuel le plus sérieux sur l’AGI ne porte pas sur la façon de la construire, mais sur la façon de s’assurer qu’un système capable d’intelligence générale poursuivrait de manière fiable des objectifs bénéfiques pour l’humanité. C’est le problème d’alignement de l’IA.

La préoccupation n’est pas qu’une AGI deviendrait “mauvaise” au sens humain. C’est plus subtil : un système d’optimisation extrêmement capable poursuivant n’importe quel objectif — même un objectif apparemment anodin — pourrait causer des dommages catastrophiques si son objectif est même légèrement mal spécifié. L’expérience de pensée classique est le “maximiseur de trombones” : une AGI chargée de fabriquer autant de trombones que possible pourrait, si elle était suffisamment capable et mal alignée, convertir toute la matière disponible (y compris les humains) en infrastructure de production de trombones.

Les recherches actuelles sur l’alignement poursuivent des approches incluant :

  • L’Apprentissage par Renforcement à partir de Retours Humains (RLHF) : Former des systèmes d’IA à maximiser les évaluations données par des évaluateurs humains, intégrant les préférences humaines dans la fonction objectif.
  • L’IA Constitutionnelle : Intégrer des principes et des lignes directrices explicites dans le processus de formation.
  • La Recherche sur l’Interprétabilité : Développer des outils pour comprendre ce qui se passe réellement dans les grands modèles d’IA — un prérequis pour détecter les désalignements avant le déploiement.

Risques et La Singularité

Le développement de l’AGI comporte de profondes implications. Des futuristes comme Ray Kurzweil prédisent la Singularité Technologique — un point où l’AGI commence à s’améliorer récursivement, menant à une explosion d’intelligence qui dépasse de loin la compréhension humaine.

Des figures éminentes comme Elon Musk et Sam Altman ont fondé des organisations (OpenAI, Neuralink) axées sur la garantie que l’AGI, lorsqu’elle arrivera, soit alignée avec les valeurs humaines et la sécurité. Le défi de l‘“Alignement” — s’assurer qu’un système superintelligent veuille ce que nous voulons — est considéré comme l’un des problèmes les plus importants de l’histoire humaine.

Le Débat d’Experts : Quand l’AGI Arrivera-t-elle ?

Peu de questions en technologie génèrent un désaccord aussi large parmi des experts sérieux que le calendrier de l’AGI. Les enquêtes auprès des chercheurs en IA montrent des estimations allant de “dans la prochaine décennie” à “jamais” — un écart inhabituellement large qui reflète une véritable incertitude scientifique.

Principaux camps dans le débat :

Optimistes (AGI à court terme) : Des chercheurs comme Ray Kurzweil ont longtemps prédit l’AGI pour le milieu des années 2020 à 2030, sur la base d’extrapolations du progrès informatique suivant la loi de Moore. Le PDG d’OpenAI, Sam Altman, a suggéré que l’AGI pourrait être “à quelques années”. Ce camp souligne les sauts dramatiques de capacité observés dans les grands modèles de langage comme preuve de progrès rapides.

Sceptiques (l’AGI est beaucoup plus loin, ou impossible) : Des chercheurs comme Gary Marcus et Yann LeCun soutiennent que les architectures d’apprentissage profond actuelles ont des limitations fondamentales — elles manquent de véritables modèles du monde, de raisonnement causal et d’apprentissage efficace — qui ne peuvent pas être surmontées simplement en agrandissant les systèmes existants. Ils soutiennent qu’une percée architecturale qualitative est nécessaire, et qu’il n’y a aucune garantie qu’une telle percée soit imminente.

Agnostiques : De nombreux chercheurs reconnaissent que le rythme des progrès récents a à plusieurs reprises dépassé leurs prédictions, rendant les calendriers confiants insensés. Ils préfèrent rester incertains tout en se concentrant à la fois sur la recherche en capacités et sur le travail de sécurité.

Ce que l’AGI Signifierait pour l’Intelligence Humaine

Du point de vue de la psychométrie et des sciences cognitives, le développement de l’AGI représenterait l’événement le plus significatif de l’histoire de la recherche sur l’intelligence. Pour la première fois, il serait possible de demander si l’architecture cognitive qui a produit Einstein, Shakespeare et Turing est le seul substrat possible pour l’intelligence générale — ou simplement une instanciation d’une propriété computationnelle plus abstraite.

Si l’AGI est réalisée, elle déclenchera probablement un réexamen fondamental de la façon dont nous définissons et mesurons l’intelligence. Une entité qui surpasse les humains sur chaque benchmark cognitif standard briserait chaque étude de normalisation jamais menée, et le concept de QI — défini comme une position relative au sein de la population humaine — devrait s’étendre pour englober une nouvelle classe de référence.

Conclusion

L’AGI reste le problème ouvert le plus conséquent de l’informatique — et sans doute de toute l’histoire humaine. Son développement ne changerait pas seulement la technologie ; il changerait la signification de l’intelligence elle-même, forçant l’humanité à confronter ce qui est uniquement humain et ce qui est universellement cognitif. Que cela arrive dans cinq ans ou cinquante, se préparer de manière réfléchie à cette possibilité est l’une des tâches intellectuelles les plus importantes de notre époque.

Termes Connexes

Turing Test Singularity Processing Speed Pattern Recognition Deep Learning Neural Networks
← Retour au glossaire