Les modèles de raisonnement GPT ont une 'vision' vers l'AGI, déclare Greg Brockman d'OpenAI
🔬 Recherche

Les modèles de raisonnement GPT ont une 'vision' vers l'AGI, déclare Greg Brockman d'OpenAI

The Decoder
Matthias Bastian·5 min·0 vues
En bref
1Greg Brockman, co-fondateur d'OpenAI, affirme que le débat sur la capacité des modèles textuels à atteindre l'intelligence générale est résolu.
2Les modèles GPT sont considérés comme des étapes cruciales vers l'AGI.
3Cette déclaration marque un tournant dans la perception des capacités des IA textuelles par rapport à l'intelligence humaine.
💡Pourquoi c'est importantCela pourrait transformer radicalement le paysage technologique et commercial en rendant l'AGI plus accessible.
📄
Article traduit en français

Les modèles de raisonnement GPT ont une 'vision' vers l'AGI, déclare Greg Brockman d'OpenAI

Le président d'OpenAI, Greg Brockman, considère que le débat sur les limites des modèles basés sur le texte est clos, affirmant que les modèles de raisonnement GPT représentent un chemin direct vers l'AGI (Intelligence Artificielle Générale).

Selon Brockman, OpenAI voit une "ligne de vue" vers l'AGI à travers les modèles textuels et privilégie cette approche par rapport aux modèles multimodaux comme Sora, que l'entreprise considère comme étant sur "une branche différente de l'arbre technologique."

Cette position est vivement contestée au sein de la communauté de recherche en IA. Des figures éminentes comme Yann LeCun et Demis Hassabis de Google DeepMind soutiennent que les grands modèles de langage à eux seuls ne suffiront pas à atteindre une intelligence de niveau humain.

Brockman déclare que le débat sur la capacité des grands modèles de langage à atteindre l'intelligence générale (AGI) est réglé. L'architecture GPT mènera à l'AGI.

"Je pense que nous avons définitivement répondu à cette question — cela va mener à l'AGI. Comme nous voyons une ligne de vue," déclare Greg Brockman à propos des modèles de raisonnement GPT dans le Big Technology Podcast.

C'est une affirmation audacieuse. Brockman déclare essentiellement que l'une des questions centrales non résolues dans la recherche en IA est réglée : les modèles principalement entraînés sur du texte peuvent-ils développer une véritable compréhension du monde ? Ou cela nécessite-t-il des modèles multimodaux comme Sora ? Parmi les chercheurs en IA, l'approche technique reste vivement débattue.

OpenAI a récemment fermé l'application et le modèle Sora. La recherche sur les modèles du monde se poursuivra pour la robotique, mais à une échelle plus réduite et sans produits destinés aux consommateurs.

Brockman qualifie Sora de "modèle incroyable," mais affirme qu'il se situe sur "une branche différente de l'arbre technologique" que la série de raisonnement GPT. Avec une puissance de calcul limitée, il n'est pas faisable pour OpenAI de poursuivre les deux en même temps. Pour Brockman, il s'agit moins de l'importance relative des deux approches et plus de "séquençage et de timing." Les applications "dont nous avons toujours rêvé commencent à devenir accessibles," et le moyen d'y parvenir est à travers l'architecture GPT.

Lorsque l'animateur Alex Kantrowitz demande si OpenAI pourrait manquer quelque chose de crucial en négligeant les modèles du monde de style Sora, soulignant que Demis Hassabis de DeepMind a déclaré que le modèle d'image "Nano Banana" de Google semblait particulièrement proche de l'AGI, Brockman reconnaît le risque : "Dans ce domaine, vous devez faire des choix. N'est-ce pas ? Vous devez faire un pari."

Les chercheurs restent divisés sur la capacité des LLM à atteindre l'intelligence générale

La question de savoir si les modèles purement basés sur le texte peuvent atteindre l'intelligence générale est loin d'être tranchée dans la communauté de recherche en IA. Le chercheur en IA renommé Yann LeCun soutient depuis des années que les LLM ne mèneront pas à une intelligence semblable à celle des humains. À son avis, les LLM ont une compréhension très limitée de la logique, ne comprennent pas le monde physique, n'ont pas de mémoire permanente, ne peuvent pas penser de manière rationnelle et ne peuvent pas planifier de manière hiérarchique. Au lieu de cela, il parie sur les modèles du monde pour développer une compréhension complète de l'environnement. Le fondateur de DeepMind, Demis Hassabis, partage un point de vue similaire : l'échelle des LLM à elle seule n'est pas suffisante, et d'autres percées sont nécessaires.

Le chercheur en IA Francois Chollet définit l'intelligence comme la capacité à apprendre de nouvelles compétences de manière efficace. Ce qui importe, c'est la capacité d'un système à former indépendamment des abstractions. Bien que les modèles de langage actuels puissent être placés sur une échelle d'intelligence, ils se classent très bas. En dehors de leur domaine d'entraînement, ils doivent tout réapprendre depuis le début. L'apprentissage continu pourrait aider à combler cette lacune.

Cette vision s'aligne sur une ligne de recherche plus large. Dans un article récent, le chercheur de DeepMind Richard Sutton et l'ancien chercheur de DeepMind David Silver ont appelé à un changement de paradigme. Au lieu de s'entraîner sur les connaissances humaines, les systèmes devraient apprendre de leur propre expérience. Silver a depuis fondé sa propre startup axée sur l'apprentissage par simulation.

L'ancien chercheur d'OpenAI Jerry Tworek, l'un des esprits clés derrière les percées du modèle de raisonnement d'OpenAI, décrit également son domaine de recherche en apprentissage profond comme "terminé." La prochaine étape, dit-il, consiste à construire des simulations du travail humain où les systèmes d'IA peuvent apprendre des compétences. Sa nouvelle startup, Core Automation, est dédiée à cette approche.

Cependant, tout le monde ne partage pas ce scepticisme. Le chercheur de DeepMind Adam Brown a récemment défendu le potentiel de l'architecture actuelle des LLM. Il compare le mécanisme de prédiction des tokens à l'évolution biologique : une règle simple qui, grâce à un scalage massif, crée une complexité émergente que les gens perçoivent comme de la compréhension. Brown soutient que cette complexité pourrait même mener à la conscience.

Lire l'article original sur The Decoder

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires