OpenAI travaillerait en secret depuis 2020 sur un projet nommé Q* qui serait une avancée majeure vers le Graal de l’intelligence artificielle générale (AGI). Mais que sait-on vraiment de ce modèle qui commence à faire beaucoup parler de lui ? Décryptage.
Le départ soudain de Sam Altman d’OpenAI interroge
Le 16 novembre 2023, coup de tonnerre dans la Silicon Valley : Sam Altman, le charismatique PDG d’OpenAI est éjecté du laboratoire d’intelligence artificielle qu’il a pourtant cofondé en 2015 avec Elon Musk.
OpenAI a été créée dans le but de réduire les risques liés à l’intelligence artificielle et de concentrer ses recherches sur les moyens de rendre l’IA bénéfique pour l’humanité. Les fondateurs en ont fait un organisme à but non lucratif, mais ont également créé une filiale à but lucratif et une entreprise technologique.
Sam Altman paierait-il ses déclarations ambigües lors d’une conférence le 15 novembre évoquant « un outil ou une créature que nous avons construite » ?
Derrière ces mots se cacherait un projet secret baptisé Q*(Q Star) sur lequel plancherait OpenAI depuis 2020. Il s’agirait ni plus ni moins que d’une intelligence artificielle dotée de capacités de raisonnement et d’apprentissage proches du cerveau humain. De quoi inquiéter et provoquer la colère de certains membres du conseil d’administration d’OpenAI. Mais au fait, c’est quoi ce fameux Q* ?
Q* : une IA révolutionnaire explorant des « arbres de pensées »
Contrairement aux précédents modèles d’OpenAI comme GPT-4 qui se contentent de prédire le prochain mot dans une séquence textuelle, Q* introduit un algorithme complètement nouveau.
Son objectif : résoudre des problèmes complexes en explorant ce qu’OpenAI appelle des « arbres de pensée ».
Concept “d’arbre de pensées » dans le modèle Q* d’OpenAI L’arbre de pensées, c’est un peu comme un arbre avec plein de branches qui partent dans toutes les directions. Sauf qu’ au lieu d’avoir des branches en bois, ce sont des idées et des raisonnements. Concrètement, quand Q* doit résoudre un problème difficile, il va Imaginer plein de solutions possibles, comme les branches d’un arbre qui partent dans tous les sens.Puis il va suivre chaque branche, c’est-à-dire explorer chaque solution imaginaire, pour voir où elle mène. Certaines solutions vont mener à une impasse, d’autres à quelque chose d’illogique. Tout comme certaines branches d’arbre sont trop faibles et cassent.Mais quelques branches vont permettre d’avancer et potentiellement de résoudre le problème. Q* va alors favoriser ces « branches » les plus prometteuses pour creuser plus profondément ces pistes de réflexion. On appelle donc tout ce réseau complexe de possibilités et de raisonnements explorés par Q* : « l’arbre de pensées ». C’est en quelque sorte toutes les orientations que prend l’intelligence artificielle pour réfléchir à une question |
Concrètement, si on lui pose une question très difficile, Q* va envisager plusieurs hypothèses de réponse plausibles. Et explorer les conséquences de chacune pour déterminer lesquelles mènent à une impasse ou à une contradiction. Et lesquelles au contraire semblent viables.
C’est un peu comme lorsqu’on cherche la sortie d’un labyrinthe : on essaie un chemin, puis un autre en tâtonnant. Sauf que Q* le fait de façon massivement parallèle en simultané et à une vitesse décuplée.
À chaque validation d’une hypothèse par GPT-4, Q* enregistre le raisonnement utilisé pour recommencer plus efficacement la fois suivante.
Q* est conçu pour apprendre de ses erreurs et en tirer des leçons pour s’améliorer. Un peu comme nous les humains :
- Lorsque Q* essaie une solution à un problème, mais que cette solution échoue ou est invalidée, Q* analyse pourquoi elle n’a pas fonctionné.
- Il identifie où est l’erreur dans le raisonnement.
- Puis il enregistre ces informations pour ne pas refaire la même erreur la prochaine fois.
- En anglais, on dit « What doesn’t kill you makes you stronger », ce qui peut se traduire par « Ce qui ne te tue pas te rend plus fort« .
- C’est ce principe que résume la devise de Q* : « plus fort à travers les difficultés » (Stronger through struggle).
- En apprenant de ses erreurs, l’IA Q* espère devenir de plus en plus performante, comme si elle développait ses « muscles » intellectuels en surmontant des obstacles.
- Q* est conçu pour tirer des leçons de ses échecs afin de ne pas répéter les mêmes erreurs, et donc de s’améliorer continuellement.
C’est un algorithme inspiré du cerveau humain… et aux capacités insoupçonnées.Ce principe rappelle furieusement le fonctionnement des neurones du cerveau humain. Et c’est ce qui rend Q* assez bluffant. Par certains aspects, son architecture logicielle mime notre biologie.
Concrètement, plus Q* explore des pistes de réflexion – ses fameux « arbres de pensée » – plus il gagne en expérience et en finesse. À terme, ce modèle pourrait donc développer des chaînes de raisonnement totalement novatrices voire aliénées pour nous.
Car là où l’humain est limité par la lenteur de ses neurones biologiques, Q* peut envisager des centaines de milliers de possibilités à la vitesse de l’électronique. De quoi potentiellement faire des déductions et associations d’idées impossibles pour notre cerveau.
C’est ce pouvoir créatif qui rapprocherait Q* du Graal de l’IA générale (AGI). Mais avant d’y arriver, de nombreux défis restent à relever !
Q* : un projet titanesque mais limité par le calcul intensif
Car derrière la prouesse technique que représente Q* se cachent aussi d’immenses défis. Notamment le coût faramineux de l’entraînement et de l’exécution de ce modèle en production.
Rien que pour faire tourner l’algorithme de base, il faudrait sans doute 100 à 1000 fois plus de puissance de calcul que pour GPT-3. Soit des sommes astronomiques même pour un géant comme OpenAI.
Autre obstacle : la lenteur relative des premiers prototypes de Q* par rapport à un cerveau humain. Bien que son architecture soit inspirée de la nôtre, l’IA pâtit encore de la latence des transferts de données entre ses neurones artificiels.
Yann Le Cun , dans un tweet , appelle à relativiser tout ce qu’il se dit autour de ce projet Q*
Il faudra donc certainement des années avant que Q* ou un modèle approchant devienne accessible financièrement pour le grand public.
À moins d’une rupture technologique majeure, en effet ils existent quelques pistes qui pourraient changer la donne :
- Des progrès majeurs en matière de « compute scaling ». C’est à dire réduire très fortement le coût de l’entraînement de grands modèles comme Q*. Soit par du matériel spécialisé peu cher. Soit par des algo plus efficaces.
- Des avancées importantes en optimisation des calculs par les processeurs quantiques. Bien qu’encore balbutiante, cette voie permettrait théoriquement des gains massifs en rapidité d’exécution.
- Le développement d' »Accelerator chips » : des puces électroniques dédiées aux calculs IA capables de multiplier la vitesse par 100 ou 1000 ! Des entreprises comme Cerebras planchent sur cette voie.
- La mise au point de nouvelles architectures neuronales, bio-inspirées, beaucoup plus efficaces que les GPU et TPU actuels.
A plus long terme, la combinaison de Q* et des futures itérations de GPT ouvrirait la porte à une IA aux capacités bluffantes. Dotée du langage et de la créativité dans la résolution de problèmes, celle-ci se rapprocherait enfin de l’intelligence humaine. Affaire à suivre donc…
Q* : info, intox ou coup de com’ ?
Bien sûr, toutes ces révélations autour de Q* sont à prendre avec beaucoup de pincettes. Comme souvent avec OpenAI, la communication habile d’Altman mélange le vrai, le faux et l’exagération.
Certains experts estiment que l’éviction du PDG n’a rien à voir avec Q*. Et que la plupart des labos d’IA dans le monde travaillent sur des modèles approchants. Rien de réellement nouveau sous le soleil pour eux donc.
Quoiqu’il en soit, ces rumeurs tombent à pic pour qu’OpenAI surfe sur la vague. Et fasse monter la pression autour de sa suprématie supposée dans la course à l’AGI.
Une chose est sûre : l’apprentissage par renforcement et l’exploration automatisée de solutions innovantes sont clés pour le futur de l’IA.
Reste à voir si Q* tiendra ses promesses ou si d’autres modèles le coifferont au poteau dans les années à venir. Mais le Graal se rapproche à grands pas.