hello à tous c'est Louis et aujourd'hui je tenais à vous parler de GPT O1 qui va vraiment faire bouger les lignes dans le monde de Lia je vous explique du coup dans une vidéo en 5 minutes sans cut qu'est-ce que c'est ce nouveau modèle comment il fonctionne qu'est-ce qui va permettre exactement ensuite comment l'exploiter et les cas d'utilisation possible pour ensuite voir du coup terminer avec les conseils et les limites de ce modèle parce que je pensais sincèrement qu'on avait atteint un peu un plateau au niveau des modèles et en fait tous les benchmark montré
une sorte de saturation de performance de un peu plateau cette situation où en fait les modèles ils atteignent un point de convergence peu et où les benchmark standard en fait ils permettent pas forcément de mesurer des progrès significatifs puisqu'on est au-dessus de la performance humaine et du coup c'est difficile d'évaluer des améliorations supplémentaires là où on voit des améliorations ça va être après dans les fonctionnalités par exemple C GPT ou des certains modes comme mode conversationnel qui a lancé open ai ou de la multimodalité mais ça fait longtemps qu'il avait pas eu vraiment comme ça
un gap de performance comme il y a avec le nouveau modèle gpto1 et du coup pour continuer de progresser ça ça a nécessité des nouvelles approches pour évaluer les modèles et du coup réussir à atteindre et à résoudre des tâches complexes un peu ce qu'on appelle des des long tail tasks ou des objectifs qui sont plus nuancés en termees de compréhension et de raisonnement donc du coup j'avais la sentiment que la hype allait s'éteindre qui aait pas forcément de nouveau quisation proche et j'avais complètement tort parce que open du coup a sorti ce nouveau modèle
AU1 il y a pas mal d'articles qui sont disponibles et c'est pas juste un GPT basique c'est vraiment un nouveau paradigme ce qu'on voit par exemple sur ce graphe c'est que quand il y a un délai que ça soit sur de l'entraînement ou en test ben on va améliorer la précision des modèles benchmark entre modèle gpt4o et O1 où en fait vraiment la différence est énorme comme vous pouvez le voir sur le graphe en fait sur C ces différents comparaisons benchmark euh il y a vraiment on avait plutôt l'habitude d'avoir par exemple des légères améliorations
comme là 188.7 à 69 entre les modèles mais là il y a vraiment des gros gaps et pour vous donner une idée de la puissance du modèle un exemple partagé par openï c'est sur un concours international de mathématiques ben j'ai pét 4 réussissais 13 % des des problèmes j'ai pété au 1 et à 83 % et il se classe en fait parmi un peu les 500 meilleurs étudiants aux États-Unis sur des épreuves de qualification sur un concours côté mathématique et on voit vraiment le gap en fait que ça soit en mathématique en programmation il est
énorme du coup qu'est-ce que ça change exactement comment ça fonctionne c'est euh c'est parce que c'est pas juste une mise à jour de gpt4 c'est vraiment un nouveau modèle de Deep thinking et donc là on le voit en gros ce qui se passe c'est que avant de vous répondre je tenais à vous montrer ce graphe il va réfléchir il va envisager les scénarios possibles comme quand on essaie nous-même de R de répondre à résoudre un problème on va prendre des chemins différents revenir en arrière éviter les pièges du coup c'est pour ça que le délai
de réponse il va être plus lent et on va pas chercher la rapidité mais plutôt une précision de réponse ce que l'on voit sur le graphe ici c'est que il y a un un un premier chemin qui va être envisagé depuis l'input donc la demande d'utilisateur le prompt il va faire sa capacité de raisonnement sortir un output et utiliser décomposer les étapes pour faire la même chose en récupérant l'input et output et faire du coup cette deuxième étape qui du coup est une sous-étape pour résoudre le problème et cetera et cetera jusqu'à partager la réponse
donc c'est ça qui est hyper intéressant et ça me fait pas mal penser à une référence euh sur le sujet de liya et exactement à andrarpy qui avait partagé une vidéo de près 1 heure où il explique justement les LLM et ce qui était intéressant c'est qu' expliquait le manque en fait de système 2 le système 2 ça fait référence à un livre euh de canman qui s'appelle euh sing fast and slow et en français système 1 système 2 c'est assez marrant parce que j'avais parlé euh du fait que les modèles l n'avaient pas encore
du système 2 et en fait ce qui partageit c'est que il ils avaient pas cette capacité de réflexion euh de raisonnement c'était un peu une frustration de beaucoup d'utilisateurs cette capacité du coup d'envisager des des chemins et euh ben un peu sur ce modèle de tre of SS de de penser tout simplement et c'est ce que permettent maintenant ces deux nouveaux modèles parce qu'il y a deux modèles qui sont disponibles il y a la version O1 preview qui est le modèle le plus puissant mais limité en terme d'usage et l'autre modèle le O1 mini et
du coup il y a deux aspects qui sont importants à retenir c'est que ce qui peut produire ce qui réussit à faire c'est à avoir une chaîne de pensée interne avant de répondre à l'utilisateur et ça se caractérise par en fait on le voit sur l'interface comment il réfléchit on va le voir juste après et un apprentissage par renforcement exactement en gros il va en fait ça va lui permettre d'améliorer sa chaîne de pensée de vérifier les résultats à chaque étape parce que ici quand il a output il va vérifier donc il va être capable
de reconnaître l'erreur de corriger sa stratégie en essayant une approche différente de décomposer un un un problème complexe en étâ simple donc là par exemple en fait il va identifier les différentses solution et les juger pour choisir la meilleure solution donc on on voit ça se matérialise sur sur l'interface après il faut comprendre aussi que sur l'interface open a quand vous l'utilisez c'est juste un résumé de la chaîne de pensée et Open ne souhaite pas pour l'instant partager complètement ce que le modèle fait pour plusieurs facteur de l'avantage concurrentiel la sécurité et cetera donc et
ce qu'il faut avoir en tête c'est qu'avant de trop espérer du modèle O1 il y a aussi plusieurs raisons de douter de ce nouveau modèle c'est pas définitivement laag c'est même pas en fait euh aussi comparable à gpt5 c'est juste un autre modèle et maintenant je vais vous parler des cas d'utilisation rapidement pour vous parler des cas d'utilisation j'ai mis quelques notes sur Twitter il commence y avoir des cas partagés la plupart en fait des exemples qui sont partagés sur Twitter c'est pas mal de en fait d'usage sur la programmation puis ça permet en fait
de faire beaucoup de choses ici c'est la création d'une app assez poussé de une app météo en en seulement 10 minutes en utilisant la programmation ass avec lia et du coup le modèle O1 un autre exemple ici h c'est par exemple ici un peu comme ce qu'on peut parfois retrouver sur cloud la création de de miniux comme ça qui est une création qui est très complète euh donc ça va quand même plus loin que Cloud en capacité de programmation un autre exemple ici sur une une petite app euh en en 2D un autre exemple je
trouve intéressant sur du 3D je vidéo 3D donc voilà il y il y a pas pas mal d'exemples comme ça en programmation je vais d'ailleurs prochainement faire une vidéo qui montre l'utilisation de curseur et de rlite pour faire la programmation assistée avec lia donc n'hésitez pas à acheter un coup d'œil mais en autre cas d'usage intéressant et partager aussi que vous pouvez retrouver ici je mettrai les lien en description par par open ai en fait ici il y a pas mal de cas différents qui sont dans le cadre de du raisonnement de tâche complexe on
voit vraiment une comparaison entre les différents modèles donc n'hésitez pas à jeter un œil et puis sinon open ai a partagé beaucoup de cas en fait de programmation sur sa chaîne Youtube et de de résolution de problèmes complexes donc n'hésitez pas à jeter un œil ça céit les cas d'utilisation qui étaiit partagés un un point intéressant c'était ce ce test que j'ai vu passer qui était aussi intéressant on dans ce cas préci on demande combien il y a de mots qui vont être générés dans la réponse et le modèle comprend en fait que c'est une
question qui demande du recul il comprend en fait que c'est lui qui va générer la réponse et que c'est à lui de déterminer le nombre de mots euh dans sa phrase et c'est assez intéressant puisque du coup il réussit du premier coup mais ce qu'il faut avoir en tête c'est que ça reste un modèle probabiliste et il peut se tromper et on va faire un exemple en live maintenant euh par exemple h j'avais fait le test combien il y a de r dans le mot strawberry h c'est un alors là je suis sur O1 mini
mais je pourrais être sur O1 preview et derère je pourrais faire le test alors moi en fait dans dans lorsque j'avais fait le test il détectait bien 3R et on voit tout toute sa logique et c'est hyper intéressant parce que c'est très compliqué pour un modèle nous ça nous paraît très simple de de déterminer le nombre de r dans ce mot-l mais en fait comme ils sont dans une logique de token c'est très compliqué de compter les mots de compter les les les la position des lettres et le nombre de lettres dans un dans un
mot et en fait si j'insiste un petit peu il s'avère que le modèle peut aussi se remettre en question et ben là par exemple il s'excuse pour l'erreur et il indique qu'il y a finalement de R et il va vérifier la correction d'une erreur évaluant la présence des lettres je chaque position il SEM qu'il y a de r tout ça pour dire que en fait le modèle a cette capacité de raisonnement et de découpage qu'on peut vous lire hyper intér ess mais il peut quand même se tromper en particulier quand parfois on insiste avec le
modèle preview j'ai quand même deuxème fois la bonne réponse la troisème fois en insistant j'ai eu mauvaise réponse voilà ça c'était les petits cas d'utilisation maintenant moi je je vais vous partager mes cas d'utilisation et mes conseils de mon côté du coup j'ai plusieurs cas en tête le premier cas concret c'est l'analyse de données et notamment l'extraction de données sur les documents sur les documents financiers en fait où moi j'avais des problèmes avant pour récupérer C certaines données sur un document qui était très long pouvoir comparer ces données avec ce qu'on avait avant et c'est
des documents qui reviennent régulièrement donc ça ça va pouvoir beaucoup débloquer ce cas notamment aussi en programmation pour aller plus loin et moi le gros plus que je vois c'est la gestion de tâches complexes avec les agents puisque ce qui va être intéressant j'ai notamment fait une vidéo sur les agents Ia autonomes que vous pouvez voir en haut à droite mais c'est qu'on va avoir une meilleure gestion des cas des cas particuliers parce que c'est impossible de tout anticiper l'input entrant étant aléatoire euh dans le sens où un utilisateur peut euh par exemple sur un
agent Ia de support euh et avoir une formulation un peu trompeuse poser des questions un peu particulières mais ça demande parfois une capacité de raisonnement assez développée donc c'est là où c'est intéressant et moi je crois beaucoup en cette combinaison des modèles un autre graphique intéressant c'est ce graphique là qui montre en fait que Ben GPT 4 ha est meilleur sur la partie rédaction et édition de texte euh ça c'est en fait un un un vote qui a été fait par des humains sur la comparaison des résultats et donc je vois bien en fait une
équipe d'agents Ia avec l'agent manager qui va être lui plutôt utiliser le modèle euh O1 et donc avoir une capacité c'est un peu un système de de réflexion dans le la référence que je vous disais au début sur le livre de de canman euh alors que les autres vont être plus rapides moins coûteux sur du système 1 on va chercher de la la fiabilité en fait sur le manager pour décider et orienter quelle décision prendre et quel agent choisir il y a encore des limites l'accès B forcément il est assez limité pour l'instant c'est 30
messages par semaine avec O1 preview et 50 pour O1 mini c'est très faible le coût aussi au un preview il est trois ou quatre fois supérieur à gpt4 mais c'est pour des cas d'utilisations vraiment vraent différent c'est pas comparable voilà un petit peu pour vous faire le tour de du sujet vérifiez vraiment toujours vos réponses surtout si c'est un sujet important c'est quand même un P géant dans le monde de Lia parce que ça ouvre des possibilité incroyable il faut l'utiliser quand même avec discernement il y a des cas qui s'y prêtent il y en
a d'autres qui s prêtent pas il y a une vraie distinction du coup entre des modèles rapides peu coûteux gpt4 bientôt gpt5 et c'est modèles là qui ont cette première version de modèle O1 qui est plus coûteux si vous avez apprécié cette vidéo n'hésitez pas à mettre un like à commenter c'est un format un peu brut comme ça dites-moi dans les commentaires ce que vous pensez aussi de gpto1 si vous avez fait vos tests comparer à gpt4 et puis ben je vous dis à une prochaine avec une nouvelle vidéo qui devrait arriver très bientôt sur
cursor à plus Ciao