Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Aujourd'hui, le Vibe Coding n'est pas aussi merveilleux qu'on pourrait l'imaginer.
Le Vibe Coding que l'on imagine devrait être le suivant : vous donnez une tâche, l'IA réfléchit et vous pose quelques questions clés, puis commence à travailler pendant longtemps. À ce moment-là, vous pouvez vous détendre, boire un verre d'eau gazeuse, regarder des vidéos courtes et profiter de la vie.
Mais maintenant, après avoir donné une tâche, parce que vous n'avez pas expliqué un certain point en détail, l'IA passe 30 minutes à réfléchir et génère quelque chose qui est à des années-lumière de ce que vous vouliez. Vous, furieux, faites un rollback, puis, en réprimant votre colère, vous lui expliquez dans les prompts ce qu'il doit prendre en compte, ce qu'il doit faire, et vous le laissez continuer à générer pendant 30 minutes. Au final, il ne prend en compte qu'une partie de ce que vous avez dit et continue à générer une tarte aux fraises. Comme vous n'avez complété qu'une partie des prompts, il continue à générer beaucoup de tartes aux fraises à d'autres endroits. À ce moment-là, vous, hors de vous, lui signalez son erreur, et il répond : "J'ai enfin compris", puis continue à générer des bêtises. Après un long combat, vous abandonnez et commencez à chercher vous-même les problèmes de code, passant 30 minutes à regarder le code qu'il a généré, de plus en plus en colère, ayant l'impression qu'un stagiaire a copié-collé des morceaux d'internet pour en faire un tas de déchets. Finalement, vous refaites le code avec colère. Cette situation est d'autant plus évidente dans des projets complexes (comme ceux impliquant plusieurs microservices, l'interaction front-end/back-end, la communication entre middleware, etc.).
Vous commencez donc à douter de vous-même, pourquoi d'autres peuvent utiliser l'IA pour réaliser tant de projets intéressants alors que le code que vous faites écrire par l'IA est un tas de bêtises. Après de nombreuses luttes, vous n'osez pas chercher diverses informations, espérant trouver la bonne manière d'interagir avec l'IA, puis, pensant avoir trouvé, vous continuez à communiquer avec l'IA, mais le résultat est toujours le même tas de bêtises. Le temps est gaspillé.
Il fut un temps où Claude Code, en tant que roi du Vibe Coding, a ouvert la voie, en réalité en augmentant le taux de réussite par des exécutions répétées. Supposons que le contenu généré par l'IA n'ait qu'un taux de réussite de 80 %, alors Claude Code, par des auto-tests, des analyses et des modifications répétées, peut faire passer ce taux à 99, ce qui permet de générer un code de très bonne qualité. Mais Claude Code, à l'instar de Cursor, a subi diverses limitations et restrictions, ce qui a entraîné une chute rapide de son taux de réussite. Au départ, il suffisait de 4 corrections pour atteindre 99 % de réussite, mais après ces limitations, si le taux de réussite n'est que de 70 %, il faudra 6 corrections pour atteindre le même résultat qu'auparavant. De plus, Claude a imposé des limites d'utilisation, ce qui rend impossible la génération de code efficace dans le même laps de temps, même en atteignant ces limites.
Et maintenant, pourquoi Codex est-il souvent loué ? La principale raison est qu'il aime demander l'avis des utilisateurs. Il vous demande si son plan a des problèmes, s'il peut faire cela, et vous propose plusieurs solutions sur la façon d'améliorer et de réaliser les choses. C'est très bien, car l'IA fait des erreurs, et en réalité, vos réponses aident à combler les lacunes de son taux de réussite, lui permettant de générer quelque chose qui atteint près de 99 % de réussite en une seule fois.
Claude Code est un très bon produit, mais il devient de plus en plus mauvais car son taux de réussite ne parvient pas à atteindre le niveau souhaité par les gens. L'IA est fondamentalement un grand générateur de probabilités basé sur des correspondances regex, et la clé de sa performance réside dans la capacité de sa sortie probabiliste à se rapprocher le plus possible de 1. En ingénierie, il s'agit simplement d'utiliser diverses méthodes pour le faire corriger plusieurs fois afin de se rapprocher de 1. Cependant, la baisse d'intelligence et les restrictions rendent cela de plus en plus difficile.
En revanche, Codex sait que l'IA pure n'est pas fiable, alors il confie la tâche de correction aux utilisateurs, transformant un outil de Vibe Coding en un assistant IA, ce qui donne de très bons résultats.
Ces outils d'IA doivent également réfléchir à la manière de résoudre ces problèmes en cas de taux de réussite insuffisant. Codex propose une bonne réponse, mais est-ce la solution optimale ? Pas nécessairement. Cependant, je pense personnellement que la collaboration entre plusieurs agents reste efficace. Puisque chaque IA a sa propre méthode de correspondance et de génération de résultats, la validation croisée entre plusieurs agents et la réflexion parallèle sont la meilleure formule.
Cependant, cela ne pourra certainement pas se produire au sein de ces entreprises de modèles d'IA, car elles sont forcément liées à leurs propres modèles. Par conséquent, les tiers sont le meilleur choix pour faire cela. (Pas grand-chose à dire, je dis juste ce qui me vient à l'esprit.)
Meilleurs
Classement
Favoris