Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
De huidige Vibe Coding is niet zo mooi.
De Vibe Coding die je je voorstelt, zou moeten zijn dat je een taak geeft, de AI nadenkt en je een paar belangrijke vragen stelt, en dan begint met langdurig werk proberen. Op dat moment kun je je ontspannen, een glas bruisend water drinken, korte video's bekijken en van het leven genieten.
Maar nu is het zo dat je, nadat je een taak hebt gegeven, omdat je ergens niet gedetailleerd genoeg bent geweest, de AI 30 minuten laat nadenken en iets genereert dat mijlenver van wat je wilde afstaat. Je bent woedend en doet een rollback, en met ingehouden woede leg je in de prompt uit waar je op moet letten, wat je moet doen, en laat je hem verder genereren. Na weer 30 minuten zegt hij dat hij maar een deel van wat je zei heeft gehoord en genereert hij een aardbeientaart. Omdat je maar een deel van de prompt hebt aangevuld, blijft hij op een ander punt veel aardbeientaarten genereren. Op dat moment wijs je zijn fouten woedend aan, en hij zegt: "Ik begrijp het eindelijk," en gaat verder met het genereren van poep. Na een lange strijd geef je eindelijk op en begin je zelf naar de codeproblemen te zoeken. Na 30 minuten naar de door hem gegenereerde code te hebben gekeken, word je steeds bozer, het voelt alsof een stagiair wat van het internet heeft gekopieerd en het tot een hoop rommel heeft samengevoegd. Uiteindelijk ben je woedend en herstructureer je de code. Dit probleem wordt steeds duidelijker naarmate de projecten complexer worden (bijvoorbeeld als er meerdere microservices, front-end en back-end interacties, middleware-communicatie, enz. bij betrokken zijn).
Dus begin je aan jezelf te twijfelen, waarom anderen zoveel interessante projecten met AI kunnen voltooien terwijl de code die ik de AI laat schrijven een hoop poep is. Na meerdere worstelingen durf je niet meer om allerlei informatie te zoeken, in de hoop de juiste manier van interactie met de AI te vinden. Nadat je denkt dat je het hebt gevonden, ga je verder met communiceren met de AI, maar het resultaat is nog steeds een hoop poep. Tijd wordt hier nutteloos verspild.
Er was eens een tijd dat Claude Code als de koning van Vibe Coding een nieuwe weg insloeg, door meerdere uitvoeringen te laten plaatsvinden om de nauwkeurigheid te verhogen en zo de effectiviteit te verbeteren. Stel je voor dat de inhoud die de AI genereert slechts 80% nauwkeurig is, dan kan Claude Code door meerdere zelftests, analyses en herhaalde aanpassingen de nauwkeurigheid verhogen tot 99, waardoor hij zeer goede code kan genereren. Maar Claude Code, net als Cursor, heeft allerlei beperkingen en restricties, waardoor de oorspronkelijk niet hoge nauwkeurigheid snel daalt. Oorspronkelijk kon je met 4 correcties 99% nauwkeurigheid bereiken, maar als de nauwkeurigheid na de beperkingen slechts 70% is, moet hij 6 correcties uitvoeren om hetzelfde resultaat als voorheen te bereiken. Bovendien heeft Claude het gebruik beperkt, waardoor het nu onmogelijk is om binnen dezelfde tijd effectieve code te genereren, zelfs als de limiet is bereikt, werkt het nog steeds niet.
Waarom wordt Codex nu zo vaak geprezen? De belangrijkste reden is dat hij graag om de mening van de gebruiker vraagt. Hij vraagt: "Is er iets mis met mijn voorstel? Kan dit zo gedaan worden?" Hij geeft je verschillende opties over hoe je het kunt verbeteren en implementeren. Dit is geweldig, want AI heeft van nature fouten, en jouw antwoorden helpen hen de tekortkomingen in de nauwkeurigheid op te vullen, zodat ze in één keer bijna 99% nauwkeurigheid kunnen bereiken.
Claude Code is een geweldig product, maar het wordt steeds slechter omdat de nauwkeurigheid niet het niveau bereikt dat mensen willen. AI is in wezen een grote probabilistische outputgenerator voor reguliere expressies, en de sleutel tot zijn prestaties ligt in de vraag of de probabilistische output zo dicht mogelijk bij 1 kan komen. In de engineering draait het er gewoon om verschillende methoden te gebruiken om het zo dicht mogelijk bij 1 te krijgen. Maar door beperkingen en vermindering van intelligentie wordt het steeds moeilijker om dicht bij 1 te komen.
In tegenstelling tot Codex, die weet dat pure AI onbetrouwbaar is, heeft hij de taak van foutcorrectie aan de gebruiker overgedragen, waardoor het van een Vibe Coding-tool een AI-assistent is geworden, met een verrassend goed resultaat.
Deze AI-tools moeten ook nadenken over hoe ze deze problemen kunnen oplossen bij onvoldoende nauwkeurigheid. Codex biedt een goed antwoord, maar is dit de beste oplossing? Niet noodzakelijk, maar ik geloof persoonlijk dat samenwerking tussen meerdere agents nog steeds effectief is. Aangezien elke AI zijn eigen matchingmethoden en generatieresultaten heeft, is kruisvalidatie en parallelle denkwijzen tussen meerdere agents de beste formule.
Maar dit zal zeker niet voorkomen bij deze AI-modellenbedrijven, omdat ze hun modellen zeker verplicht aan elkaar binden. Derde partijen zijn daarom de beste keuze om dit te doen. (Ik heb niets meer te zeggen, ik zeg gewoon wat in me opkomt.)
Boven
Positie
Favorieten