Vibe Coding är inte så bra nuförtiden. Den imaginära Vibe Coding bör vara att du ger en uppgift, AI:n tänker och ställer några viktiga frågor till dig och sedan börjar arbeta under lång tid, då du kan sakta ner, dricka ett glas kolsyrad läsk, titta på en kort video och njuta av livet. Och nu, efter att du gav en uppgift, eftersom du inte förklarade den i detalj för honom på en viss plats, så tänkte han i 30 minuter och genererade en sak som skilde sig 108 000 mil från vad du ville ha, du var arg och rullade tillbaka, och sedan höll du tillbaka din ilska och förklarade för honom i prompten att du måste vara uppmärksam på den här delen, vad som borde göras, och sedan låta honom fortsätta att generera i 30 minuter, men han lyssnade bara på en del av vad han sa till dig, och fortsatte sedan att generera ett jordgubbstorn. Samtidigt, eftersom du bara lade till en del av uppmaningen, fortsatte han att generera en massa jordgubbstorn på ett annat ställe, vid den här tiden påpekade du ilsket hans misstag, och sedan sa han: Jag förstod äntligen, och fortsatte sedan att generera baba. Efter en lång kamp gav du till slut upp och började leta efter kodproblem på egen hand, och tillbringade 30 minuter med att titta på koden han genererade, desto argare blev han, och det kändes som en praktikant som kopierade lite från Internet och pusslade ihop en bit skräp. Till slut gjorde du ilsket om koden. Detta är mer uppenbart i mer komplexa projekt (t.ex. som involverar flera mikrotjänster, front-end- och back-end-interaktioner, middleware-kommunikation etc.). Så du börjar undra varför andra kan använda AI för att slutföra så många intressanta projekt medan du låter AI skriva kod i en enda röra. Efter många kamper vågade han inte fråga om olika information, i hopp om att hitta rätt sätt att interagera med AI:n, och fortsatte sedan att kommunicera med AI:n efter att ha trott att han hade hittat den, men det han genererade var fortfarande en bajsklump. Det är slöseri med tid på detta. En gång i tiden banade Claude Code väg för en ny era som kungen av Vibe Coding, och förbättrade faktiskt effekten genom att öka noggrannheten genom flera avrättningar. Om man antar att det AI-genererade innehållet bara är 80 % korrekt, kan Claude Code generera mycket bra kod genom att öka noggrannhetsgraden till 99 genom flera självtester, analyser och upprepade modifieringar. Men Claude Code lär sig samma sak som Cursor, alla typer av intelligensminskning, begränsningar, vilket resulterar i en snabb minskning av den ursprungligen låga noggrannhetsgraden, de ursprungliga 4 korrigeringarna kan nå 99% noggrannhet, om den korrekta hastigheten efter visdomsminskningen är bara 70%, om samma vill uppnå effekten av de föregående 4 gångerna, då måste han göra 6 korrigeringar. Dessutom har Claude infört en begränsning av användningen, vilket resulterar i att det nu är omöjligt att generera giltig kod på samma tid, även om gränsen nås. Och varför hyllas Codex så ofta nu? Den främsta anledningen är att han gillar att fråga användarens åsikt, kommer han att fråga om det finns ett problem med min lösning? Kan du göra detta kommer jag att ge dig flera uppsättningar planer för hur du kan förbättra dig och hur du uppnår det. Detta är bra eftersom AI i sig har fel, och i själva verket hjälper ditt svar dem att fylla i problemet med otillräcklig noggrannhetsgrad, så att den kan uppnå en noggrannhetsgrad på nästan 99 % på en generation. Claude Code är en bra produkt, men den blir sämre och sämre eftersom noggrannhetsgraden inte är på den höjd som folk vill ha, AI är ursprungligen en stor vanlig matchande sannolikhetsutgång, nyckeln till att bestämma dess prestanda är om sannolikhetsutmatningen kan vara så nära 1 som möjligt, och tekniken är bara att använda olika scheman för att låta honom fixa nära 1 många gånger. Men visdomsreduktionen + gränsen gör det svårare och svårare för honom att komma nära 1. Å andra sidan visste Codex att ren AI var opålitlig, så han lämnade över uppgiften att korrigera fel till användaren och bytte från ett Vibe Coding-verktyg till en AI-assistent, och resultaten var mycket bra. Dessa AI-verktyg måste också tänka på hur man ska lösa dessa problem när noggrannheten är otillräcklig och svaret som ges av Codex är mycket bra, men är detta den optimala lösningen? Inte nödvändigtvis, men jag tror personligen att samarbete mellan flera agenter fortfarande är effektivt, eftersom varje AI har sin egen matchningsmetod, som genererar resultat, korsverifiering mellan flera agenter och parallellt tänkande är den bästa ekvationen. Detta kommer dock definitivt inte att hända med dessa AI-modellföretag, eftersom de definitivt kommer att tvinga sina egna modeller att bindas, så en tredje part är det bästa valet för att göra detta. (Jag har inget att säga, vad tänker jag på och vad ska jag säga)