Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hoje em dia, o Vibe Coding não é tão maravilhoso assim.
O Vibe Coding que imaginamos deveria ser assim: você dá uma tarefa, a IA pensa e depois faz algumas perguntas-chave, e então começa a trabalhar por um longo período. Nesse momento, você pode desacelerar, tomar um copo de água com gás, assistir a vídeos curtos e aproveitar a vida.
Mas agora, após você dar uma tarefa, por não ter explicado um detalhe, a IA passa 30 minutos pensando e gera algo que está a milhas de distância do que você queria. Você, furioso, faz um rollback e, contendo a raiva, explica na prompt o que precisa ser observado, como deve ser feito, e então a deixa continuar gerando por mais 30 minutos. O resultado? Ela só ouviu uma parte do que você disse e continua gerando um bolo de morango. Como você só complementou uma parte da prompt, em outro lugar ela continua gerando muitos bolos de morango. Nesse momento, você, em fúria, aponta o erro dela, e ela diz: "Finalmente entendi!" e continua gerando cocô. Após uma longa batalha, você finalmente desiste e começa a procurar os problemas no código, gastando 30 minutos vendo o código gerado e ficando cada vez mais irritado, como se um estagiário tivesse copiado um pouco de cada lugar e montado uma bagunça. Por fim, você, furioso, refaz o código. Essa situação é ainda mais evidente em projetos mais complexos (como aqueles que envolvem múltimos microserviços, interações entre front-end e back-end, comunicação de middleware, etc.).
Então você começa a duvidar de si mesmo, por que os outros conseguem usar a IA para completar tantos projetos interessantes enquanto o código que você faz a IA gerar é uma bagunça. Após várias lutas, você se atreve a pesquisar várias informações, esperando encontrar a maneira correta de interagir com a IA, e quando acha que encontrou, continua a se comunicar com a IA, mas o que ela gera ainda é uma porcaria. O tempo é desperdiçado nisso.
Houve um tempo em que o Claude Code, como o rei do Vibe Coding, abriu um novo caminho, na verdade, aumentando a taxa de acerto através de múltiplas execuções para melhorar os resultados. Supondo que o conteúdo gerado pela IA tenha apenas 80% de taxa de acerto, o Claude Code, através de múltiplos testes, análises e revisões, consegue aumentar a taxa de acerto para 99, gerando assim um código muito bom. Mas o Claude Code, assim como o Cursor, sofre várias limitações e restrições, fazendo com que a taxa de acerto, que antes não era alta, caia rapidamente. Originalmente, com 4 correções, poderia alcançar 99% de taxa de acerto, mas após as limitações, se a taxa de acerto cair para 70%, para alcançar o mesmo resultado anterior de 4 correções, ele precisaria de 6 correções. Além disso, o Claude limitou o uso, resultando em uma incapacidade de gerar código eficaz no mesmo período de tempo, mesmo que a limitação fosse atingida.
E agora, por que o Codex é frequentemente elogiado? A principal razão é que ele gosta de perguntar a opinião dos usuários, ele pergunta se meu plano tem problemas? Pode ser feito assim? Ele oferece várias opções sobre como melhorar e implementar. Isso é ótimo, porque a IA comete erros, e na verdade, suas respostas ajudam a preencher a lacuna da taxa de acerto, permitindo que ela gere algo próximo de 99% de acerto de uma só vez.
O Claude Code é um bom produto, mas está se tornando cada vez pior, pois a taxa de acerto não atinge a altura que as pessoas desejam. A IA é, na verdade, um grande gerador de correspondência de regex probabilístico, e a chave para seu desempenho é se a saída probabilística pode se aproximar de 1. Na engenharia, tudo se resume a usar várias soluções para fazer com que ela se aproxime de 1. Mas a limitação e a redução de inteligência tornam isso cada vez mais difícil.
Por outro lado, o Codex sabe que a IA pura não é confiável, então delega a tarefa de correção ao usuário, transformando-se de uma ferramenta de Vibe Coding em um assistente de IA, e o resultado acaba sendo muito bom.
Essas ferramentas de IA também precisam pensar sobre como resolver esses problemas quando a taxa de acerto é insuficiente. A resposta do Codex é muito boa, mas será essa a solução ideal? Não necessariamente, mas eu pessoalmente acredito que a colaboração entre múltiplos agentes ainda é eficaz. Já que cada IA tem seu próprio método de correspondência e geração de resultados, a validação cruzada entre múltiplos agentes e o pensamento paralelo é a melhor fórmula.
No entanto, isso certamente não pode acontecer nessas empresas de modelos de IA, pois elas certamente vinculam seus próprios modelos, portanto, terceiros são a melhor escolha para fazer isso. (Sem mais o que dizer, pensei em algo e disse.)
Top
Classificação
Favoritos