Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
In der gesamten Token-Eingabe und -Ausgabe des AI-Codings gibt es eine allgemeine Regel: Je geringer der Anteil des Codes ist, desto besser ist die Qualität des Codes.
Quantitative Veränderungen können qualitative Veränderungen hervorrufen, aber diese Menge muss groß sein, und es geht nicht darum, die Menge des Codes zu erhöhen.
Das Problem vieler Modelle besteht jedoch darin, dass möglicherweise während der Trainingsphase der Anteil des Codes zu hoch ist. Sie neigen dazu, immer weiter in die Richtung des Codes zu gehen, während sie ausgeben.
Wenn wir ihn nicht durch agenten, die mit Schlüsselwörtern konstruiert wurden, oder andere externe Umgebungen unterbrechen, wird er immer weiter schreiben.
Es bedeutet nicht, dass viel Code automatisch falsch ist.
Es geht vielmehr darum, dass der Anteil gesenkt werden muss. Es sollten viele andere textliche Beschreibungen vorhanden sein, um alle Details immer wieder zu klären, immer wieder zu hinterfragen und immer wieder in verschiedenen Ansätzen zu bestimmen, immer wieder zwischen dem Gesamtbild und dem Mikroskopischen zu wechseln und das Problem aus verschiedenen Perspektiven zu betrachten.
Es ist wichtig, Wege zu finden, um Fragen zu stellen, Dokumente zu schreiben, Dateien zu lesen, ihn noch einmal schauen zu lassen oder im Internet nach Referenzen zu suchen. All dies sind reife und effektive Methoden, um den Anteil des Codes zu senken.
Es handelt sich nicht um eine strenge Kausalbeziehung, aber in den meisten Prozessen ist es hochgradig relevant.
Je mehr Inhalte außerhalb des Codes bereitgestellt werden, desto geringer ist der Anteil des Codes, und desto besser wird er oft geschrieben.
So einfach ist das.
Top
Ranking
Favoriten