Codex war in den letzten Tagen praktisch unbrauchbar für die Entwicklung von HVM-in-C. Ich denke, es liegt höchstwahrscheinlich daran, dass der Code zu groß geworden ist, und jetzt kann es seine Aufgabe nicht mehr erfüllen, ohne den Kontext zu überfordern. Jede kleine Anfrage, die ich stelle, führt dazu, dass es 10 Minuten damit verbringt, das Repository zu verstehen, und wenn es fertig ist, schreibt es einfach schlechten Code, der überhaupt nicht verwendbar ist. Ich wechsle jetzt entweder zurück zum direkten Programmieren oder sammle die Kontexte manuell, gebe präzise Anweisungen und rufe das Modell direkt auf. Mühsam, aber ab einem bestimmten Punkt ist es einfach schneller und effektiver. GPT-5 ist nicht immun gegen Kontextverfall. Ich denke, wer dieses Problem zuerst "für immer" löst, wird ein neues Niveau an praktischer Nützlichkeit erreichen...