LLM-optimering, ett vanligt trick är komprimering, med två motsatta operationsvägar. 1. Komprimera indata, vilket är vanligt i flaggskeppsmodeller, och ersätt beskrivningen med ett koncept. Li Jigangs "uppmaning på gudsnivå" är en förebild, och "Oscar Wilde", "Lu Xun" och "Lin Yutang" ersätter skrivstilen; Svårigheten ligger i den abstrakta förståelsen och ackumuleringen av begrepp, och det kräver upprepade försök och dålig anpassning mellan modeller. 2. Komprimera utdata för alla modeller, särskilt agentiska produkter, och ersätt medlet med exakt inkapslade verktyg för att utföra uppgiften helt. Svårigheten ligger i valet av verktyg, för få kommer inte att ha någon effekt, för mycket kommer att uppta uppmärksamheten, vilket leder till försämring av effekten och testar designfilosofin;
9,53K