Apenas estamos rascando la superficie en las evaluaciones. La gran mayoría de las tareas de los trabajadores del conocimiento no están capturadas en los benchmarks más populares de hoy en día. Si bien la calidad de las capacidades a menudo se puede extrapolar de las evaluaciones de codificación y matemáticas existentes, estas no representan completamente la complejidad de estas tareas del mundo real. Pronto entraremos en una era donde buscar trabajo en servicios legales, financieros, manufactura, contabilidad, consultoría, y muchos otros campos de alto valor será tan apreciado como la codificación.
will depue
will depue5 sept, 07:02
a menudo, la capacidad de los investigadores para iterar sobre una capacidad está limitada por nuestra capacidad para medir esa capacidad. Creo que el progreso está más limitado por la evaluación de lo que la gente piensa. A veces, las evaluaciones parecen causales. ¿Siguió SWE-Bench la codificación agentiva, o siguió la codificación agentiva a SWE-Bench? A menudo escuchamos sobre la resolución de tareas de muy largo plazo (semanas, meses), o que se necesita aprendizaje continuo para AGI, etc. Sin embargo, ¿dónde están las evaluaciones para probar las deficiencias de nuestros modelos aquí? Me encantaría que más personas trabajaran en evaluaciones completas de AGI, evaluaciones que realmente rastreen el valor económico y el impacto, tareas de un mes, etc.
4,68K