La idea de Matthew de un LLM privado revela un paradigma más grande de LLM de pureza garantizada. modelos que puedan probar sus respuestas nunca serán contaminados por datos externos. ---------------------------- El ajuste fino no resuelve esto, los datos extraños aún se filtran. Correr localmente no resuelve esto, los pesos ya están contaminados. Simplemente "entrenar con los datos de Matthew" no lo resuelve a menos que Matthew esté haciendo un entrenamiento previo y posterior él mismo. La solución es entrenar canalizaciones que emiten certificados criptográficos que cualquier tercero puede verificar, lo que demuestra que el modelo se entrenó solo en el conjunto de datos confirmado. ---------------------------- Las aplicaciones son enormes: > gemelos digitales de artistas que hablan solo del propio trabajo y notas del artista > Escrituras modelos fieles que se basan únicamente en textos sagrados > tutores médicos que están capacitados solo en literatura clínica examinada > archivos culturales que preservan textos indígenas sin dilución > asesores legales que se limitan a estatutos y jurisprudencia. ----------------------------- El verdadero avance no es la privacidad o el ajuste. es la verificabilidad de la canalización de entrenamiento.