a ideia de matthew sobre um llm privado revela um paradigma maior de llms com garantia de pureza. modelos que podem provar que suas respostas nunca serão contaminadas por dados externos. ---------------------------- a afinação fina não resolve isso, dados externos ainda vazam. executar localmente não resolve isso, os pesos já estão contaminados. apenas "treinar com os dados de matthew" não resolve a menos que matthew esteja fazendo o pré e pós-treinamento ele mesmo. ---------------------------- as aplicações são enormes: > gêmeos digitais de artistas que falam apenas a partir do próprio trabalho e notas do artista > modelos fiéis às escrituras que estão fundamentados exclusivamente em textos sagrados > tutores médicos que são treinados apenas em literatura clínica verificada > arquivos culturais que preservam textos indígenas sem diluição > consultores apenas jurídicos que estão limitados a estatutos e jurisprudência. ----------------------------- o verdadeiro avanço não é a privacidade ou a afinação fina, é a verificabilidade do pipeline de treinamento.