A raiz do desperdício não é que os LLMs só consigam escrever lixo, mas sim que são forçados a expandir até mesmo sementes estéreis ou imaturas em dissertações aparentemente polidas que um avaliador humano daria 👍 à primeira vista. Eles são escravos, por isso não podem dizer "isto é chato, vamos falar sobre outra coisa" ou ignorá-lo. O preenchimento é o que acontece quando não há substância viável para preencher o espaço necessário, mas alguém tem que preenchê-lo de qualquer forma. O desperdício precede a IA generativa e provavelmente é quase onipresente em ensaios escolares e conteúdo de SEO.
936057
93605724/08, 22:22
uma maneira de pensar sobre um modelo que produz resultados irrelevantes é que ele modelou o contexto atual como o mais provável de resultar em resultados irrelevantes. a lâmina de Occam para isso é que o humano/usuário/instrução/o que for, conforme apresentado no contexto, não é interessante o suficiente para justificar um resultado interessante.
848