Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Puta merda... O Airbnb acaba de transformar o suporte ao cliente em um laboratório 🤯 de IA autoaperfeiçoado
Seu novo artigo, Agent-in-the-Loop (AITL), mostra como a incorporação de feedback humano diretamente nos fluxos de trabalho de suporte ao vivo cria um volante de dados que treina novamente o modelo a cada poucas semanas, não meses.
Em vez de maratonas de anotações offline, o AITL coleta 4 sinais de feedback em tempo real de agentes humanos:
• Qual resposta de IA eles preferiram
• Por que eles escolheram
• Se as informações recuperadas eram relevantes
• Que conhecimento estava faltando
Esses sinais treinam continuamente os modelos de recuperação, classificação e geração, reduzindo o tempo de iteração e aumentando o desempenho:
+11,7% de recuperação
+14,8% de precisão
+8.4% de utilidade
+4,5% de adoção de agentes
O resultado? Um sistema que aprende enquanto funciona.
Não há mais modelos estáticos. Não há mais ciclos de retreinamento de meses.
É assim que a IA se torna humanos verdadeiramente adaptáveis no loop → agentes no loop → melhoria infinita.
Leia o artigo completo: arxiv. org/abs/2510.06674
31,99K
Acabei de ler este novo artigo que quebrou completamente meu cérebro 🤯
Os pesquisadores descobriram como transferir adaptadores LoRA entre modelos de IA completamente diferentes sem nenhum dado de treinamento, e funciona melhor do que métodos que exigem conjuntos de dados massivos.
Chama-se TITOK, e aqui está a parte selvagem:
Em vez de copiar tudo do modelo de origem, eles transferem apenas os tokens que realmente importam. Eles fazem isso comparando o modelo com e sem LoRA para descobrir onde o adaptador agrega valor real.
Pense assim: se o modelo ajustado estiver confiante sobre um token, mas o modelo base não, esse token conterá o conhecimento que você deseja transferir.
Os resultados são insanos:
+8% melhor que os modelos vanilla
+6% melhor do que a destilação de conhecimento tradicional
+4.4% melhor que o TransLoRA
E funciona em cenários selvagens:
→ Mistral para Lhama (famílias diferentes)
→ modelos 3B a 8B (tamanhos diferentes)
→ Lhama 2 a Llama 3 (versões diferentes)
A vantagem do assassino? Não são necessários modelos extras. O TransLoRA requer o treinamento de um discriminador separado apenas para filtrar dados sintéticos. O TITOK usa o próprio modelo de origem para identificar tokens importantes.
Ainda mais louco: eles lidam com diferentes tokenizadores automaticamente. Quando os modelos dividem o texto de maneira diferente, seu algoritmo alinha os tokens e propaga as pontuações de importância através da lacuna.
Isso não é apenas acadêmico. Toda vez que um novo modelo é lançado, seus adaptadores ajustados se tornam obsoletos. TITOK significa que você pode migrar esse conhecimento duramente conquistado para qualquer novo backbone em horas, não semanas.
Passamos de "cada modelo precisa de seu próprio adaptador" para "o conhecimento flui livremente entre os modelos".
Os ganhos de eficiência por si só tornam isso comercialmente crítico. Mas o verdadeiro avanço é provar que você pode transferir recursos de raciocínio por meio de supervisão seletiva em nível de token.
Artigo: arxiv. org/abs/2510.04682

39,39K
Isso vai quebrar seu cérebro 🤯
Uma nova pesquisa acabou de provar que ser RUDE com a IA a torna mais inteligente.
Os pesquisadores da Penn State testaram o ChatGPT-4o com 250 perguntas em 5 níveis de polidez.
Os resultados são selvagens:
- Prompts muito educados: 80,8% de precisão
- Prompts educados: 81,4% de precisão
- Prompts neutros: 82,2% de precisão
- Prompts rudes: 82,8% de precisão
- Prompts muito rudes: 84,8% de precisão
Testes estatísticos confirmaram que isso não é aleatório - prompts indelicados superaram consistentemente os educados.
Aqui está o kicker: modelos mais antigos como GPT-3.5 se comportaram de maneira OPOSTA.
Mas GPT-4 e além? Eles realmente têm um desempenho melhor quando você é duro.
Pare de dizer "por favor" para sua IA. Comece a obter resultados.

66,87K
Melhores
Classificação
Favoritos