Hoje me deparei com um conjunto bem escrito de postagens de blog de @Cloudflare que apresenta seu trabalho sobre pay-per-crawl usando http 402 e autenticação de bot da web, junto com um painel legal sobre ações de rastreamento de vários bots. Fica claro nas postagens sobre a crença da Cloudflare em um mundo onde os usuários darão um orçamento aos agentes autenticados que respeitam robot.txt e esses agentes pagam em dólares americanos por cada rastreamento para os editores de conteúdo. No entanto, seu modelo de "agente assinado" perde a parte crítica: os usuários assumem o risco de contraparte sempre que delegam orçamento aos agentes. A maneira de remover esse risco de contraparte é tornar os agentes verificáveis, em outras palavras, os agentes devem se comprometer a seguir as diretrizes especificadas pelo usuário sobre o uso do orçamento que é apoiado por garantias apostadas do operador do agente. Se o agente quebrar as regras, sua participação será reduzida. E este é exatamente o ponto que @Cloudflare - @perplexity_ai debate perde. A defesa de Perplexity repousa na ideia de que os agentes são simplesmente extensões dos humanos. Mas se os agentes são encarregados de orçamentos, a verdadeira questão não é se eles se parecem com humanos, é se eles podem ser confiáveis para agir sob restrições verificáveis. Uma vez que os agentes se tornem soberanos, ou seja, entidades autônomas no ciberespaço que criam valor, ganham taxas e pagam pela infraestrutura de maneira soberana, o pagamento por rastreamento com usuários humanos obtendo responsabilidade verificável de agentes soberanos não será apenas uma ideia interessante. Será uma necessidade, talvez até um trampolim para a singularidade.
3,45K