Heute bin ich auf eine gut geschriebene Reihe von Blogbeiträgen von @Cloudflare gestoßen, die ihre Arbeit an Pay-per-Crawl mit HTTP 402 und Web-Bot-Auth vorstellen, zusammen mit einem coolen Dashboard über die Crawling-Aktionen verschiedener Bots. Aus den Beiträgen wird deutlich, dass Cloudflare an eine Welt glaubt, in der Nutzer ein Budget an die authentifizierten Agenten vergeben, die die robot.txt respektieren, und diese Agenten zahlen in USD für jeden Crawl an die Inhaltsanbieter. Ihr Modell zu "signierten Agenten" verpasst jedoch das entscheidende Element: Nutzer übernehmen ein Gegenparteirisiko, wann immer sie Budget an Agenten delegieren. Der Weg, dieses Gegenparteirisiko zu beseitigen, besteht darin, Agenten verifizierbar zu machen. Mit anderen Worten, Agenten sollten sich verpflichten, die vom Nutzer festgelegten Richtlinien zur Budgetnutzung zu befolgen, die durch hinterlegtes Sicherheitenkapital des Betreibers des Agenten abgesichert sind. Wenn ein Agent die Regeln bricht, wird sein Einsatz gekürzt. Und genau hier verpasst die Debatte zwischen @Cloudflare und @perplexity_ai den Punkt. Die Verteidigung von Perplexity beruht auf der Idee, dass Agenten einfach Erweiterungen von Menschen sind. Aber wenn Agenten mit Budgets betraut werden, ist das eigentliche Problem nicht, ob sie wie Menschen aussehen, sondern ob sie vertrauenswürdig sind, unter verifizierbaren Einschränkungen zu handeln. Sobald Agenten souverän werden, das heißt, autonome Entitäten im Cyberspace, die Werte schaffen, Gebühren verdienen und auf souveräne Weise für Infrastruktur bezahlen, wird Pay-per-Crawl mit menschlichen Nutzern, die verifizierbare Verantwortung von souveränen Agenten erhalten, nicht nur eine interessante Idee sein. Es wird eine Notwendigkeit sein, vielleicht sogar ein Sprungbrett zur Singularität.
3,44K