Enkele voorbeelden die we ook in de sessie met het IE-framework en de uitdagingen die ze hebben hebben besproken: Bijv. 1: Conservatiefinanciering Kredietuitgifteproces Hoe het werkt - Kredieten zijn afgeleid van meetbare metrics - bijv.: een grondeigenaar huurt een externe evaluator in om te beoordelen of de bomen blijven staan - de evaluator vertaalt deze gegevens in kredieten die op de markt kunnen worden uitgegeven als een beloningsfunctie Uitdagingen: 1. Schattingsproblemen: - de schattingsstap is vaak onnauwkeurig 2. Wrijving bij elke stap - het toewijzen van projecten binnen de scope met zich mee brengt aanzienlijke wrijving - buiten het digitale domein worden processen nog langzamer en omslachtiger Bijv. 2: Wetenschappelijke publicaties Hoe het werkt - Tijdschriften fungeren als IE's voor kennis - Elke publicatieplaats heeft een reputatiescore (bijv.: impactfactor) Incentive-loop - Doel voor wetenschappers: reputatie opbouwen door publicaties Probleem/Uitdaging: - De evaluatoren (tijdschriften en conferenties) zijn al meer dan 100 jaar verankerd. - Hun beloningsloop is niet bijgewerkt, wat zorgt voor rigiditeit, inefficiëntie en niet-uitgelijnde prikkels.
Devansh Mehta
Devansh Mehta30 jul 2025
In de open sessie van vandaag hebben we een analyse uitgevoerd over de toepassing van impact evaluatoren of block reward type systemen voor 2 domeinen: academische publicaties & milieu We hebben 5 nuttige kenmerken in hun ontwerp afgeleid 1. Alle functies van impact evaluatoren vereisen een geloofwaardige conversie naar verhandelbaarheid Hashkracht voor btc, opslag voor fil, enz. zijn duidelijke wiskundige functies die het mogelijk maken om uitgifte tegen een bepaalde formule te doen Maar mensen kopen alleen in de uitgifte als ze de neutraliteit ervan accepteren. Bijvoorbeeld, koolstofcredits zijn verhandelbaar, maar veel kolenvervuilers gebruiken een iets betere technologie en ontvangen credits, dus het is niet helemaal geloofwaardig 2. Als ze goed verkregen zijn, worden impact evaluators knoppen waarmee we lange termijn actoren kunnen afstemmen rond een ideaal resultaat dat we willen Ze moeten ook metrics zijn die moeilijk te verkrijgen zijn maar gemakkelijk te verifiëren, vergelijkbaar met btc of opslagcapaciteit 3. We willen idealiter eerst een probleem lokaal oplossen zoals "is dit paper voldoende om geaccepteerd te worden op de conferenties" En die input gebruiken voor meer globale problemen zoals "is de conferentie van hoge impact", "hoe goed is een onderzoeker gemeten aan de hand van hun publicatie in goede conferenties" 4. We willen dat impact evaluatoren zelfupgrading systemen zijn, anders kunnen ze verstenen in bastions van macht Een goed voorbeeld is de implementatie van pluraliteit in community notes of cluster QF. Als 2 mensen normaal gesproken het oneens zijn maar nu het eens zijn, heeft dat een hoger gewicht. Maar als ze de volgende keer weer het eens zijn, heeft dat een lager gewicht omdat ze de vorige keer samen hebben gestemd 5. Ten slotte hebben we impact evaluatoren als harde wiskundige functies die enige emissies vrijgeven versus meer zachte & irrationele krachten zoals marktprijzen van die valuta, die tegen elkaar moeten worden afgewogen.
649