Før Kalshi jobbet jeg i et kjent mainstream nyhetsselskap. Rollen min sentrerte seg om datadrevet historiefortelling (oversette data fra kilde til skjerm). Jeg føler meg kvalifisert til å gi mitt syn på hvordan prediksjonsmarkeder demokratiserer datainnsamling ved å fikse dataforsinkelsesproblemet. Introduksjon I min siste rolle innså jeg hvordan tradisjonell datainnsamling kommer med en fatal feil: etterslep. Datasett reagerer sakte på raske endringer. Data samles inn i vilkårlig lange perioder på uker og år. 1. Det tar en måned før en jobb- eller inflasjonsrapport løser seg til et tall. 2. Det tar en sesong eller et år å måle kumulative værmønstre. 3. Det tar en dag å vurdere hvordan markedet fordøyer en nyhet. Tilfeller av etterslep skaper lommer av ineffektivitet, og forårsaker til slutt tap for nedstrømsaktører: 1. En sjokkinflasjonsrapport ødelegger 401K. 2. En bønneteller i en delstat i Midtvesten øker boligforsikringspremiene dine fordi du nå er i en flomsone. 3. Asymmetrisk informasjon om en legemiddelutprøving tanker et lager. (Jeg kan liste opp 50 til, men du skjønner ideen) Hvordan prediksjonsmarkeder adresserer etterslep Prediksjonsmarkeder gjør taggete, sakte-til-ankomme datasett til en levende sannsynlighetsstrøm. I stedet for å vente på neste trinn på en hakkete trapp, får du en jevn kurve som oppdateres i sanntid. En slik kilde til sannhet gjør aktuarielle, økonomiske og sosiale modeller bedre ved å komprimere tapsfunksjonen til et forskjøvet datamedium som tar vilkårlig lang tid å nette ut. Men trenger du ikke data for at PM-er skal fungere effektivt? Ja! Selvfølgelig. Uten støttedata er prediksjonsmarkeder bare Magic Eight Balls. Datainnsamling vil alltid eksistere – men prediksjonsmarkeder absorberer implisitt disse dataene på en dollarstøttet måte. 1. Prediksjonsmarkeder er dataaggregatorer, og vil forkjempe synspunktene til nøyaktige, objektive og aktuelle kilder. 2. De tar hensyn til harde data og myke signaler i sanntid. 3. Det effektive markedet belønner deltakere for å korrigere odds som er feil. Skaper deltakerprofilen skjevhet? Noe, men ikke helt. Profilen til hvem som deltar har betydning, men utformingen av prediksjonsmarkeder har en tendens til å korrigere skjevheter på måter som gjør dem uvanlig robuste sammenlignet med de fleste datainnsamlingssystemer. 1. Utfallstilknytning reduserer drift. Alle markeder løser seg til slutt, og deltakerne belønnes for å gi avkall på skjevheter. Over tid søker deltakerne å normalisere skjevheten sin for å maksimere personlige resultater. 2. Fordommer blir bevæpnet. Hvis en partisk kohort av deltakere får oddsene til å drive, vil en annen kohort bli oppmuntret til å tvangsprise markedet. 3. Et effektivt marked består av mange transaksjoner fra heterogene deltakere. Som et aksjemarked tilbyr detaljhandel, eksperter, hedgefond, etc. alle sin egen fordel som er satt sammen til riktig prising av et marked. Nettoeffekt: Bias eksisterer på individnivå, men prises kontinuerlig ut på systemnivå. Prediksjonsmarkeder forvandler støyen fra individuell overbevisning til en jevnere, mer nøyaktig sannsynlighetskurve som overgår haltende, endimensjonale datasett. Hvem bryr seg? Det er et ekteskap mellom data og prediksjonsmarkeder. Det ene kan ikke eksistere uten det andre. Gjennom ulike mekanismer for riktig prising etablerer prediksjonsmarkeder en kontinuerlig sannsynlighetskurve som reduserer støy, komprimerer tap fra laggy data og gir et bedre "slutttall" for modellering. Resultater i den kontinuerlige virkelige verden kan nå forankres i mer effektive beregninger. I et virkelig scenario betyr dette å referere til prediksjonsmarkedsresultater direkte i modeller, nyhetsartikler, analyser og mer. Og dette har bare begynt med adopsjon fra market makers, nyhetsselskaper og dataplattformer. TLDR Data kommer vanligvis i vilkårlige intervaller. Prediksjonsmarkeder har forskjellige måter å komprimere tap mellom disse intervallene på. Du kan bruke denne mekanismen for riktig prissetting for nyttige applikasjoner i den virkelige verden. Du er fortsatt tidlig.
36,73K