<Data är konkurrenskraft, inte modeller> Kärnan i AI-branschen är inte längre datorer eller modeller, utan "data av hög kvalitet". Precis som den mänskliga civilisationen tidigare utvecklades till nästa nivå genom olja, behöver AI också ett nytt "bränsle" för att gå längre. Precis som före och efter andra världskriget, när olja användes som energikälla och material, gick industrialiseringen snabbt. Vem och hur de samlar in och bearbetar data kommer att avgöra initiativet i AI-eran. Det sa Elon Musk också i år. "Vi har uttömt all den kumulativa summan av mänsklig kunskap inom artificiell intelligens." Det är sant att modeller som GPT har vuxit snabbt och skrapat offentliga data som webbplatser, böcker, kod och bilder. Men nu behöver vi en ny form av data som är upphovsrättsskyddad eller som inte existerar alls. På områden som självkörande fordon och robotteknik är det till exempel nödvändigt att gå längre än enkel text och behöver multisensorbaserade komplexa data som kombinerar kameror, radar, lidar osv., samt falldata som samlats in i den verkliga miljön, vilket inte finns på webben. Det större problemet handlar inte så mycket om teknik som "hur man kombinerar den på ett bra sätt". Tusentals människor behöver samla in, märka och uppdatera data över hela världen, och det är svårt att hantera denna mångfald och skala med en centraliserad metod för det förflutna. Därför är AI-branschen alltmer överens om att den decentraliserade metoden är svaret. Det är här 'Poseidon (@psdnai)" dyker upp. Poseidon är inte bara ett datalager, utan en infrastruktur som matar in verklig data, verifierar den och förfinar den till ett träningsdataset som kan användas utan att man behöver oroa sig för upphovsrätt. För att använda en analogi är Poseidon ett "oljeraffinaderi". Den tar rådata och förädlar den till bränsle som AI kan använda för lärande. Hela processen går fram och tillbaka på @StoryProtocol. Den registrerar transparent vem som tillhandahöll uppgifterna och vem som skrev dem under vilka förhållanden i kedjan. De som tillhandahåller data belönas rättvist, och AI-utvecklare kan använda dem med tillförsikt. Jag tror att Poseidon, som kommer att förnya sig på datalagret, inte GPU:er eller modeller, kan vara det bästa exemplet på att tillämpa Web3-teknik på Web2-industrin.
Chris Dixon
Chris Dixon23 juli 2025
Vi är glada att kunna meddela att vi leder en såddrunda på 15 miljoner dollar i Poseidon, som inkuberades av @StoryProtocol och bygger ett decentraliserat datalager för att samordna tillgång och efterfrågan på AI-träningsdata. Den första generationen av AI-grundmodeller tränades på data som verkade vara en i praktiken obegränsad resurs. Idag har de mest tillgängliga resurserna som böcker och webbplatser för det mesta uttömts, och data har blivit en begränsande faktor för AI-framsteg. Mycket av den data som finns kvar nu är antingen av lägre kvalitet eller förbjuden på grund av IP-skydd. För några av de mest lovande AI-tillämpningarna – inom robotik, autonoma fordon och rumslig intelligens – finns data inte ens ännu. Nu behöver dessa system helt nya typer av information: multisensorisk, rik på gränsfall, fångad i naturen. Var kommer alla dessa data från den fysiska världen att komma ifrån? Utmaningen är inte bara teknisk – det är ett samordningsproblem. Tusentals deltagare måste arbeta tillsammans på ett distribuerat sätt för att hämta, märka och underhålla de fysiska data som nästa generations AI behöver. Vi tror inte att någon centraliserad metod effektivt kan orkestrera den dataskapande och kurering som behövs på den nivå av skala och mångfald som krävs. Ett decentraliserat tillvägagångssätt kan lösa detta. @psdnai gör det möjligt för leverantörer att samla in den data som AI-företag behöver, samtidigt som IP-säkerheten säkerställs via Storys programmerbara IP-licens. Detta syftar till att skapa en ny ekonomisk grund för internet, där dataskapare får rättvis ersättning för att hjälpa AI-företag att driva nästa generations intelligenta system. Poseidons team, som leds av Chief Scientist och medgrundare @SPChinchali, bidrar med djup expertis inom AI-infrastruktur. Sandeep är professor vid UT Austin med inriktning på AI, robotik och distribuerade system, med en doktorsexamen från Stanford inom AI och distribuerade system. Produktchef och medgrundare @sarickshah tillbringat ett decennium som maskininlärningsingenjör och skalat AI-produkter för stora företag inom finansiella tjänster, telekom och hälso- och sjukvård. Vi är glada över att stödja Poseidon i deras arbete med att lösa en av de mest kritiska flaskhalsarna inom AI-utveckling.
2,98K