Matthews idé om en privat LLM avslöjar ett större paradigm av renhetsgaranterade LLM. Modeller som kan bevisa sina svar kommer aldrig att kontamineras av externa data. ---------------------------- Finjustering löser inte detta, utländska data läcker fortfarande. Att springa lokalt löser inte detta, vikterna är redan förorenade. Bara "träna på Matthews data" löser det inte om inte Matthew gör för- och efterträning själv. Lösningen är träningspipelines som utfärdar kryptografiska certifikat som alla tredje parter kan verifiera, vilket bevisar att modellen endast har tränats på den allokerade datauppsättningen. ---------------------------- Användningsområdena är enorma: > digitala tvillingar för konstnärer som endast talar utifrån konstnärens egna verk och anteckningar > trogna förebilder i skrifterna som är grundade enbart i heliga texter > medicinska handledare som endast är utbildade på granskad klinisk litteratur > kulturella arkiv som bevarar urfolkens texter utan urvattning > rådgivare som endast är juridiska och som är begränsade till lagar och rättspraxis. ----------------------------- Det verkliga genombrottet är inte integritet eller finjustering. Det är verifierbarheten av träningspipelinen.