Matthews idé om en privat LLM avslører et større paradigme av renhetsgaranterte LLM-er. Modeller som kan bevise svarene deres vil aldri bli forurenset av data utenfra. ---------------------------- Finjustering løser ikke dette, utenlandske data lekker fortsatt. Å løpe lokalt løser ikke dette, vektene er allerede forurenset. Bare "tren på Matthews data" løser det ikke med mindre Matthew gjør før og etter trening selv. Løsningen er opplæring av pipelines som utsteder kryptografiske sertifikater som enhver tredjepart kan verifisere, noe som beviser at modellen bare ble trent på det forpliktede datasettet. ---------------------------- Bruksområdene er enorme: > kunstnerens digitale tvillinger som bare snakker fra kunstnerens eget arbeid og notater > trofaste forbilder i Skriftene som utelukkende er forankret i hellige tekster > medisinske veiledere som kun er opplært på kontrollert klinisk litteratur > kulturarkiv som bevarer urfolkstekster uten utvanning > juridiske rådgivere som er begrenset til vedtekter og rettspraksis. ----------------------------- Det virkelige gjennombruddet er ikke personvern eller finjustering. det er verifiserbarhet av opplæringspipelinen.