Matthews idé om en privat LLM avslører et større paradigme av renhetsgaranterte LLM-er. Modeller som kan bevise svarene deres vil aldri bli forurenset av data utenfra. ---------------------------- Finjustering løser ikke dette, utenlandske data lekker fortsatt. Å løpe lokalt løser ikke dette, vektene er allerede forurenset. Bare "tren på Matthews data" løser det ikke med mindre Matthew gjør før- og ettertrening selv. ---------------------------- Bruksområdene er enorme: > kunstnerens digitale tvillinger som bare snakker fra kunstnerens eget arbeid og notater > trofaste forbilder i Skriftene som utelukkende er forankret i hellige tekster > medisinske veiledere som kun er opplært på kontrollert klinisk litteratur > kulturarkiv som bevarer urfolkstekster uten utvanning > juridiske rådgivere som er begrenset til vedtekter og rettspraksis. ----------------------------- Det virkelige gjennombruddet er ikke personvern eller finjustering, det er verifiserbarhet av opplæringspipelinen.