Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
l'idée de matthew d'un llm privé révèle un plus grand paradigme de llms garantis en pureté.
des modèles qui peuvent prouver que leurs réponses ne seront jamais contaminées par des données externes.
----------------------------
le fine-tuning ne résout pas ce problème, des données étrangères fuient toujours.
fonctionner localement ne résout pas ce problème, les poids sont déjà contaminés.
juste "entraîner sur les données de matthew" ne le résout pas à moins que matthew ne fasse lui-même l'entraînement pré et post.
la solution est des pipelines d'entraînement qui émettent des certificats cryptographiques que n'importe quel tiers peut vérifier, prouvant que le modèle a été entraîné uniquement sur l'ensemble de données engagé.
----------------------------
les applications sont énormes :
> des jumeaux numériques d'artistes qui parlent uniquement à partir du propre travail et des notes de l'artiste
> des modèles fidèles aux écritures qui sont ancrés uniquement dans des textes sacrés
> des tuteurs médicaux qui sont formés uniquement sur des littératures cliniques vérifiées
> des archives culturelles qui préservent des textes autochtones sans dilution
> des conseillers uniquement juridiques qui sont limités aux lois et à la jurisprudence.
-----------------------------
la véritable percée n'est pas la confidentialité ou le fine-tuning.
c'est la vérifiabilité du pipeline d'entraînement.
Meilleurs
Classement
Favoris