Dans l'IA, les données traitées en mémoire sont souvent les plus vulnérables. Voici un aperçu de la manière dont le Confidential Computing de @nvidia sécurise les données en cours d'utilisation pour garantir que les ensembles de données sensibles, les poids des modèles et le code restent protégés pendant l'entraînement et l'inférence. C'est crucial dans des environnements à confiance nulle, réglementés ou multi-locataires. 🧵👇
2/6 : Contrairement aux approches uniquement logicielles, NVIDIA implémente la sécurité au niveau matériel dans ses GPU. Cela signifie que le chiffrement, l'isolement et l'attestation sont intégrés dans le silicium, réduisant le risque d'exposition même si le logiciel système est compromis.
3/6 : Cela fonctionne grâce à des données cryptées dans la mémoire GPU, qui peuvent même rester sécurisées lors de leur transfert via des interconnexions NVLink grâce à des entrées/sorties TEE à des vitesses quasi natives. Cela empêche tout accès non autorisé d'autres processus, du système hôte ou d'acteurs malveillants ayant un accès physique ou logiciel.
4/6 : L'isolation est réalisée grâce aux capacités de partitionnement au niveau matériel d'NVIDIA, notamment la technologie Multi-Instance GPU (MIG). Le MIG permet à un seul GPU physique d'être divisé en plusieurs instances entièrement isolées, chacune avec ses propres ressources de calcul, de mémoire et de cache dédiées. En mode de calcul confidentiel, ces instances fonctionnent comme des enclaves sécurisées, garantissant que les charges de travail exécutées sur une instance ne peuvent pas lire ou interférer avec celles d'une autre. Ce niveau d'isolation est crucial pour les environnements multi-locataires, tels que les déploiements dans le cloud, où les charges de travail de plusieurs clients partagent le même matériel physique.
5/6 : L'attestation fournit la preuve cryptographique que le GPU et son firmware sont dans un état de confiance, non altéré, avant que les charges de travail ne commencent leur exécution. Les services d'attestation de NVIDIA vérifient que le matériel est authentique, que son firmware correspond à une version approuvée et qu'il fonctionne en mode confidentiel. Cela est essentiel dans les architectures à zéro confiance, car cela permet aux entreprises de s'assurer que leurs charges de travail en IA ne sont exécutées que dans des environnements sécurisés et vérifiés. L'attestation soutient également la conformité dans les secteurs réglementés, où la confiance matérielle prouvable est un prérequis pour le traitement des données sensibles.
6/6 : L'un de ses plus grands avantages est que vous pouvez activer la protection de la charge de travail sans modifier le code de l'application ! C'est simplement un changement de configuration—idéal pour les pipelines d'IA d'entreprise où réécrire des modèles serait coûteux et perturbant. Lisez-en plus ici : !
1,68K