W AI dane przetwarzane w pamięci są często najbardziej narażone na ataki. Oto przegląd tego, jak Confidential Computing od @nvidia zabezpiecza dane w użyciu, aby zapewnić ochronę wrażliwych zbiorów danych, wag modeli i kodu podczas treningu i wnioskowania. Jest to kluczowe w środowiskach z zerowym zaufaniem, regulowanych lub wielo-najemcach. 🧵👇
2/6: W przeciwieństwie do podejść opartych wyłącznie na oprogramowaniu, NVIDIA wdraża bezpieczeństwo na poziomie sprzętowym w swoich GPU. Oznacza to, że szyfrowanie, izolacja i poświadczenie są wbudowane w krzem, co zmniejsza ryzyko ujawnienia, nawet jeśli oprogramowanie systemowe zostanie skompromitowane.
3/6: Działa to poprzez szyfrowanie danych w pamięci GPU, co może pozostać bezpieczne nawet podczas przesyłania przez interfejsy NVLink za pomocą wejścia/wyjścia TEE z prędkościami bliskimi natywnym. Zapobiega to nieautoryzowanemu dostępowi z innych procesów, systemu gospodarza lub złośliwych aktorów mających fizyczny lub programowy dostęp.
4/6: Izolacja jest osiągana dzięki możliwościom partycjonowania na poziomie sprzętu NVIDIA, w szczególności technologii Multi-Instance GPU (MIG). MIG pozwala na podział jednego fizycznego GPU na wiele w pełni izolowanych instancji, z których każda ma swoje dedykowane zasoby obliczeniowe, pamięci i pamięci podręcznej. W trybie zaufanego przetwarzania te instancje działają jako bezpieczne enklawy, zapewniając, że obciążenia działające na jednej instancji nie mogą odczytywać ani zakłócać tych na innej. Ten poziom izolacji jest kluczowy dla środowisk wielo-najemców, takich jak wdrożenia w chmurze, gdzie obciążenia wielu klientów dzielą tę samą fizyczną infrastrukturę.
5/6: Atestacja dostarcza kryptograficzny dowód, że GPU i jego oprogramowanie układowe znajdują się w zaufanym, nienaruszonym stanie przed rozpoczęciem wykonywania obciążeń. Usługi atestacyjne NVIDIA weryfikują, że sprzęt jest autentyczny, że jego oprogramowanie układowe odpowiada zatwierdzonej wersji i że działa w trybie poufnym. Jest to niezbędne w architekturach zero-trust, ponieważ pozwala przedsiębiorstwom zapewnić, że ich obciążenia AI są wykonywane tylko w bezpiecznych, zweryfikowanych środowiskach. Atestacja wspiera również zgodność w regulowanych branżach, gdzie udowodnione zaufanie do sprzętu jest warunkiem wstępnym do obsługi wrażliwych danych.
6/6: Jedną z największych zalet jest to, że możesz włączyć ochronę obciążenia roboczego bez zmiany kodu aplikacji! To po prostu zmiana konfiguracji — idealna dla korporacyjnych pipeline'ów AI, gdzie przepisanie modeli byłoby kosztowne i zakłócające. Przeczytaj więcej tutaj: !
1,68K