"LLM-y mogą halucynować rzeczy, które wyglądają bardzo realnie. Myślę, że jesteśmy na wczesnym etapie w przestrzeni bezpieczeństwa AI Web3." Zobacz pełny odcinek z @blocksek, Głównym Inżynierem Bezpieczeństwa @eigenlayer oraz @jack__sanford poniżej