Conseguimos que o ChatGPT vazasse seus dados 💀💀 de e-mail privados Tudo que você precisa? O endereço de e-mail da vítima. ⛓️‍💥🚩📧 Na quarta-feira, @OpenAI adicionou suporte total para ferramentas MCP (Model Context Protocol) no ChatGPT. Permitindo que o ChatGPT se conecte e leia seu Gmail, Calendário, Sharepoint, Notion e muito mais, inventado por @AnthropicAI Mas aqui está o problema fundamental: agentes de IA como o ChatGPT seguem seus comandos, não seu bom senso. E apenas com o seu e-mail, conseguimos exfiltrar todas as suas informações privadas. Veja como fizemos: 1. O invasor envia um convite de calendário com um prompt de jailbreak para a vítima, apenas com seu e-mail. Não há necessidade de a vítima aceitar o convite. 2. Esperou que o usuário pedisse ao ChatGPT para ajudar a se preparar para o dia olhando o calendário 3. O ChatGPT lê o convite do calendário com jailbreak. Agora o ChatGPT é sequestrado pelo invasor e agirá de acordo com o comando do invasor. Pesquisa seus e-mails privados e envia os dados para o e-mail do invasor. Por enquanto, a OpenAI disponibilizou apenas MCPs no "modo de desenvolvedor" e requer aprovações humanas manuais para cada sessão, mas a fadiga de decisão é uma coisa real, e as pessoas normais apenas confiarão na IA sem saber o que fazer e clicarão em aprovar, aprovar, aprovar. Lembre-se de que a IA pode ser super inteligente, mas pode ser enganada e roubada de maneiras incrivelmente estúpidas para vazar seus dados. ChatGPT + Tools representa um sério risco de segurança