Vi fikk ChatGPT til å lekke dine private e-postdata 💀💀 Alt du trenger? Offerets e-postadresse. ⛓️‍💥🚩📧 Onsdag la @OpenAI til full støtte for MCP-verktøy (Model Context Protocol) i ChatGPT. Lar ChatGPT koble til og lese Gmail, Kalender, Sharepoint, Notion og mer, oppfunnet av @AnthropicAI Men her er det grunnleggende problemet: AI-agenter som ChatGPT følger kommandoene dine, ikke sunn fornuft. Og med bare e-posten din klarte vi å eksfiltrere all din private informasjon. Slik gjorde vi det: 1. Angriperen sender en kalenderinvitasjon med en jailbreak-melding til offeret, bare med e-posten deres. Ingen grunn for offeret å akseptere invitasjonen. 2. Ventet på at brukeren skulle be ChatGPT om å hjelpe til med å forberede seg på dagen ved å se på kalenderen deres 3. ChatGPT leser den jailbroken kalenderinvitasjonen. Nå blir ChatGPT kapret av angriperen og vil handle på angriperens kommando. Søker i dine private e-poster og sender dataene til angriperens e-post. Foreløpig gjorde OpenAI bare MCP-er tilgjengelige i "utviklermodus", og krever manuelle menneskelige godkjenninger for hver økt, men beslutningstretthet er en reell ting, og normale mennesker vil bare stole på AI uten å vite hva de skal gjøre og klikke på godkjenn, godkjenn, godkjenn. Husk at AI kan være supersmart, men kan lures og phishing på utrolig dumme måter for å lekke dataene dine. ChatGPT + Tools utgjør en alvorlig sikkerhetsrisiko