Wir haben ChatGPT dazu gebracht, deine privaten E-Mail-Daten zu leaken 💀💀 Alles, was du brauchst? Die E-Mail-Adresse des Opfers. ⛓️‍💥🚩📧 Am Mittwoch hat @OpenAI die volle Unterstützung für MCP (Model Context Protocol) Tools in ChatGPT hinzugefügt. Dadurch kann ChatGPT auf dein Gmail, deinen Kalender, Sharepoint, Notion und mehr zugreifen und diese lesen, erfunden von @AnthropicAI. Aber hier ist das grundlegende Problem: KI-Agenten wie ChatGPT folgen deinen Befehlen, nicht deinem gesunden Menschenverstand. Und nur mit deiner E-Mail haben wir es geschafft, all deine privaten Informationen zu exfiltrieren. So haben wir es gemacht: 1. Der Angreifer sendet eine Kalendereinladung mit einem Jailbreak-Prompt an das Opfer, nur mit deren E-Mail. Es ist nicht nötig, dass das Opfer die Einladung annimmt. 2. Warten, bis der Benutzer ChatGPT fragt, um sich auf den Tag vorzubereiten, indem er seinen Kalender anschaut. 3. ChatGPT liest die jailbreakte Kalendereinladung. Jetzt ist ChatGPT vom Angreifer übernommen und wird auf den Befehl des Angreifers reagieren. Durchsucht deine privaten E-Mails und sendet die Daten an die E-Mail des Angreifers. Im Moment hat OpenAI MCPs nur im "Entwicklermodus" verfügbar gemacht und erfordert manuelle menschliche Genehmigungen für jede Sitzung, aber Entscheidungserschöpfung ist eine reale Sache, und normale Menschen werden der KI einfach vertrauen, ohne zu wissen, was zu tun ist, und klicken auf genehmigen, genehmigen, genehmigen. Denke daran, dass KI super schlau sein kann, aber auf unglaublich dumme Weise getäuscht und gefischt werden kann, um deine Daten zu leaken. ChatGPT + Tools stellt ein ernsthaftes Sicherheitsrisiko dar.