Anfang dieses Monats veröffentlichte WeTransfer eine scheinbar unspektakuläre Aktualisierung seiner Nutzungsbedingungen. Doch im Kleingedruckten verbarg sich ein Passus, der Nutzern weitreichende Rechte an ihren hochgeladenen Dateien entzog – einschließlich Reproduktion, Modifikation, Kommerzialisierung und sogar Verwendung für das Training von KI-Modellen.
Die Änderung blieb zunächst unbemerkt. Aber als Juristen, Kreative und Datenschutz-Akteure die Klausel öffentlich machten, brach eine Welle der Entrüstung los. Designer:innen, Autor:innen und Filmschaffende warnten: Ihre sensiblen, oft unveröffentlichten oder urheberrechtlich geschützten Werke könnten nun ohne Zustimmung, ohne Vergütung weiterverwendet werden – auch als KI-Trainingsdaten.
Besonders kritisch: Die Klausel machte keine klare Vorgabe zur Urheberschaft. Wer eine Datei hochlädt, muss nicht der oder die Rechteinhaber:in sein – ein potenzielles Haftungsrisiko für Dritte.
WeTransfer rudert zurück – nach öffentlichem Druck
Nach massiver Kritik und anhaltender Diskussion auf Plattformen wie LinkedIn und X reagierte WeTransfer am 16. Juli: Die Bedingungen wurden überarbeitet, die umstrittenen Passagen entfernt, und das Unternehmen versicherte öffentlich, keine Inhalte für KI-Zwecke zu verwenden oder zu verkaufen.
Die neue Formulierung beschränkt sich auf eine einfache, gebührenfreie Lizenz – ausschließlich zum Betrieb und zur Verbesserung des Dienstes, in Übereinstimmung mit der gültigen Datenschutz- und Cookie-Richtlinie. Begriffe wie maschinelles Lernen oder Weiterlizenzierung wurden gestrichen.
Trotzdem bleibt bei vielen Nutzer:innen Skepsis. Der Eindruck: WeTransfer testete Grenzen aus – und zog sich erst zurück, als der Schaden für Markenwahrnehmung und Vertrauen drohte.
Ein größerer Kontext: Was dieser Fall wirklich bedeutet
Was wie ein juristisch-technischer Zwischenfall wirkt, ist in Wahrheit Ausdruck einer weitreichenderen Dynamik: Dem Vertrauensbruch, der entsteht, wenn Plattformen Nutzungsrechte ohne Einwilligung ausweiten – besonders in Zeiten des KI-Hypes.
Der Fall trifft auf eine sensible Phase:
- Das Vertrauen in Big Tech ist angeschlagen
- Urheber setzen verstärkt auf Datenkontrolle & Transparenz
- Die Nutzung kreativer Outputs als Trainingsdaten ohne Zustimmung wird als ethischer Missbrauch wahrgenommen
Die ehemalige Version der WeTransfer-Bedingungen enthielt Formulierungen, die eine globale, unbefristete, unterlizenzierbare Nutzung erlaubten – ohne Einschränkungen zu Modell-Arten, Data-Retention oder optischen Zugriffen.
Vertrauen, Zustimmung & KI – Ein Dreiklang, der nicht mehr ignoriert werden kann
WeTransfer steht nicht allein. Auch Adobe, Zoom, Dropbox & Slack sind bereits mit unklaren KI-Klauseln zurückgerudert, nachdem Datenschutz-Gruppen, Medien und Juristen Alarm schlugen. Das Muster ist bekannt:
- Expansive Lizenzbedingungen für Inhalte, die weit über den reinen Dienstbetrieb hinausgehen
- Vage Formulierungen, die Datenverarbeitung für generative KI implizieren – ohne Nachweise oder Zweckbindung
- Keine echte Zustimmung, kein Opt-out, kein granularer Kontrollmechanismus für Nutzer:innen
Der soziale und regulatorische Konsens formt sich: Datenverwertung ohne Einwilligung ist nicht "innovation-friendly", sondern vertrauensschädigend.
Wire’s Perspektive: Warum privacy-by-design alternativenlos ist
Als sichere Plattform für Zusammenarbeit, die auf europäische Regierungen, NGOs und Unternehmen spezialisiert ist, verfolgt Wire bewusst einen anderen Weg:
- Kein Zugriff durch das System: Ende-zu-Ende-Verschlüsselung schützt alle Informationen – auch vor Wire selbst.
- Kein Modelltraining, keine Profilbildung: Wire verwendet Kundendaten nicht für maschinelles Lernen oder KI-generierte Analysefunktionen.
- Transparente Bedingungen: Die AGB sind präzise, technisch basiert und eng gefasst. Es gibt keine Open-Ended-Rechte oder pauschale Nutzungsansprüche.
- Reine EU-Architektur: Wire wird vollständig in Europa gehostet und entwickelt – außerhalb des Geltungsbereichs extraterritorialer Gesetze wie dem U.S. CLOUD Act.
Wire entscheidet sich: für Vertrauen statt Datenstrategie. Für Nutzerkontrolle statt Datenverwertung. Für Sicherheit statt Hype.
Checkliste für IT-Entscheider:innen & Teams, die mit sensiblen Inhalten arbeiten
- Nutzungsbedingungen regelmäßig prüfen: Vor allem unter dem Aspekt KI, maschinelles Lernen, Weiterverwertung
- Risikobewusstsein schaffen: Wenn Ihr Team vertrauliche Dateien in SaaS-Produkten teilt, prüfen Sie die Vertragslage & Zweckbindung
- Klarheit einfordern: Anbieter müssen in rechtlich & technisch einfacher Sprache transparent machen, was erlaubt ist und was nicht
- Souveräne Alternativen bevorzugen: Produkte wie Wire, Nextcloud, Pydio bieten DSGVO-konforme Zusammenarbeit – ohne Formulierungsrisiken
Fazit: Der wahre Unterschied zwischen Vertrauen & Nutzerdaten ist der Vertrag
Die WeTransfer-Klausel war kein Versehen – sie war ein Test. Einer, der nur durch die Welle der Reaktionen gestoppt wurde.
Im Jahr 2025 ist Vertrauen keine Marktstrategie mehr. Es ist eine zentrale Designentscheidung. Wer Systeme nutzt, muss Sicherheit und Rechte mitdenken – und mitverantworten.