Zurück
#cloudcomputing#datenschutz#datensicherheit#publiccloud

Datenschutz und Public Cloud: das eine oder das andere?

vonClemens Kersjes
22. Oktober 2021Data & Analytics

Datenschutz und Public Cloud wirken wie fundamentale Gegensätze. Wie können Daten gleichzeitig geschützt und „öffentlich“ verarbeitet werden?

Die nahezu unbegrenzten Kapazitäten einer Public Cloud laden dazu ein, alle Daten abzuspeichern, die einem in die Finger kommen. Damit kommt auch schnell einmal der Datenschutz zu kurz. Das sollte nicht passieren, denn eine Verletzung der Datenschutz-Grundverordnung (DSGVO) kann schnell teuer werden (Art. 83 Abs. 5 DSGVO).

Aber nicht jede Verarbeitung von personenbezogenen Daten passiert aus Nachlässigkeit. Was, wenn ein legitimer Grund vorliegt, große Mengen personenbezogener Daten zu verarbeiten?
Wie kann man die Skalierbarkeit der Cloud zu seinem Vorteil nutzen?

Diese fünf Tipps helfen Ihnen dabei, eine datenschutzkonforme Cloud-Anwendung aufzusetzen:

  1. Anonymisierung
    Eine Möglichkeit, den Anforderungen des Datenschutzes gerecht zu werden, ist die Verwendung von Anonymisierung und Pseudonymisierung. Bei der Anonymisierung werden alle Informationen entfernt, die eine Person identifizieren können. Dabei reicht es nicht immer, offensichtliche Identitätsdaten wie den Namen zu löschen. Es muss sichergestellt werden, dass ein Rückschluss auf die Identität der betroffenen Person nicht ohne Weiteres möglich ist.
  2. Pseudonymisierung
    Bei der Pseudonymisierung hingegen werden Informationen durch kodierte Versionen ersetzt. Dies hat den Vorteil, dass Beziehungen zwischen einzelnen Einträgen erhalten bleiben. Namen können beispielsweise durch eine Hash-Funktion auf einen Zahlencode abgebildet werden. Dadurch werden Rückschlüsse erschwert und gleichzeitig kann dieser Code als eindeutiger Schlüssel dienen. Sowohl Pseudonymisierung als auch Anonymisierung eignen sich besonders für Verfahren, bei denen identifizierende Details keine Rolle spielen, wie zum Beispiel für das Trainieren von Machine-Learning-Modellen.
  3. Verschlüsselung
    Verschlüsselung ist längst ein Muss, wenn es um Datenspeicherung und Datenverarbeitung geht. In der Cloud wird dabei zwischen zwei Arten der Verschlüsselung (englisch Encryption) unterschieden. „Encryption at rest“ heißt, dass die Daten an ihrem Speicherort verschlüsselt sind. „Encryption in transit“ bedeutet, dass die Daten, während sie von A nach B gesendet werden, verschlüsselt sind. Diese Verschlüsselung kann als Service vom Cloud-Anbieter übernommen werden. Um abzuschätzen, ob Datenschutzmethoden vonseiten des Anbieters ausreichend sind, kann man diese auf Standards, wie zum Beispiel ISO/IEC 27018 (https://www.iso.org/standard/76559.html), prüfen.
  4. Hybrid Cloud
    Datenschutz sollte auch auf einem architekturellen Level eine Rolle spielen. Ein Beispiel dafür sind Hybrid-Cloud-Ansätze. Hierbei werden On-Premise-Ressourcen mit denen einer Public Cloud kombiniert. Personenbezogene Daten sind dabei auf einer vollständig kontrollierbaren Ressource gespeichert. Zur Bearbeitung können die Daten dann anonymisiert an die Cloud-Ressourcen gesendet werden, damit diese dort verarbeitet werden. So können rechenintensive Aufgabe auf Cloud-Ressourcen ausgelagert werden, während über die Datenspeicherung volle Kontrolle behalten wird.
  5. Monitoring
    Datenschutz ist nicht etwas, das einmal erreicht wird und dann nicht mehr berücksichtigt werden muss, sondern es ist ein stetiger Prozess. Dabei ist ein durchdachtes und robustes Datenschutzkonzept unverzichtbar, dessen Einhaltung fortlaufend gesichert werden muss. Dies kann in einer Public Cloud mit unterschiedlichen Services und Nutzern zur Herausforderung werden. In solchen Fällen hilft ein Monitoring, was mittlerweile von den meisten Public-Cloud-Anbietern zur Verfügung gestellt wird. Damit lässt sich überwachen, wer auf welche Daten zugreift und ob personenbezogene Daten nur von den vorgesehenen Anwendungen genutzt werden.

Die Ansätze und Methoden zeigen, dass Datenschutz und Public Cloud längst keinen Widerspruch mehr darstellt. Man muss nicht komplett auf Cloud-Ressourcen verzichten, um angemessen Datenschutz gewährleisten zu können. Dennoch sollte die Public Cloud nicht unüberlegt verwendet werden, sondern nur dann, wenn der Datenschutz trotzdem eingehalten wird.

Im nächsten Beitrag geben wir Tipps rund um das Thema Sicherheit.


Clemens Kersjes

Clemens Kersjes

Clemens ist Consultant und im Bereich Datenbereitstellung und Datenaufbereitung tätig. Ein besonderer Fokus liegt dabei auf Cloud-Technologien und der Integration neuer Daten in bestehende Systeme. Nach seinem Informatikstudium ist er im Mai 2020 als Berufseinsteiger bei der PPI AG eingestiegen. Clemens beschäftigt sich unter anderem intensiv mit der technischen Umsetzung von Cloud-basierten Prototypen rund um die Themen Data Science und Versicherungen.​

Hier bekommst Du noch mehr

#Hyperautomatisierung#HyOS

Das Automation Plateau: Warum viele Automatisierungsinitiativen stecken bleiben

Vor 3 Tagen veröffentlicht

Unternehmen investieren seit Jahren massiv in Automatisierung. Workflowtools, Robotic Process Automation, digitale Portale und Self-Services sollten Prozesse effizienter machen und Mitarbeiter entlasten. Doch die Realität sieht oft anders aus: Trotz umfangreicher Technologieinvestitionen bleibt der Automatisierungsgrad vieler Organisationen überraschend niedrig.

Der Grund liegt selten in der eingesetzten Technologie. Viel häufiger stoßen Unternehmen an ein strukturelles Problem – das sogenannte Automation Plateau. Sobald Prozesse unstrukturierte Daten enthalten, komplexe Entscheidungen erforderlich sind oder mehrere Systeme zusammenwirken müssen, endet die Automatisierung. Menschen übernehmen wieder die Bearbeitung.

Dieser Artikel zeigt, warum klassische Automatisierungsansätze häufig bei Teilprozessen stehen bleiben – und warum echte Hyperautomatisierung ein anderes Architekturdenken erfordert. Mit HyOS stellt crossnative ein Framework vor, das Daten, Prozesse und Kommunikation systematisch verbindet und so End-to-End-Automatisierung möglich macht.

#HyOS#data#data engine#datawarehouse

Automatische Datenbereitstellung für KI

Veröffentlicht am 02.03.2026

Viele KI-Projekte scheitern nicht an den Modellen, sondern an den Daten. Data Scientists verbringen einen großen Teil ihrer Zeit damit, Daten zu suchen, zu bereinigen und zusammenzuführen, statt Modelle zu entwickeln. Der Beitrag zeigt, warum automatisierte Datenbereitstellung der entscheidende Hebel für erfolgreiche KI-Projekte ist. Am Beispiel des crossnative-Ansatzes wird erläutert, wie Hyperautomatisierung den gesamten Lebenszyklus von Datenprojekten automatisiert – von der fachlichen Analyse über Entwicklung und Test bis zum produktiven Betrieb. Dadurch steigen Datenqualität, Nachvollziehbarkeit und Geschwindigkeit der Umsetzung. Gleichzeitig können sich Teams stärker auf fachliche Fragestellungen konzentrieren und KI-Lösungen schneller in den Nutzen bringen.

#Hyperautomatisierung#HyOS

Scan & Go fürs Service-Center: Warum Sie jetzt einen Supermarkt-Moment brauchen

Veröffentlicht am 14.01.2026

Warum funktionieren moderne Supermärkte heute oft reibungsloser als die Kundenbearbeitung in großen Unternehmen? Während der Einzelhandel mit autonomen Check-out-Systemen Wartezeiten eliminiert, hängen viele Service-Organisationen noch auf einem „Automation Plateau“ fest. Sie digitalisieren lediglich alte, fragmentierte Abläufe, anstatt Prozesse radikal vom Ergebnis her zu denken.

In diesem Beitrag zeigen wir, wie der Weg zum Dark Service Center gelingt. Erfahren Sie, warum Hyperautomatisierung kein reines Technologieprojekt ist, sondern ein methodisches Framework braucht: Unser Hyperautomation Operating System (HyOS). Mit den drei Kern-Säulen – Data, Process und Communication Engine – verwandeln wir unstrukturierte Datenströme in echte Dunkelverarbeitung.

Ob durch die flexible Orchestrierung mit Camunda oder die kundenzentrierte Integration via BSI – wir zeigen Ihnen, wie Sie die Effizienz eines modernen Check-outs auf Ihre gesamte Wertschöpfung übertragen und Service neu definieren.

Alle Blogartikel