Daten: Vollständige Transparenz und Kontrolle der Pipeline

Daten: Vollständige Transparenz und Kontrolle der Pipeline

Beitrag teilen

Eine neue Technologie bietet Unternehmen eine einzige Pipeline zur Verwaltung und Kontrolle ihrer gesammelten Daten im Petabyte-Bereich. Das ermöglicht ihnen zuverlässige und kosteneffiziente Analysen und Automatisierungen.

Moderne Clouds erzeugen eine enorme Menge und Vielfalt an Daten. Stakeholder in Unternehmen wünschen sich mehr datengestützte Erkenntnisse und Automatisierung, um bessere Entscheidungen zu treffen, die Produktivität zu steigern und Kosten zu senken. Die Schaffung einer einheitlichen und benutzerfreundlichen Umgebung für Datenanalysen und -automatisierung ist jedoch aufgrund der Komplexität und Vielfalt moderner Cloud-Architekturen und der Vielzahl an Überwachungs- und Analysetools in Unternehmen schwierig.

Datenpipelines, Analysen und Automatisierung erfordern hohe Sicherheitsstandards

Darüber hinaus müssen Unternehmen sicherstellen, dass ihre Datenpipelines, Analysen und Automatisierungen mit Sicherheits- und Datenschutzstandards wie der DSGVO übereinstimmen. Daher benötigen Unternehmen Transparenz und Kontrolle über ihre Datenpipelines, während sie gleichzeitig die Kosten kontrollieren und den Wert ihrer bestehenden Datenanalyse- und Automatisierungslösungen maximieren müssen.

Dynatrace OpenPipeline gibt Geschäfts-, Entwicklungs-, Security- und Betriebsteams vollständige Transparenz und Kontrolle über ihre Data Ingestion, wobei der Kontext der Daten und der Cloud-Umgebungen, aus denen sie stammen, erhalten bleibt.

Die Lösung ermöglicht diesen Teams das Sammeln, Konvergieren, Weiterleiten, Anreichern, Deduplizieren, Filtern, Maskieren und Transformieren von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen – einschließlich Dynatrace® OneAgent, Dynatrace APIs und OpenTelemetry – mit anpassbaren Aufbewahrungszeiten für einzelne Anwendungsfälle.

Auf diese Weise können Unternehmen das ständig wachsende Volumen und die Vielfalt der Daten aus ihren hybriden und Multi-Cloud-Ökosystemen verwalten und mehr Teams in die Lage versetzen, auf die KI-gestützten Antworten und Automatisierungen der Dynatrace-Plattform zuzugreifen, ohne zusätzliche Tools zu benötigen.

Vorteile der Zusammenarbeit mit anderen Kerntechnologien der Dynatrace-Plattform

Dynatrace OpenPipeline arbeitet mit anderen Kerntechnologien der Dynatrace-Plattform zusammen, darunter das Grail Data Lakehouse, die Smartscape-Topologie und die hypermodale KI von Davis. Dies bietet die folgenden Vorteile:

  • Datenanalyse im Petabyte-Maßstab: Nutzt zum Patent angemeldete Stream-Processing-Algorithmen, um einen drastisch erhöhten Datendurchsatz im Petabyte-Maßstab zu erreichen.
  • Einheitliche Datenerfassung: Diese ermöglicht Teams die Erfassung von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen und in beliebigen Formaten, einschließlich Dynatrace OneAgent, Dynatrace APIs, Open-Source-Frameworks wie OpenTelemetry und anderen Telemetriesignalen.
  • Echtzeit-Datenanalyse bei der Erfassung: Dies ermöglicht es Teams, unstrukturierte Daten, wie zum Beispiel Protokolle, in strukturierte und nutzbare Formate zu konvertieren – etwa die Umwandlung von Rohdaten in Zeitreihen, die Berechnung von Metriken oder die Erstellung von Geschäftsereignissen aus Log Lines – und zwar direkt bei der Erfassung.
  • Vollständiger Datenkontext: Der Kontext heterogener Datenpunkte – einschließlich Metriken, Traces, Logs, Verhalten, Geschäftsereignissen, Schwachstellen, Bedrohungen, Lebenszyklusereignissen und vielen anderen – wird beibehalten und spiegelt die verschiedenen Teile des Cloud-Ökosystems wider, aus denen sie stammen.
  • Datenschutz- und Sicherheitskontrollen: Benutzer haben die Kontrolle darüber, welche Daten sie analysieren, speichern oder von der Analyse ausschließen. Die Lösung umfasst vollständig anpassbare Sicherheits- und Datenschutzkontrollen, um die spezifischen Anforderungen und gesetzlichen Vorschriften der Kunden zu erfüllen, wie zum Beispiel ein automatisches und rollenbasiertes Verbergen von personenbezogenen Daten.
  • Kosteneffizientes Datenmanagement: Dies hilft Teams, die Erfassung doppelter Daten zu vermeiden und den Speicherplatzbedarf zu reduzieren, indem Daten in brauchbare Formate umgewandelt werden (z. B. von XML in JSON) und es Teams ermöglicht wird, unnötige Felder zu entfernen, ohne dass Erkenntnisse, Kontext oder Analyseflexibilität verloren gehen.

Fünf- bis zehnmal schnellere Verarbeitung der Daten

„OpenPipeline ist eine leistungsstarke Ergänzung der Dynatrace-Plattform“, so Bernd Greifeneder, CTO bei Dynatrace. „Sie bereichert, konvergiert und kontextualisiert die heterogenen Observability-, Sicherheits- und Geschäftsdaten, die aus den Clouds stammen, und bietet einheitliche Analysen für diese Daten und die Services, die sie repräsentieren. Wie beim Grail Data Lakehouse haben wir OpenPipeline für Analysen im Petabyte-Bereich entwickelt. OpenPipeline arbeitet mit der hypermodalen KI Davis von Dynatrace zusammen, um aussagekräftige Erkenntnisse aus den Daten zu extrahieren und so eine robuste Analyse und zuverlässige Automatisierung zu ermöglichen.

Unseren internen Tests zufolge ermöglicht OpenPipeline powered by Davis AI unseren Kunden eine fünf- bis zehnmal schnellere Datenverarbeitung als vergleichbare Technologien. Die Zusammenführung und Kontextualisierung von Daten innerhalb von Dynatrace erleichtert die Einhaltung gesetzlicher Vorschriften und die Durchführung von Audits, während mehr Teams innerhalb von Unternehmen einen unmittelbaren Einblick in die Leistung und Sicherheit ihrer digitalen Dienste erhalten.“

Mehr bei Dynatrace.com

 


Über Dynatrace

Dynatrace sorgt dafür, dass Software weltweit perfekt funktioniert. Unsere einheitliche Software-Intelligence-Plattform kombiniert breite und tiefe Observability und kontinuierliche Run-Time Application-Security mit den fortschrittlichsten AIOps, um Antworten und intelligente Automatisierung aus Daten in bemerkenswertem Umfang zu liefern. Dies ermöglicht es Unternehmen, den Cloud-Betrieb zu modernisieren und zu automatisieren, Software schneller und sicherer bereitzustellen und makellose digitale Erlebnisse zu gewährleisten.


Passende Artikel zum Thema

Gut aufgestellt für NIS2

Auf viele Unternehmen kommen in puncto Cybersicherheit ab 2024 neue Herausforderungen zu. Die Network and Information Security Directive 2, kurz ➡ Weiterlesen

QR-Code-Phishing mit ASCII-Zeichen

Sicherheitsforscher von Check Point haben eine neue Art des QR-Code-Phishing („Quishing“ genannt) entdeckt, mit der Angreifer auf geschickte Weise OCR-Systeme umgehen. ➡ Weiterlesen

Cyberversicherungen liegen im Trend

Cyberversicherungen liegen im Trend: Ein Anbieter von Security Operations veröffentlicht die Ergebnisse seines jährlichen State of Cybersecurity: 2024 Trends Report. ➡ Weiterlesen

Ransomware: Verschlüsselte Backups – verdoppeltes Lösegeld 

Wenn das Backup beim Ransomware-Angriff zum Problem wird: Cyberkriminelle richten ihre Verschlüsselungstaten auch auf Backups aus. Warum? Weil so noch ➡ Weiterlesen

MDR kombiniert KI und rund um die Uhr Support

Darktrace hat sein neues Serviceangebot Darktrace Managed Detection & Response (MDR) gestartet. Der Service unterstützt die internen Sicherheitsteams mit KI-basierter ➡ Weiterlesen

CISO Umfrage: Die meisten Unternehmen zahlen bei Ransomware

Im Voice of the CISO Report gaben über die Hälfte der befragten CISOs aus deutschen Unternehmen an, dass sie im ➡ Weiterlesen

Starke Zunahme bei Malware-, BEC- und QR-Code-Phishing-Angriffen

Der aktuelle E-Mail Threat Landscape Report von Trend Micro zeigt eine starke Zunahme von Malware-, BEC- und QR-Code-Phishing-Angriffen auf Unternehmen. ➡ Weiterlesen

Authentifizierung völlig ohne Passwörter

Passwörter waren gestern. Mit "Passwordless 360°" können sich alle  Kunden, Mitarbeiter, Partner, Geschäftskunden und Lieferanten eines Unternehmens mit einer einzigen ➡ Weiterlesen