Eine neue Technologie bietet Unternehmen eine einzige Pipeline zur Verwaltung und Kontrolle ihrer gesammelten Daten im Petabyte-Bereich. Das ermöglicht ihnen zuverlässige und kosteneffiziente Analysen und Automatisierungen.
Moderne Clouds erzeugen eine enorme Menge und Vielfalt an Daten. Stakeholder in Unternehmen wünschen sich mehr datengestützte Erkenntnisse und Automatisierung, um bessere Entscheidungen zu treffen, die Produktivität zu steigern und Kosten zu senken. Die Schaffung einer einheitlichen und benutzerfreundlichen Umgebung für Datenanalysen und -automatisierung ist jedoch aufgrund der Komplexität und Vielfalt moderner Cloud-Architekturen und der Vielzahl an Überwachungs- und Analysetools in Unternehmen schwierig.
Datenpipelines, Analysen und Automatisierung erfordern hohe Sicherheitsstandards
Darüber hinaus müssen Unternehmen sicherstellen, dass ihre Datenpipelines, Analysen und Automatisierungen mit Sicherheits- und Datenschutzstandards wie der DSGVO übereinstimmen. Daher benötigen Unternehmen Transparenz und Kontrolle über ihre Datenpipelines, während sie gleichzeitig die Kosten kontrollieren und den Wert ihrer bestehenden Datenanalyse- und Automatisierungslösungen maximieren müssen.
Dynatrace OpenPipeline gibt Geschäfts-, Entwicklungs-, Security- und Betriebsteams vollständige Transparenz und Kontrolle über ihre Data Ingestion, wobei der Kontext der Daten und der Cloud-Umgebungen, aus denen sie stammen, erhalten bleibt.
Die Lösung ermöglicht diesen Teams das Sammeln, Konvergieren, Weiterleiten, Anreichern, Deduplizieren, Filtern, Maskieren und Transformieren von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen – einschließlich Dynatrace® OneAgent, Dynatrace APIs und OpenTelemetry – mit anpassbaren Aufbewahrungszeiten für einzelne Anwendungsfälle.
Auf diese Weise können Unternehmen das ständig wachsende Volumen und die Vielfalt der Daten aus ihren hybriden und Multi-Cloud-Ökosystemen verwalten und mehr Teams in die Lage versetzen, auf die KI-gestützten Antworten und Automatisierungen der Dynatrace-Plattform zuzugreifen, ohne zusätzliche Tools zu benötigen.
Vorteile der Zusammenarbeit mit anderen Kerntechnologien der Dynatrace-Plattform
Dynatrace OpenPipeline arbeitet mit anderen Kerntechnologien der Dynatrace-Plattform zusammen, darunter das Grail Data Lakehouse, die Smartscape-Topologie und die hypermodale KI von Davis. Dies bietet die folgenden Vorteile:
- Datenanalyse im Petabyte-Maßstab: Nutzt zum Patent angemeldete Stream-Processing-Algorithmen, um einen drastisch erhöhten Datendurchsatz im Petabyte-Maßstab zu erreichen.
- Einheitliche Datenerfassung: Diese ermöglicht Teams die Erfassung von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen und in beliebigen Formaten, einschließlich Dynatrace OneAgent, Dynatrace APIs, Open-Source-Frameworks wie OpenTelemetry und anderen Telemetriesignalen.
- Echtzeit-Datenanalyse bei der Erfassung: Dies ermöglicht es Teams, unstrukturierte Daten, wie zum Beispiel Protokolle, in strukturierte und nutzbare Formate zu konvertieren – etwa die Umwandlung von Rohdaten in Zeitreihen, die Berechnung von Metriken oder die Erstellung von Geschäftsereignissen aus Log Lines – und zwar direkt bei der Erfassung.
- Vollständiger Datenkontext: Der Kontext heterogener Datenpunkte – einschließlich Metriken, Traces, Logs, Verhalten, Geschäftsereignissen, Schwachstellen, Bedrohungen, Lebenszyklusereignissen und vielen anderen – wird beibehalten und spiegelt die verschiedenen Teile des Cloud-Ökosystems wider, aus denen sie stammen.
- Datenschutz- und Sicherheitskontrollen: Benutzer haben die Kontrolle darüber, welche Daten sie analysieren, speichern oder von der Analyse ausschließen. Die Lösung umfasst vollständig anpassbare Sicherheits- und Datenschutzkontrollen, um die spezifischen Anforderungen und gesetzlichen Vorschriften der Kunden zu erfüllen, wie zum Beispiel ein automatisches und rollenbasiertes Verbergen von personenbezogenen Daten.
- Kosteneffizientes Datenmanagement: Dies hilft Teams, die Erfassung doppelter Daten zu vermeiden und den Speicherplatzbedarf zu reduzieren, indem Daten in brauchbare Formate umgewandelt werden (z. B. von XML in JSON) und es Teams ermöglicht wird, unnötige Felder zu entfernen, ohne dass Erkenntnisse, Kontext oder Analyseflexibilität verloren gehen.
Fünf- bis zehnmal schnellere Verarbeitung der Daten
„OpenPipeline ist eine leistungsstarke Ergänzung der Dynatrace-Plattform“, so Bernd Greifeneder, CTO bei Dynatrace. „Sie bereichert, konvergiert und kontextualisiert die heterogenen Observability-, Sicherheits- und Geschäftsdaten, die aus den Clouds stammen, und bietet einheitliche Analysen für diese Daten und die Services, die sie repräsentieren. Wie beim Grail Data Lakehouse haben wir OpenPipeline für Analysen im Petabyte-Bereich entwickelt. OpenPipeline arbeitet mit der hypermodalen KI Davis von Dynatrace zusammen, um aussagekräftige Erkenntnisse aus den Daten zu extrahieren und so eine robuste Analyse und zuverlässige Automatisierung zu ermöglichen.
Unseren internen Tests zufolge ermöglicht OpenPipeline powered by Davis AI unseren Kunden eine fünf- bis zehnmal schnellere Datenverarbeitung als vergleichbare Technologien. Die Zusammenführung und Kontextualisierung von Daten innerhalb von Dynatrace erleichtert die Einhaltung gesetzlicher Vorschriften und die Durchführung von Audits, während mehr Teams innerhalb von Unternehmen einen unmittelbaren Einblick in die Leistung und Sicherheit ihrer digitalen Dienste erhalten.“
Mehr bei Dynatrace.com
Über Dynatrace Dynatrace sorgt dafür, dass Software weltweit perfekt funktioniert. Unsere einheitliche Software-Intelligence-Plattform kombiniert breite und tiefe Observability und kontinuierliche Run-Time Application-Security mit den fortschrittlichsten AIOps, um Antworten und intelligente Automatisierung aus Daten in bemerkenswertem Umfang zu liefern. Dies ermöglicht es Unternehmen, den Cloud-Betrieb zu modernisieren und zu automatisieren, Software schneller und sicherer bereitzustellen und makellose digitale Erlebnisse zu gewährleisten.
Passende Artikel zum Thema