Das Wissensportal für IT-Professionals. Entdecke die Tiefe und Breite unseres IT-Contents in exklusiven Themenchannels und Magazinmarken.

SIGS DATACOM GmbH

Lindlaustraße 2c, 53842 Troisdorf

Tel: +49 (0)2241/2341-100

kundenservice@sigs-datacom.de

„Wir können gewaltige Datenmengen fast in Echtzeit verarbeiten“

BI-Spektrum sprach mit Dieter Capek, Solutions Architect und Presales Engineer von Datenbank- und Analytics-Anbieter Vertica, über die Technologie und die Einsatzmöglichkeiten der ultraschnellen SQL-Datenbank.

Author Image
Christoph Witte

Chefredakteur IT Spektrum und BI-Spektrum

Author Image
Dieter Capek

Author


  • 18.08.2022
  • Lesezeit: 7 Minuten
  • 143 Views

Was macht Vertica eigentlich genau?

Dieter Capek: Im Kern bieten wir ein relationales Datenbank Managementsystem auf SQL Basis an. Das von uns genutzte SQL ist gegenüber dem Standard für analytische Fragestellungen optimiert und ist so sehr, sehr schnell – zum Beispiel um Zeitreihen zu bearbeiten oder Machine Learning zu machen. Die Technologie dahinter hat Michael Stonebraker entwickelt und 2005 als massiv parallele Datenbank mit Vertica auf den Markt gebracht. Ihr zentraler Kundennutzen ist die schnelle Analyse großer Datenmengen. 2011 wurde Vertica an HP verkauft, um die Technologie international zu vermarkten. Heute gehören wir als eine von sechs Produktgruppen zu Micro Focus, treten aber unter dem Markennamen Vertica unabhängig am Markt auf. Wir vermarkten Vertica als Hochleistungs Datenbanksystem für Analytics. Inzwischen haben wir das Datenbanksystem um AI und Machine Learning Funktionen erweitert. Aber mit dem Unterschied zu vielen anderen Datenbanken finden Entwicklung und Exploration der AI Modelle innerhalb des DBMS statt. So vermeide ich Systembrüche.

Müssen denn sämtliche zu analysierenden Daten im Datenbanksystem vorhanden sein und müssen sie mit einem ETL-Prozess aufbereitet werden?

Capek: Die klassische Antwort ist Ja. Einfach damit die physischen Strukturen auf die Queries angepasst werden können. Das ist aber nicht in allen Fällen praktikabel – zum Beispiel dann nicht, wenn nur selten auf die Daten zugegriffen wird. Dann kann ich mit der deutlich geringeren Geschwindigkeit leben, mit denen auf Daten außerhalb des Systems zugegriffen werden kann.

Das von uns genutzte SQL ist gegenüber dem Standard für analytische Fragestellungen optimiert und ist so sehr, sehr schnell.

Und wie aufwendig ist der ETL-Prozess, wenn ich die Daten in das System hineinholen will, um sie in Fast-Echtzeit zu analysieren?

Capek: Das System hat als Schnittstellen ODBC, JDBC und OLE DB. Wir haben außerdem eine ganze Reihe zertifizierter Technologiepartner wie Qlik, Tableau, Micro Strategy oder Informatica – kurz: Eigentlich alles, was in der BI Welt einen Namen hat, ist auch mit Vertica betreibbar. Außerdem läuft das System sowohl OnPrem oder bei den großen Cloud Providern, Amazon, Microsoft und Google. Die Kunden können frei entscheiden, wo sie die Workloads bearbeiten. Sie können auch mischen. Wir lizenzieren nach Rohdatenmengen. Der Kunde kann dieses Volumen nutzen, wo er mag.

Also bei euch braucht man keine On-Prem- oder Cloud-Lizenz, sondern der Kunde zahlt nach dem Volumen der Rohdaten und ihr stellt die Infrastruktur?

Capek: Nein, von uns bekommt er eine Softwarelizenz, den Cloud Provider zum Beispiel muss er selbst zahlen genauso wie seine Infrastruktur On Prem. Das gilt allerdings nicht für den Managed Service, den wir anbieten. Das ist ein Komplettpaket. Das ist aber bei uns eher die Ausnahme.

Wer nutzt das System?

Capek: Im Prinzip ist das für alle Kunden interessant, die etwas mit Big Data zu tun haben – zum Beispiel Telekommunikationsanbieter, Unternehmen aus dem Gesundheitswesen, Energieversorger oder Netzbetreiber. Monitoring und Predictive Maintenance sind wichtige Use Cases. Wir arbeiten zum Beispiel mit Philips zusammen. Die Daten der medizintechnischen Geräte werden mit Vertica überwacht und laufend analysiert, damit die kritischen Systeme nicht gerade dann ausfallen, wenn zum Beispiel ein Patient minimalinvasiv am Herzen operiert wird.

Wenn Philips weltweit damit arbeitet, um Predictive Maintenance für seine kritischen medizinischen Geräte zu machen, über welches Datenvolumen reden wir da weltweit?

Capek: Da reden wir über 2,15 Petabyte. Wir können gewaltige Datenmengen fast in Echtzeit verarbeiten.

Und das benötigt Philips gerätegenau? Die wollen ja wissen, wann der Magnet des Computertomographen im Krankenhaus rechts der Isar in München seinen Dienst aufgibt.

Capek: Für jedes angeschlossene Gerät werden einmal pro Tag Daten übertragen. Wenn Schwellenwerte überschritten werden, zeigt ein Dashboard diese Werte an, ein Ingenieur bewertet sie und leitet gegebenenfalls Wartungs und Reparaturmaßnahmen ein.

Abb. 1

Gibt es andere Kunden, die Sie nennen dürfen?

Capek: Der japanische Netzwerktechnologieanbieter Anritsu integriert Vertica in seine Network Monitoring Lösungen. Durch uns können die AnritsuIngenieure und deren Kunden die Qualität eines jeden Anrufs überprüfen. Ein anderes Beispiel ist Jaguar in der Formula E. Die analysieren mit Hilfe unserer Technologie in Echtzeit die Werte von 700 Sensoren, die sie in ihr elektrisch angetriebenes Fahrzeug eingebaut haben. Auch hier geht es um eine Art Predictive Maintenance oder um eine Optimierung der Pitstops. Mit Hilfe unserer Analysen wissen die Ingenieure, wo sie genauer hinschauen müssen bzw. welche Teile demnächst den Dienst quittieren und besser ausgetauscht werden sollten. Wir arbeiten auch mit anderen Automobilherstellern zusammen, die mit Vertica Telemetriedaten auswerten, um das Verhalten ihrer Fahrzeuge unter bestimmten Umwelt und Verkehrsbedingungen zu analysieren und so die Qualität ihrer Fahrzeuge zu verbessern. In einem anderen Fall überprüfen sie die Fahrzeugdaten, um nachzuweisen, dass sie bestimmte vertraglich zugesicherte Qualitätszusagen einhalten. Die Entwicklungs und Qualitätsingenieure bekommen so Analysen aus Echtweltdaten und nicht nur Daten vom Prüfstand.

Das waren jetzt ausschließlich Beispiele von großen Firmen. Eignet sich Vertica nur für Großunternehmen?

Capek: Wir haben auch kleinere Kunden mit einem Terabyte oder zwei. Wir sind nicht auf dem Trip: Nur wenn es Petabyte sind, ist es gut. Wir nennen natürlich gerne Großkunden, weil sie im Prinzip die Machbarkeit zeigen. Wer große Datenmengen schnell analysieren kann, schafft das auch mit kleinen.

Wen betrachten Sie als Ihre Mitbewerber?

Capek: Da gibt es Firmen wie Snowflake oder die Anbieter von High End Datenbanken wie Teradata oder Oracle Exadata und andere, mit denen wir uns aber gerne messen.

Datenbanken und Analytics-Plattformen sind „Unter der Haube“-Technologien. Eine Kundenbindung gibt es ja in dem Sinne da nicht.

Capek: Wir sehen das sogar ein bisschen als Vorteil, zumindest im OEM Geschäft. Wir arbeiten zum Beispiel mit The Trade Desk zusammen. Das ist eine Plattform, auf der Werbeverkäufer digitale Werbekampagnen für verschiedene Werbeformate und Geräte erstellen, verwalten und optimieren. The Trade Desk kann diese Kampagnen weltweit ausliefern. Die Werbetreibenden wollen natürlich wissen, wie viele Interessenten es gibt und wo sie sie mit ihren Kampagnen erreichen. Dafür sorgt unsere Technologie. Aber Trade Desk bietet das als seinen Service an.

Der Kunde ist ja nicht unbedingt an einer bestimmten Technologie interessiert, sondern für ihn ist wichtig, dass die Daten schnell verarbeitet werden und welche Analysen ihm das System erlaubt. Oder haben Sie da andere Erfahrungen gemacht?

Capek: Den Kunden interessiert in erster Linie das Ergebnis. Aber klar ist auch, dass Virtualisierung allein nicht ausreicht. Das löst nicht die DataWarehouse Themen, ich habe damit auch noch keine einheitliche Modellierung und keine Homogenisierung. Auch die Tiefe der Historie ist nicht allein durch Virtualisierung zu erreichen, weil die Semantik nicht vorhanden ist. Ich habe keine Single Version of the Truth.

Wo liegen die Vorteile von SQL und der relationalen Datenbanktechnologie?

Capek: SQL versteht praktisch jeder und relationale Datenbanken sind eine reife Technologie, mit der in der IT Industrie auch jeder umgehen kann. Jedes Rechenzentrum kann damit umgehen und hat darin zum Teil seine Routinen abgebildet.

Wie geht es weiter – was hat Vertica vor in Deutschland?

Capek: Wir wollen vor allem unser Partnernetzwerk ausbauen und wollen uns hier auch von der Mitarbeitendenzahl vergrößern. Dabei wollen wir nicht nur große Partner gewinnen, sondern auch kleine. Wie bei den Endkunden streben wir eine gute Mischung an.

. . .

Author Image

Christoph Witte

Chefredakteur IT Spektrum und BI-Spektrum
Zu Inhalten

Christoph Witte ist Gründer der Wittcomm Agentur für IT, Publishing und Kommunikation. Darüber hinaus ist er Chefredakteur von IT Spektrum sowie BI-Spektrum und wirkt zudem bei dem Magazin JavaSPEKTRUM mit.

Author Image

Dieter Capek

Author
Zu Inhalten
DIETER CAPEK ist Solutions Architect und Presales Engineer bei Vertica, die als Division zum Softwareanbieter Micro Focus gehören. Davor arbeitete er in gleicher Funktion bei Hewlett Packard Enterprises. Darüber hinaus war er für die IBM und den Datenbankanbieter Teradata tätig. Capek hat in Würzburg Organisationspsychologie und Mathematik studiert, an der George Washingtion University seinen Master in Project Management gemacht und an der Fernuniversität Hagen seinen Master in Computer Science.

Artikel teilen