Das Buch

Unternehmen und Organisationen verwenden heute enorme Mengen an Daten, die durch verschiedene IT-Systeme erzeugt werden. Durch die Heterogenität der Datensätze ist eine ganzheitliche Sicht auf Informationen eine große Herausforderung, deren Lösung aber einen immensen Vorteil bietet. Um eine Integration verschiedener Ausgangssysteme zu erhalten, spielt die Informationsqualität, das Messen dieser, wie auch die Sicherung der Datenqualität eine große Rolle.

Die Autoren diskutieren die Problematik der Datenqualität im Fokus eines Integrationsprozesses. Sie stellen am Markt verfügbare Systeme zur Datenintegration und –analyse vor und entwickeln, basierend auf einer Anforderungsanalyse, ein webbasiertes Werkzeug, welches die Integration der Daten ermöglicht und die Qualität der Datenbestände testet. Die Analyse der Bestände, das Auffinden von Duplikaten und die Bereinigung der Daten stehen dabei im Fokus dieses Werkzeuges, welches eine Grundlage für eine umfassende Datenqualitäts- und Bereinigungslösung darstellen kann.

Aus dem Inhalt

Datenqualität – Webtechnologie – Deduplizierung – Dataprofiling – Recordmerging

Die Zielgruppe

Studierende und Wissenschaftler auf den Gebieten der (Wirtschafts-) Informatik und Informationssysteme; Fachkräfte und Entscheider mit dem Arbeitsfeld Unternehmensinformationssysteme; Datenbank- und Webentwickler

Über die Autoren

Steven Helmis und Robert Hollmann studierten Angewandte Informatik an der Fachhochschule Erfurt und wurden für Ihre Arbeiten mit dem „Information Quality Best Master Degree Award“ der Deutschen Gesellschaft für Informations- und Datenqualität ausgezeichnet

Buch kaufen: Amazon.de

Veröffentlicht unter

Kommentar verfassen

Du kannst die folgenden HTML-Codes verwenden:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>