data quality
-
De la production industrielle à la production d’information : analogies, paradoxes et enseignements opérationnels
Les normes internationales actuelles en matière de “data quality” puisent leur origine au début du XXème siècle, dans la foulée de la révolution industrielle et du taylorisme, alors que la production et le montage en grande série réclament l’interchangeabilité des pièces. Aussi a-t-on recours au travail “à tolérances”, dans le cadre duquel les dimensions des pièces usinées peuvent
-
Vérifier une adresse e-mail : un problème facile ?
Gérer un carnet d’adresse électronique personnel peut sembler un problème assez facile. Finalement, on a surtout besoin d’avoir une adresse correcte pour ceux à qui on écrit fréquemment, et pour ces contacts-là, on prend vite conscience de l’obsolescence d’une adresse « e-mail » (ou courriel, pour emprunter un joli terme à nos amis Québécois). Mais lorsqu’il s’agit de
-
“Mapping the World of Data Problems” : la qualité des données vue par la communauté IT
En novembre 2012, O’Reilly Media a édité un “livre-événement” en matière de “data quality” : Q. E. McCallum, Bad Data Handbook, Mapping the World of Data Problems, O’Reilly Media, 2012, 246 p. Cet ouvrage collectif sur la qualité des données est inédit car il émane exclusivement de la communauté des web software developpers (Python, Perl script, Parallel
-
Data tracking – le “Return On Investment” de l’analyse des flux d’information
L’egovernment repose sur la gestion de vastes bases de données dont les enjeux sont stratégiques sur les plans sociaux, financiers et juridiques. Ces bases de données sont alimentées par des flux d’information (entre citoyens, entreprises, employeurs et administrations) véhiculant un grand nombre d’anomalies formelles (valeurs déviantes par rapport aux valeurs attendues) dont la gestion est
-
Améliorer la qualité de l’information : du “stemma codicum” au “data tracking”
Au Moyen-âge, le processus de transformation de l’information, avant l’invention de l’imprimerie, se déployait de siècles en siècles avec les générations de moines copistes. Afin d’établir l’appareil critique d’un manuscrit (dont on dispose souvent de multiples copies divergentes et dont on a parfois perdu l’original), l’historien construit un stemma codicum (généalogie des données), technique d’analyse
-
Gestion intégrée des anomalies – Évaluer et améliorer la qualité des données
Comme le confirment les consultances de terrain, ou encore les résultats des travaux scientifiques ou « marketing », comme ceux de Gartner en 2010, la qualité des données revêt toujours des enjeux stratégiques pour l’egovernment. Par exemple, en Belgique, la DmfA (Déclaration Multifonctionnelle – Multifunctionele Aangifte) permet le prélèvement annuel d’environ 40 milliards d’euros de
-
Gestion intégrée des anomalies – Evaluer et améliorer la qualité des données
Comme le confirment les consultances de terrain, ou encore les résultats des travaux scientifiques ou « marketing », comme ceux de Gartner en 2010, la qualité des données revêt toujours des enjeux stratégiques pour l’egovernment. Par exemple, en Belgique, la DmfA (Déclaration Multifonctionnelle – Multifunctionele Aangifte) permet le prélèvement annuel d’environ 40 milliards d’euros de
-
Talend neemt Sopera over: open source datamanagement + applicatie-integratie
De overname van Sopera (open source SOA en middleware) door Talend (open source data integratie en data management) creëert een heel sterke pure play open source middleware vendor, die kan profiteren van de synergie tussen data management en applicatie-integratie. Dit is m.i. goed gezien, want vaak zijn de redenen voor het falen van SOA-projecten e.d.
-
Data Quality Tools voor Smals: het begin van een succesverhaal?
Sinds begin 2010 beschikt Smals over Data Quality Tools: Trillium Software System (TS Discovery & TS Quality), geïntroduceerd door de dienst Onderzoek na een uitgebreide studie en een tweefasig lastenboek. De cel Data Quality zet deze tools nu met succes in bij twee heel tevreden klanten (zie onder), een derde klant staat te trappelen (KSZ).
-
JSTOR/Harvard Object Validation Environment (JHOVE) 1.5
File Format Identification and Validation Tool
Keywords:
analytics annexe_category Artificial intelligence big data blockchain BPM chatbot cloud computing cost cutting cryptography data center data quality development EDA egov Event GIS Knowledge Graph Machine Learning methodology Mobile Natural Language Processing NLP Open Source PaaS Privacy Productivity quantum computing Security software design

