{{filteredTerms.length}} search results for “{{searchTerm}}”

{{ term.header }}

{{ term.summary }}

Lisez plus

Qu’est-ce qu’un entrepôt de données actif ?

Un entrepôt de données actif, en anglais Active Data Warehouse (ADW), fait référence à la combinaison de produits, de fonctionnalités, de services et de partenariats commerciaux qui sous-tendent la stratégie d'intelligence active de l'enterprise. Ce terme a été inventé en 2001 par Teradata.

Lisez plus

Qu’est-ce qu’un algorithme ?

Dans le contexte du Big Data, les algorithmes constituent la principale méthode pour découvrir de nouvelles informations et repérer des schémas. Ils jouent donc un rôle essentiel pour mener à bien les projets de Big Data.

Lisez plus

Qu’est-ce qu’une plateforme d’analyse de données ?

Une plateforme d’analyse de données est une solution technologique complète conçue pour répondre aux besoins des grandes entreprises. Elle associe généralement différents outils et systèmes d’analyse avec un moteur d'exécution, une base ou un référentiel pour le stockage et la gestion des données, des processus d’exploration des données, ainsi que des techniques et des mécanismes qui permettent de collecter et de préparer les données qui ne sont pas stockées.

Lisez plus

Qu’est-ce qu’Apache Hive ?

Apache Hive est une infrastructure d’entrepôt de données open source qui fournit des outils permettant de synthétiser, d'interroger et d’analyser des données. Elle est spécialement conçue pour permettre l’analyse d'ensembles de données volumineux stockés dans des fichiers Hadoop ou des systèmes de fichiers compatibles, tels qu’Amazon S3. Hive a été initialement développée en 2008 par des ingénieurs de données de Facebook, mais elle est désormais exploitée par de nombreuses autres entreprises.

Lisez plus

Qu'est-ce que l'analyse comportementale ?

L’analyse de données comportementales, ou analyse comportementale, mesure la façon dont les utilisateurs exploitent les applications numériques (Web, mobile ou IoT) et la manière dont des points de données apparemment sans rapport pemettent d'expliquer ou de prédire certains résultats.

Lisez plus

Qu’est-ce que le Big Data ?

Le Big Data est un regroupement d’ensembles de données trop volumineux et trop complexes pour être manipulés ou interrogés à l'aide d'outils classiques.

Lisez plus

Qu’est-ce que l'analyse du Big Data ?

L’analyse du Big Data fait référence à la stratégie d’analyse de vastes volumes de données recueillies à partir d'une grande variété de sources, y compris les réseaux sociaux, les vidéos, les images numérisées, les capteurs et les transactions commerciales.

Lisez plus

Qu’est-ce qu’un plan de continuité d'activité ?

Un plan de continuité des activités (PCA) est un document détaillé qui décrit comment une entreprise continuera de fonctionner en cas d’interruption de service imprévue. Le PCA n’est pas seulement une exigence réglementaire dans de nombreux secteurs, mais devrait être considéré comme un guide qui permet de réduire le temps nécessaire au retour à la normale des opérations. Il joue un rôle essentiel dans la résilience opérationnelle d’une entreprise.

Lisez plus

Qu’est-ce que la business intelligence ?

La business intelligence (BI) analyse les données métier et présente des rapports faciles à déchiffrer, des mesures de performance et les tendances qui orientent les décisions en matière de gestion de l'entreprise.

Lisez plus

Qu’est-ce que Cascading ?

Cascading est une plateforme de développement d’applications de Big Data sur Hadoop. Elle fournit un moteur de calcul, un cadre d’intégration de systèmes, ainsi que des capacités de traitement et de planification des données.

Lisez plus

Qu’est-ce qu’une plateforme de données client ?

Une plateforme de données client, en anglais Customer Data Platform (CDP), est un type de logiciel packagé qui permet de créer une base de données client robuste et unifiée à laquelle d’autres systèmes peuvent accéder.

Lisez plus

Qu’est-ce que l'informatique dans le cloud ?

L’informatique dans le cloud, en anglais cloud computing, fait référence à la pratique consistant à utiliser un réseau de serveurs distants pour stocker, gérer et traiter des données (plutôt qu’un serveur sur site ou un ordinateur personnel) en fournissant un accès à ces données via une connexion Internet (le cloud).

Lisez plus

Qu’est-ce que l’analyse en clusters ?

L’analyse en clusters, ou clustering, est une technique ou une activité de classification statistique qui consiste à rassembler un ensemble d’objets ou de données similaires au sein d'un même groupe (appelé "cluster") qui se distingue des autres clusters.

Lisez plus

Qu’est-ce que l’analyse comparative ?

L’analyse comparative fait référence à la comparaison de deux ou plusieurs processus, documents, ensembles de données ou autres objets. L’analyse de modèles, le filtrage et l’analyse d’arbres de décision sont des formes d’analyse comparative.

Lisez plus

Qu’est-ce que la concurrence ou l'informatique simultanée ?

La concurrence ou l'informatique simultanée fait référence à un type de traitement informatique dans lequel plusieurs tâches sont exécutées simultanément ou se chevauchent. Ces tâches peuvent être gérées par des ordinateurs individuels, des applications spécifiques ou sur des réseaux.

Lisez plus

Qu’est-ce que l'analyse des connexions ?

L’analyse des connexions est une discipline émergente qui permet de découvrir les connexions et les influences qui sont à l'origine de elations d'interdépendance entre les personnes, les produits, les processus, les machines et les systèmes au sein d’un réseau, en cartographiant ces connexions et en assurant un suivi continu des interactions entre chaque élément.

Lisez plus

Qu’est-ce que l’analyse des corrélations ?

L’analyse des corrélations fait référence à l’application de l’analyse statistique et d’autres techniques mathématiques pour évaluer ou mesurer les relations entre les variables.

Lisez plus

Qu’est-ce qu’un analyste de données ?

Les analystes de données, en anglais data analysts, ont pour objectif essentiel de permettre l'opérationnalisation du Big Data au sein de fonctions ou de processus spécifiques, en mettant clairement l’accent sur les tendances en matière de performance et les informations opérationnelles.

Lisez plus

Qu’est-ce que l’analyse de données ?

L’analyse de données est une inspection autonome ou semi-autonome de données ou de contenus au moyen de techniques et d’outils élaborés allant au-delà du Business Intelligence (BI) classique, avec pour objectifs la découverte d’informations approfondies, l’établissement de prévisions ou la formulation de recommandations. Parmi ces techniques figurent l’extraction de données (data mining) ou de texte, le Machine Learning, le filtrage par motif (pattern matching), les prévisions, la visualisation, l’analyse sémantique, l’analyse de sentiment, la théorie des réseaux, le partitionnement de données en clusters, les statistiques multivariées, la théorie des graphes, les simulations, le traitement des événements complexes ou encore les réseaux neuronaux.

Lisez plus

Qu’est-ce qu'une architecture de données ?

Teradata Unified Data Architecture est la première architecture complète de Big Data. Ce cadre architectural exploite les référentiels relationnels et non relationnels grâce à des analyses SQL et non-SQL.

Lisez plus

Qu’est-ce que le nettoyage des données ?

Le nettoyage des données est un processus de détection, de correction ou de suppression des données ou des enregistrements inexacts au sein d’une base de données.

Lisez plus

Qu’est-ce que la gravité des données ?

La gravité des données naît de l'augmentation de la quantité et du nombre d'utilisation des données au sein d'un référentiel, ce qui rend les processus de copie ou de migration de ces données coûteux en ressources et en argent.

Lisez plus

Qu’est-ce qu’un data lake ?

Les data lakes complètent les entrepôts de données grâce à leur modèle de conception qui met l’accent sur la fidélité des données brutes d’origine et le stockage sur le long terme à moindre coût, tout en offrant une nouvelle forme d’agilité en matière d'analyse de données.

Lisez plus

Qu’est-ce que la latence des données ?

La latence des données désigne la capacité à charger des données et à les mettre à jour quasiment en temps réel, tout supportant des charges de travail liées aux requêtes.

Lisez plus

Qu’est-ce qu’un data mart ?

Un data mart est un sous-ensemble orienté sujet du modèle logique de l’entrepôt des données destiné à un petit groupe d’utilisateurs.

Lisez plus

Qu’est-ce que le data mining ?

Le processus de data mining ou d'exploration des données, consiste à analyser des modèles de données cachés selon différentes perspectives pour les catégoriser en informations utiles, qui sont collectées et rassemblées sur un emplacement commun, comme un entrepôt de données.

Lisez plus

Qu’est-ce que la modélisation des données ?

Les modèles de données créés sur mesure pour des secteurs ou des fonctions métier spécifiques peuvent constituer une base solide ou un « tremplin » pour les programmes et les investissements en matière de Big Data.

Lisez plus

Qu’est-ce que le volume de données ?

Le volume de données fait référence aux pétaoctets de données stockées et traitées de manière native ou au sein d'une solution de stockage objet.

Lisez plus

Qu’est-ce qu’un entrepôt de données ?

En informatique, un entrepôt de données (DW ou DWH), également connu sous le nom d’entrepôt de données d’entreprise (EDW), est un système utilisé pour le reporting et l’analyse de données.

Lisez plus

Qu’est-ce que le deep learning ?

Le deep learning, également appelé deep neural learning ou deep neural network, est une fonction de l’intelligence artificielle (IA) qui copie le cerveau humain dans sa manière de traiter les données et de créer des modèles qui visent à faciliter la prise de décisions.

Lisez plus

Qu'est-ce que l'analyse descriptive ?

L'analyse descriptive fait référence à l’analyse des données historiques afin de déterminer ce qui est arrivé, ce qui a changé et quels modèles il est possible d'identifier.

Lisez plus

Qu’est-ce que l’ETL ?

« Extraction, Transformation et Chargement », en anglais Extract, Transform and Load (ETL) fait référence au processus d’entreposage de données capable de lire (ou d'extraire) des données à partir de systèmes sources, de les convertir (ou de les transformer) dans un format plus adapté aux requêtes et aux analyses, et de les télécharger dans un entrepôt de données, une base de données ODS (Operational Data Store) ou un data mart simultanément.

Lisez plus

Qu’est-ce qu’un exaoctet ?

Équivalant à 1000 pétaoctets ou à un milliard de gigaoctets (Go), un exaoctet (Eo) est une unité de mesure de la quantité de données numériques extraordinaire. Certains spécialistes de la technologie estiment que tous les mots prononcés par l'humanité toute entière au cours de son histoire correspondent à cinq exaoctets.

Lisez plus

Qu’est-ce que l'analyse de données financières ?

L’analyse de données financières, ou analyse financière, offre différentes perspectives sur les données financières d’une entreprise, en fournissant des informations de nature à faciliter la prise de décisions stratégiques et à motiver des actions qui améliorent la performance globale de l’entreprise.

Lisez plus

Qu’est-ce qu'Hadoop ?

Hadoop est une plateforme de gestion de données distribuée ou un cadre logiciel open source destiné au stockage et au traitement du Big Data. Hadoop est parfois décrit comme une forme de système d’exploitation distribué et allégé.

Lisez plus

Qu’est-ce que le cloud hybride ?

Le cloud hybride est la combinaison d’un environnement déployé sur site et dans le cloud. Que les ressources d’une entreprise se trouvent dans un environnement sur site, de cloud privé, public ou multicloud, un écosystème cloud hybride réunit les avantages de toutes ces formules, c’est-à-dire sur site ou dans le cloud selon les besoins.

Lisez plus

Qu’est-ce que l’Internet of Things (IoT) ?

L’Internet of Things (IoT), également appelé l'Internet des objets, est un concept qui décrit la connexion d’objets et de produits physiques du quotidien à Internet afin qu’ils puissent être reconnus (grâce à des identifiants uniques) par et être liés à d’autres appareils.

Lisez plus

Qu’est-ce que le machine learning ?

Le machine learning est un type d’intelligence artificielle (IA) qui permet aux ordinateurs d’apprendre sans être programmés de manière explicite. Il se concentre sur le développement de programmes informatiques capables d'apprendre, d'évoluer et de se transformer lorsqu’ils sont exposés à de nouvelles données.

Lisez plus

Qu’est-ce que la gestion des données de référence ?

La gestion des données de référence, en anglais Master Data Management (MDM), offre une image unifiée des données sur plusieurs systèmes pour répondre aux besoins des entreprises internationales en matière d'analyse de données. Si les données de base et de référence permettent de décrire des clients, des produits, des fournisseurs, des emplacements ou d'autre éléments essentiels, la MDM en fournit une image unique.

Lisez plus

Qu’est-ce que les métadonnées ?

Les métadonnées sont des données qui décrivent d’autres données en continu et de manière structurée, afin de permettre la collecter, le stockage et l'analyse de vastes quantités de données au fil du temps.

Lisez plus

Qu’est-ce que la charge de travail mixte ?

Une charge de travail mixte désigne la capacité à prendre en charge plusieurs applications avec des accords de niveau de service différents au sein d’un seul et même environnement.

Lisez plus

Qu’est-ce que MongoDB ?

MongoDB est une base de données open source multiplateforme qui s’appuie sur un modèle de données centré sur les documents,à la différence d'une structure de base de données relationnelle traditionnelle qui se fonde sur des tableaux. Ce type de modèle facilite et accélère l'intégration de données structurées et non structurées.

Lisez plus

Qu’est-ce que le traitement du langage naturel ?

Le traitement du langage naturel, en anglais Natural Language Processing (NLP), est une branche de l’intelligence artificielle qui vise à rendre le langage humain (écrit et oral) compréhensible pour les ordinateurs.

Lisez plus

Qu’est-ce que la résilience opérationnelle?

La résilience opérationnelle désigne la capacité d'une entreprise à continuer à fonctionner en cas de perturbation. Les considérations relatives à la résilience opérationnelle ont de multiples facettes. Ils comprennent - sans s'y limiter - les processus, les capacités, les comportements et les systèmes. Par exemple, la résilience opérationnelle peut désigner la capacité d'une entreprise à continuer à fournir ses produits, et ce même en cas de perturbations imprévues sur la chaîne d'approvisionnement. De même, la capacité d'une entreprise à transférer ses données sur site alors que son principal fournisseur de services cloud a rencontré une panne importante est un facteur déterminant de son niveau de résilience opérationnelle.

Lisez plus

Qu’est-ce que la reconnaissance des formes ?

La reconnaissance des formes se produit lorsqu'un algorithme localise des récurrences ou des régularités au sein d'ensembles de données volumineux ou disparates. Elle est étroitement liée, voire considérée comme un synonyme de machine learning et data mining.

Lisez plus

Qu’est-ce qu’un pétaoctet ?

Un pétaoctet est une unité de données numériques extrêmement vaste qui équivaut à 1 000 téraoctets. Selon certaines estimations, un pétaoctet correspond environ à 20 millions de grands meubles de classement ou à 500 milliards de pages de texte imprimées au format standard.

Lisez plus

Qu'est-ce que l'analyse prédictive ?

L’analyse prédictive fait référence à l'analyse du Big Data afin de prédire et de déterminer la probabilité de futurs résultats, événements ou tendances.

Lisez plus

Qu'est-ce que l'analyse prescriptive ?

L’analyse prescriptive est une forme ou une extension de l’analyse prédictive. Elle a pour fonction d'émettre des recommandations ou de prescrire des actions spécifiques lorsque certains états d'information sont atteints ou lorsque certaines conditions sont remplies.

Lisez plus

Qu’est-ce que Python ?

Python est un langage de programmation de haut niveau interprété, orienté objet et à sémantique dynamique. Python est réputé pour être un langage qui convient très bien aux débutants et a remplacé Java en tant que langage d'initiation à la programmation le plus utilisé, car il soulage l'utilisateur d'une grande partie de la complexité liée à la programmation. Il permet ainsi aux débutants de se concentrer sur la maîtrise des concepts de programmation plutôt que sur de menus détails.

Lisez plus

Qu’est-ce que R ?

R est un langage de programmation open source destiné aux analyses statistiques. Il comprend notamment une interface de ligne de commande et plusieurs interfaces graphiques. Les types d'algorithmes les plus populaires comprennent la modélisation linéaire et non linéaire, l'analyse des séries temporelles, la classification et le clustering.

Lisez plus

Qu’est-ce que le Retail Analytics ?

Retail Analytics désigne l’analyse de données générées par les opérations de vente de détail afin de prendre des décisions commerciales qui favorisent la rentabilité. L'exploitation du Retail Analytics s'est développée en réponse à la transformation de la vente au détail induite par des transformations sans précédent portant sur le comportement des consommateurs, l'intensification de la pression sur les marges, l'évolution du rôle des magasins et le développement de la concurrence dans les canaux en ligne et hors ligne.

Lisez plus

Qu’est-ce que la gestion des risques ?

Egalement connue sous le nom de « minimisation des risques », la gestion des risques est un processus qui consiste à calculer le niveau maximal acceptable de risque lié à l'activité d'une entreprise, puis à utiliser des techniques d'évaluation des risques pour déterminer le degré de risque initial. Si le risque déterminé est jugé excessif, le processus élabore une stratégie pour minimiser les risques individuels et spécifiques jusqu'à ce que le niveau de risque collectif retrouve un niveau acceptable.

Lisez plus

Qu’est-ce que le RTIM ?

Le RTIM ou le Real Time Interaction Management (gestion des interactions en temps réel) utilise les interactions client en temps réel, la modélisation prédictive et le machine learning pour offrir des expériences client cohérentes et personnalisées sur tous les canaux.

Lisez plus

Qu’est-ce que les données semi-structurées ?

Les données semi-structurées ne suivent pas le format d’un modèle de données tabulaire ou de bases de données relationnelles car elles n’ont pas de schéma fixe. Cependant, les données ne sont pas complètement brutes ou non structurées et contiennent certains éléments structurels tels que des balises et des métadonnées organisationnelles qui facilitent leur analyse.

Lisez plus

Qu’est-ce que l’analyse des sentiments ?

L’analyse des sentiments consiste à capturer et à assurer le suivi des opinions, des émotions ou des sentiments exprimés par les consommateurs engagés dans toutes sortes d’interactions, comme des publications sur les réseaux sociaux, des entretiens téléphoniques avec le service client ou des sondages.

Lisez plus

Qu’est-ce qu’une stressed exit ?

Une stressed exit consiste à se retirer d’un accord d’externalisation à la suite de la défaillance ou de l’insolvabilité du fournisseur de services. Une non-stressed exit consiste à se défaire d’un accord d’une manière davantage planifiée et gérée pour des raisons stratégiques, commerciales ou de performance.

Lisez plus

Qu’est-ce que les données structurées ?

Les données structurées font référence aux ensembles de données dotés d’une organisation solide et cohérente. Elles sont gérées par le langage de programmation Structured Query Language (SQL), grâce auquel les utilisateurs peuvent facilement rechercher et manipuler les données.

Lisez plus

Qu’est-ce qu’un téraoctet ?

Équivalent à 1 000 gigaoctets, un téraoctet (abrégé en To) est une unité de données numériques assez conséquente. On estime que 10 téraoctets pourraient contenir la totalité de la collection imprimée de la bibliothèque du Congrès des États-Unis, tandis qu'un seul téraoctet pourrait contenir 1 000 exemplaires de l’Encyclopædia Britannica.

Lisez plus

Qu’est-ce que les données non structurées ?

Les données non structurées font référence à des informations non filtrées, sans principe d'organisation fixe, et sont souvent appelées « données brutes ». Les fichiers log, XML, JSON, les documents textuels, les images, ainsi que les fichiers vidéo et audio en sont des exemples courants.

Lisez plus

Que désignent les 5 V du Big Data ?

Le Big Data, ainsi que les opportunités et les défis métiers qui lui sont associés, est souvent perçu ou décrit selon plusieurs termes en « V », à savoir : le volume, la valeur, la variété, la vélocité et la véracité.

Lisez plus

Qu’est-ce que le VPC ?

L’acronyme « VPC » signifie Virtual Private Cloud ou « cloud privé virtuel ». Il s'agit d'un espace réseau virtuel personnel et privé, hébergé dans un environnement de cloud public. Chaque VPC est sécurisé et isolé de manière logique des autres réseaux virtuels contenus au sein du même cloud public.

Lisez plus

Vous voulez voir ces concepts à l'œuvre ?

Découvrez Vantage