Qu'est-ce que le "Big Data" ? | CELGE

Qu’est-ce que le « Big Data » ?

Big Data, c'est quoi ?


Le terme « Big Data » est dans l’air du temps. Appartenant aux éléments de langage de la transformation numérique, l’expression Big Data est partout : journaux, télévision et bien sûr Internet. Un moteur de recherche donnera ainsi plus de 300 000 000 de réponses pour la requête « Big Data » soit six fois plus que pour la requête « données informatiques ». Regardons de plus près ce que la réalité désignée par l’expression « Big Data ».

Le « Big Data », c’est quoi ?

Le terme Big Data est un anglicisme, que l’on peut traduire par « grosses données », (en français le mot recommandé est « mégadonnées » ou « données massives« ). Il traduit un volume de données qui est difficilement appréhendable tant ce volume est important. En fait, ce dernier est tellement conséquent que « mégadonnées » semble être un euphémisme, « pétadonnées » le serait également. Le terme est né à la fin des années 90 quand des chercheurs ont constaté une des conséquences de la loi Moore : les capacités de stockage et de calcul, qui augmentent sans cesse, ont abouti à un volume de données générées qui dépasse les facultés de représentations humaines. L’essor d’internet a eu un effet multiplicateur sur la génération de données à l’échelle mondiale. Cet énorme amas d’informations, en flux continu, constitue ce que l’on désigne comme le Big Data.

Le Big Data : un ensemble de données hétérogènes

Les données qui constituent cet ensemble chaotique sont de natures et de provenance très diverses : elles sont non structurées ou semi-structurées et générées par des sources multiples. L’exploration de ces données, le (data mining), est un des enjeux majeurs de l’IT de notre époque. L’exploration de données et leur visualisation (DataViz) ainsi que les bénéfices qu’on peut en retirer sont autant d’arguments qui poussent au développement de solutions de BI ou modules prédictifs par exemple. Il s’agit de structurer les données, de les rendre intelligibles en les modélisant, puis de les exploiter à diverses fins. Le volume considérable de données ainsi traité permet d’obtenir des échantillons statistiques suffisamment pertinents pour développer des modèles prédictifs éprouvés.

Lire aussi : « BI (Business Intelligence) : mieux piloter son entreprise« 

Une augmentation exponentielle

On compare parfois l’explosion du Big Data au Big Bang qui fût lui aussi suivi d’une phase soudaine d’expansion de l’Univers. Il en va de même dans le cyberespace : ce dernier gagne en importance chaque jour et, conséquemment, les données générées également. Les outils de collectes se multiplient et rien ne semble pouvoir atténuer cette croissance exponentielle. Les objets connectés – (IoT) –  par exemple sont autant de nouvelles sources de données. Selon une étude IDC, les données numériques créées dans le monde atteindraient 40 zettaoctets d’ici 2020. Un zettaoctet vaut 1021 octets, ce qui représente grosso modo le volume d’informations qui serait stockées sur deux mille milliards de DVD, ce qui est de très loin supérieur à la production annuelle mondiale.

Cette augmentation effrénée se renforce en réalité d’elle même : l’analyse du big data engendre de la data… Le phénomène a tant d’ampleur que nous sommes déjà en retard dans les outils dont nous disposons, aussi bien techniques que législatifs, pour gérer son analyse et ses conséquences. Le Big Data est même un moteur de la recherche sur l’IA car il n’est pas appréhendable tel quel en termes de volume et de vélocité par des systèmes informatiques classiques. La recherche sur le Big Data est devenu un enjeu crucial pour nombre d’institutions publique et privées qui auront à gérer l’après « transformation digitale ».

Lire aussi : « 5 minutes pour comprendre « la transformation digitale »« 

Applications progicielles du Big Data

Les domaines applicatifs liés de près ou de loin au Big Data ne cessent de s’enrichir et les possibilités se diversifient. Le traitement des données connaît des applications dans les modules prédictifs de nombre de solutions de gestion informatisées, l’ERP bien sûr ou encore des solutions de gestions plus spécialisées GPAO, WMS, ou encore CRM.

Lire aussi : « ERP et analyse prédictive« 

Les informations que les entreprises peuvent exploiter touchent tous les niveaux : modélisation de comportements clients, Informatique Décisionnelle… Les éditeurs de logiciels font face à un challenge inédit : proposer des solutions performantes aptes à travailler avec un volume de données qui ne cesse d’augmenter. Le cloud computing, la virtualisation et le développement de technologies issues des neurosciences sont autant de pistes pour faire face à ce qui ressemble à un tsunami d’informations. Mais jusqu’où ira le Big Data ?


Notre comparateur en ligne gratuit vous aide à comparer et trouver votre solution en moins de cinq minutes.

J'identifie mon progiciel en moins de cinq minutes !
Gratuit et sans engagement

Découvrez nos pages sur les mêmes thématiques :

Comme plus de 20 000 personnes par mois,appuyez-vous sur notre expertise en consultant :

+

Houhou, comparez les logiciels de gestion d'entreprise qui correspondent à votre besoin. C’est gratuit et sans engagement !

Par ici !