Big Data : littéralement « grosses données » ou mégadonnées, désigne l’ensemble de données de plus en plus volumineux accessible aux entreprises. Et par extension, les solutions pour les analyser de façon plus efficace vendues par les éditeurs et les consultants.
Hadoop : Ensemble de composants logiciels libres pour permettre la création d’applications distribuées et par ce biais le traitement et l’analyse de très grandes quantités de données à moindre coût.
Cluster : système informatique composé d’unités de calcul autonomes qui sont reliées entre elles à l’aide d’un réseau de communication. Permet de traiter de grande quantité de données sans avoir un seul ordinateur très puissant.
Proof of Concept : souvent abrégé en PoC. Test grandeur nature d’une application informatique avant de la déployer dans le système d’information.