Sciences et big data : La fin de la théorie ?

(…) La science expérimentale consiste à faire des mesures pour les confronter avec des prédictions de modèles théoriques.

Jusqu’au XXe siècle, les données étaient rares et chères : on montait des « manips » pour mettre en évidence (ou invalider) certaines de ces prédictions et l’on faisait des mesures sur ces montages. Ces montages coûtaient souvent très cher, les protocoles étaient complexes et coûteux, il fallait financer des laboratoires onéreux et un personnel nombreux et qualifié. Parfois, les mesures obtenues étaient aléatoires, et la tentation étaient forte de « solliciter » les données (en éliminant par exemple des « mesures aberrantes ») pour obtenir le résultat cherché. D’où l’importance des « cahiers de laboratoire » à la disposition des referee : il était très important de pouvoir reproduire les expériences dans d’autres laboratoires.

Aujourd’hui, les données (« Data ») sont abondantes et bon marché. Est-ce que cela change la philosophie de leur exploitation ? (…) »