Big data : un système à double tranchant

Chaque jour, Twitter publie 7 téraoctets de données. Cela représente la moitié du contenu de la Bibliothèque Nationale de France qui compte 14 millions d’ouvrages. Les masses de données, ou Big data, sont d’une quantité faramineuse et toujours en mouvement. Elles enregistrent et conservent toutes les informations, sans échantillonnage, ce qui permet d’une part de réaliser un profilage des utilisateurs, d’autre part de traiter des données en masse. « On ne sait pas toujours à quoi elles vont servir, mais elles permettent de trouver des corrélations entre les paramètres, comme par exemple le mode de vie et certaines maladies, explique Jean-Gabriel Ganascia, spécialiste de l’intelligence artificielle. Cela donne des résultats extraordinaires, le programme Facenet de Google, par exemple, a été entraîné à reconnaître les visages sur 200 millions d’images et son taux de fiabilité est de 99,63% ». Un résultat qui ne serait pas possible sans la main de l’homme qui a fourni les images, les a étiquetées et a conçu le programme.

« Le système est admirable, mais extrêmement dangereux, interpelle le philosophe Bernard Stiegler. Nous avons produit une technologie purement et simplement computationnelle qui pose que tout est calculable et c’est absolument faux. » Un système dynamique laisse la place pour la création, l’anomalie, la divergence ou l’innovation, mais la machine évacue les exceptions, prend pour référence l’homme moyen et n’est capable que de répétition. Chaque utilisateur est profilé à travers ses actions. Il confie au système sa mémoire externalisée sur laquelle la machine opère des calculs bien plus rapides que le cerveau humain. En devançant ses désirs, il le court-circuite et lui enlève la capacité de réflexion. « L’enjeu est de mettre les algorithmes au service de la raison. Le calcul, il faut bien s’en servir, mais il faut le limiter », conclut-il.