Artículos de revistas
Les nouvelles technologies face à l’historiographie positiviste de l’histoire de France : étude sur le 19ème siècle en français : enjeux et perspectives
Fecha
2015-01-01Autor
Bailblé, Olivier
Bailblé, Eric
Institución
Resumen
Cet article a donné la possibilité de rendre compte d’une analyse lexicale du 19ème siècle français dans l’édition mondiale produite durant les 19ème et 20ème siècles à l’aide d’un nouvel outil lexicométrique nommé « N-gram-Viewer » (visualisateur de fréquence de mots). Cet instrument numérique en ligne sur l’Internet nous a permis de réaliser une approche assez précise des occurrences lexicales des deux derniers siècles. Ce logiciel qui manipule un corpus de 5 millions de livres numérisés est à la fois linguistique et historique. Il offre en effet des possibilités nouvelles pour apprécier et expliquer l’histoire du 19ème siècle français entre mythe et réalité.La problématique centrale de cet article a donc été la suivante : dans quelle mesure peut-on dire que les nouvelles technologies linguistiques permettent d’obtenir un autre re- gard sur l’histoire dite traditionnelle d’un pays ? Et plus avant encore : dans quelle mesure peut-on dire aussi qu’une analyse structurelle macro-lexicale peut débusquer des représen- tations inédites et constitutives gravitant autour des « Grands Hommes » liés naturellement à l’histoire événementielle ou des positivistes d’un pays ?Les données obtenues ont permis de construire des courbes d’occurrences lexicales (nommées N-grammes) qui nous ont donné accès à un monde numérique jusqu’ici caché. Cet outil nous a permis surtout de voir un double immatériel de la mémoire de l’humanité car il offre l’accès à des traitements algorithmiques accélérés et à des enregistrements mas- sifs d’information connectés à l’édition mondiale.La science de fouilles de données (data mining), la science de réseaux (les graphes obtenus par l’Internet) et leur mise à jour par des « datas centers », tels ont été les trois pa- ramètres essentiels de cette recherche. Ces trois aspects techniques ont constitué la toile de fond de cette étude qui dispose au final de plus de 500 milliards de mots, soit environ 5 téraoctets. La création numérique de ce méga-texte réalisé par les laboratoires « Google » et l’université d’Harvard en 2010 a donc ouvert des perspectives inédites entre culture et nu- mérique, d’où le néologisme récent de « Culturomique » pour nommer ce microscope d’analyse linguistique au service de l’histoire. This article presents a lexical analysis of the 19th century French edition produced in the world during the 19th and 20th centuries with a new lexicometric tool called "N-gram-Viewer" (word frequency browser). This online digital instrument allowed to do a fairly accurate approach to the lexical occurrences of the last two centuries. This program, which handles a corpus of 5 million numbered books, is at the same time linguistic and historical. Indeed, it offers new possibilities to appreciate and explain the French story of the XIX century amongst myths and realities.Actually, the burning issue of this article could be therefore summarized as follows: to what extent can one say that the new linguistic technologies allow to get another look at the so-called traditional history of a country? And further still. To what extent can we also say that a macro-structural lexical analysis can uncover unprecedented and constitutive representations gravitating around the "Great Men", who are naturally linked to the chronological or positivist history of a country?The data obtained allowed to construct the curves from lexical occurrences (named “N-grams"). These curves gave us access to a digital world up here hidden. This tool, thus, gave us the possibility to see an intangible double of the memory of humanity as it offered access to algorithmic and accelerated treatments and massive information records connected to the world edition.The science of searching of data (data mining), the science of networks (the graphs obtained by Internet), and their update by "data centers", are three essential parameters in our research. These three technical aspects formed the backdrop for this study that also has 500 billion words, that is to say, approximately 5 terabytes. The numeric creation of this mega-text performed by the "Google laboratories” and the University of Harvard in 2010, has opened fresh perspectives between culture and numeric aspects, from there we get the recent neologism “culturomics” to crystallize this study. A new linguistic tool connected with History. El presente artículo dio la posibilidad de dar cuenta de un análisis lexical del siglo XIX francés en la edición mundial francesa producida durante los siglos XIX y XX con la ayuda de una nueva herramienta lexicométrica llamada N-gram-viewer (visualizador de frecuencia de palabras). Dicho instrumento virtual en línea permitió realizar una aproximación bastante precisa de las ocurrencias lexicales de los dos últimos siglos. Este programa, que maneja un corpus de 5 millones de libros virtuales, es a la vez lingüístico e histórico. En efecto, ofrece nuevas posibilidades para apreciar y explicar la historia francesa del siglo XIX entre mitos y realidades.La problemática central de este artículo fue la siguiente: ¿En qué medida se puede afirmar que las nuevas tecnologías lingüísticas permiten obtener otra mirada acerca de la historia llamada “tradicional” de un país? Y más aún: ¿En qué medida se podría afirmar que un análisis estructural macro-lexical puede encontrar representaciones inéditas y constitutivas que gravitan alrededor de los “Grandes Hombres” ligados naturalmente a la historia cronológica o positivista de un país?Los datos obtenidos permitieron construir curvas de ocurrencias lexicales llamadas N-grammes que nos dieron acceso a un mundo virtual hasta ahora oculto. Esta herramienta nos permitió sobre todo ver un doble inmaterial de la memoria de la humanidad ya que dio acceso a tratamientos algorítmicos acelerados y a grabaciones masivas de información conectadas a la edición mundial.La ciencia de búsqueda de datos (data mining), la ciencia de redes (grafos obtenidos por Internet) y su actualización por data centers, fueron los tres parámetros esenciales de esta investigación. Estos tres aspectos técnicos constituyeron el telón de fondo de este estudio que dispone de más de 500 mil millones de palabras, es decir, cerca de 5 terabytes. La creación virtual de este mega-texto, realizada por los laboratorios de Google y la Universidad de Harvard en 2010, ha abierto nuevas perspectivas entre la cultura y lo virtual, de ahí el neologismo reciente de la “culturomique” para nombrar este microscópico de análisis lingüístico al servicio de la historia.