Méditation à partir du billet de François Bon: « mémoire vive contre mémoire vide« , qui réagit à un article de Pierre Assouline dénonçant, pour aller vite, « la désinvolture de l’époque vis-à-vis de sa mémoire », en pointant du doigt l’outil numérique. Je ne résume pas ici la discussion du Tiers Livre, elle est à tiroirs, puisque Assouline cite de Biasi, le « généticien » des textes, qui regrette évidemment la disparition des brouillons – à quoi Bon répond très justement sur le caractère daté de son modèle. Un chercheur qui dit a un auteur comment écrire pour pouvoir préserver sa méthode me paraît en effet signer sa faillite.
Mais la question ne se limite pas à la mémoire de la littérature. Quels que soient les biais ou les erreurs de raisonnement des Assouline/de Biasi, je crois que leur diagnostic est globalement plutôt exact.
Après 30 ans de transition numérique, je suis frappé de voir à quel point la césure reste ouverte entre le monde spécialisé de l’archive et des métadonnées et le grand public, dépourvu d’outils simples pour gérer lui-même l’histoire de ses travaux électroniques. Comme du temps des bibliothèques, la dimension de l’archive reste aujourd’hui l’apanage des spécialistes.
Mis à part la tentative avortée d’Hypercard, la base de données grand public est restée lettre morte. Malgré la puissance d’archivage mise à notre disposition par l’outil informatique, les fabricants n’ont jamais cru utile de développer nos moyens de revenir en arrière. Ça a commencé avec les logiciels de mail, qui supposaient par défaut l’effacement progressif des courriers reçus. Ça se poursuit avec Facebook, qui n’a modifié que très récemment ses principes d’accès à une mémoire de poisson rouge. Il ne me paraît pas du tout anodin de constater que la meilleure archive de nos circulations en ligne soit celle des serveurs de Google, mémoire tentaculaire à la disposition de l’industrie et du marketing, mais qui n’est accessible à l’usager que par l’étroite fenêtre du search.
La conservation des informations en régime numérique ne se heurte à aucune forme d’impossibilité technique ou culturelle. La situation actuelle est le résultat d’un choix délibéré qui maintient notre dépendance à des outils que nous ne maîtrisons pas. L’informatique et le web nous donnent avant tout les moyens de consommer au présent, tout en réservant la dimension mémorielle à l’expertise des décideurs.
Une mémoire dont nous reprendrions le contrôle devrait être avant tout exportable, et donc s’inscrire dans un format standardisé ouvert. Elle devrait être indépendante des systèmes et des outils, et pouvoir s’étendre à l’ensemble de nos activités. Elle devrait être protégeable, interrogeable, configurable et archivable. Son usage ne devrait pas être réservé à des spécialistes de la gestion de l’information, mais aussi accessible que Facebook, Google ou l’iPhone.
Une mémoire illimitée est une entrave qu’il faut pouvoir contrebalancer par l’oubli, le contrôle et le choix. Mais c’est aussi une puissance dont l’usage devrait être mis à la disposition de chacun. L’écriture avait créé ce couple incroyable d’une information dématérialisée et fluide, associée à la possibilité d’une mémoire robuste. Alors que l’outil informatique est fondamentalement un gestionnaire de mémoire, il a paradoxalement limité notre maîtrise de ce second volet. Il est urgent de rouvrir la réflexion sur l’usage à long terme des ressources numériques.
Ah, non, pas vous !
La mémoire du poisson rouge, c’est bon pour J.-M. Bigard, mais pas vous…
Sinon, comment structurer ma mémoire informatique ? Le changement d’ordinateur (et je n’en suis pas à mon premier…) est, de ce point de vue, un moment révélateur où l’on doit à la fois reprendre l’existant (le contenu du vieux disque dur) en l’élaguant (un peu…) et, se bardant de bonnes résolutions, décider d’organiser le vaste espace où va s’entasser le fruit du labeur et du glanage.
Évidemment, on retrouve bien vite le Georges Perec de « l’art et la manière de ranger (ses livres) »… Même si les liens symboliques permettent de ne pas être complètement enfermé dans une approche unique (à condition de ne pas trop déplacer les répertoires).
@ Simplicissimus: Ah! désolé, mais avant l’instauration récente de la nouvelle Timeline, Facebook n’avait aucune mémoire. Désormais, on peut remonter dans sa propre activité « à la main », mais le moteur de recherche, orienté personnes, groupes et pages, ne permet pas de retrouver du contenu dans ses conversations. La mémoire de Facebook est donc des plus inconfortables – du moins dans l’usage qui nous en est proposé, car côté cuisines, toutes les données sont bien sûr soigneusement conservées, cherchables et exploitables… Le poisson rouge, c’est au fond l’image qu’ont les fabricants de l’usager, jugé comme insoucieux de son archive ou incapable de la gérer.
Je suis, une fois n’est pas coutume, de votre avis. (Non, allez, je plaisante). Et je partage absolument vos énervements quant à l’ergonomie mémorielle de FB (ancien ou « nouveau » avec la Timeline), qui est une calamité (voulue? c’est encore un autre chapitre…).
Ce qui m’étonne, surtout, c’est que je sens bien que la base de données, de manière générale, EST le matériau du futur, surtout pour rendre compte de la complexité croissante du monde. Les graphistes en dataviz y sculptent parfois – pas toujours – des aides sémantiques remarquables, pour le spécialiste ou le simple amateur. Au niveau personnel, l’internaute est en effet très démuni (à moins d’avoir quelques bonnes connaissances en programmation, ce qui est rare). Les disques durs regorgent de données quasi inutilisables, sauf à s’y plonger avec une lampe de poche et des vivres pour une semaine. Pour ma part, c’est la bricole. Ne faisant confiance ni a FB ni à Google, j’ai organisé un « grenier » de quelques teraoctets en guise de mémoire déportée – externalisée.
Espérons qu’un jour quelques fabricants de logiciels rendent les choses plus simples. On trouve des solutions (payantes) sur le web, comme « Ligne de Vie », qui vous permet d’organiser un peu vos données chronlogiquement. Mais c’est encore, à mon sens, assez peu pratique.
@NLR: « La base de données EST le matériau du futur »: Dans mes bras!
C’est aussi probablement le marché du futur. J’attends donc avec impatience le Steve Jobs de l’archive capable de sauver de l’oubli la précieuse mémoire de nos disques durs de plus en plus alourdis…
Il y a le « cloud » et assimilés. Mais j’ai un peu de mal à faire une confiance absolue dans les nuages. On ne sait jamais : un coup de chaud et ils s’évaporent. Sans doute est-ce une question de génération, j’ai comme vous vu grandir le bébé numérique. Dans la classification de Tocqueville, déjà bien amendée (il y aurait désormais cinq ou six pouvoirs, dont la technologie et le « médiatique »), j’en vois pour ma part un nouveau : la maîtrise de la mémoire – exponentielle.
Je partage donc, non sans impatience, votre attente.
D’ailleurs, pendant que j’y suis, vous, André (et d’autres ici ?) qui avez sans doute des entrées ou au moins des contacts au niveau de l’Education et de son ministère, ne trouvez-vous pas qu’on devrait rendre OBLIGATOIRE, désormais, l’apprentissage des langages de programmation pour ce qui concerne, surtout, l’indexation et les BDD, ainsi que leur mise en perspective graphique (notamment avec des logiciels performants type Processing®). Ça me semble aussi capital qu’apprendre l’anglais, franchement. Il faudrait essayer de faire une proposition dans ce sens.
Mmh, pour les contacts, c’est raté – sinon j’aurais développé la formation aux outils numériques dans ma propre maison, l’EHESS, qui est malheureusement un exemple du retard des universités françaises en matière d’usage des ressources numériques… 😉 Aujourd’hui encore, le système mail de l’EHESS impose l’effacement par défaut des courriers. On se dit qu’au XIXe siècle, une université qui aurait proposé de brûler systématiquement la correspondance des savants aurait suscité un tollé…
Sinon, encore une fois, entièrement d’accord: je pense que nous devrions avoir un réseau d’écoles municipales d’informatique équivalent à celui des écoles de musique, capables de proposer à l’ensemble de la population un enseignement intégré, à des coûts modiques, de l’outil et de sa culture. Bon, on dirait que ce n’est pas encore avec le quinquennat Hollande qu’on verra naître ce genre d’institution…
J’en ai bien peur, en effet. Il nous faudrait un président de 25 ans pour ça, un hacker, un mec polydoué, avec un QI de 165 et une grande énergie pour la cause publique. On peut rêver. (Quoique petit à petit, on pourrait peut-être créer des niches d’apprentissage et de sensibilisation, pas un écolage officiel, bien sûr, mais s’y approchant. Le problème est hélas toujours le même : les moyens.
A part ça, beau titre de roman : « La Correspondance des Savants », et sacrée histoire, à la Farenheit 451… 🙂
Bonjour,
Pour la question du manuscrit, l’informatique trace beaucoup mieux le travail de rature d’un auteur. En effet, si vous enregistrez votre texte au format .doc, il contient l’enregistrement de tout vos faits et gestes concernant l’écriture de ce manuscrit : nombre de fois où vous avez ouvert ce ficbier, temps passé lors de chacune des ouvertures, liste des actions durant cette ouverture… En fait, ce format de fichier est un véritable palimpseste.
Je vous défis de trouver l’ensemble de ces détails sur un manuscrit papier. Certes, il faut apprendre un peu de code informatique pour se retrouver dans l’ensemble de ces informations.
Là aussi, les choses ne sont pas manichéennes.
bonne soirée
Hervé Bernard
Pour qu’un fichier Word comprenne la totalité des modifications d’une œuvre écrite, encore faut-il que celle-ci ait été rédigée depuis le début dans un seul et même fichier, et que celui-ci n’ait pas fait l’objet d’une sauvegarde sous un format différent. Une hypothèse de moins en moins probable alors que nos outils d’écriture se multiplient, avec des circulations qui vont du smartphone au traitement de texte en passant par les blogs, les logiciels organiseurs ou les blocs-notes dans les nuages – pour ne rien dire des éventuelles prises de notes manuelles et autres brouillons sur papier…
Mais surtout, encore une fois, ces méta-informations ne sont accessibles qu’à ceux qui ont un minimum de compétences en matière informatique. La question n’est donc pas seulement celle de la conservation de l’information, mais bien de son accessibilité et sa gestion par des usagers non spécialistes.
Je comprends l’ensemble de votre raisonnement, mais je ne suis pas d’accord avec son détail.
Le courriel est effacé sur le serveur, mais l’usage d’un gestionnaire de courriels (Mail, Outlook, Thunderbird, etc.) permet la sauvegarde; de plus, les serveurs de mail étaient jusqu’à présent majoritairement gérés en POP (http://fr.wikipedia.org/wiki/Post_Office_Protocol), qui donne à l’utilisateur la main sur les messages, qu’il conserve sur ses disques durs (aujourd’hui on préconise le protocole IMAP, où le serveur conserve les messages et ou l’utilisateur peut les lire de divers appareils). De plus, en POP, le réglage par défaut était de laisser les mails sur le serveur (il fallait entrer dans les préférences pour lui dire de les effacer). J’ai ainsi en mémoire des mails qui doivent avoir quinze ans. Mais il est plus difficile aujourd’hui qu’il y a quinze ans de conserver ses données, qui progressivement migrent vers le « nuage ». Gmail est utilisé par un nombre croissant de personnes pour ses fonctionnalités, mais ça reste un webmail – les données restent sur les serveurs de Google et l’utilisateur n’en a aucune conservation. Là réside le danger en matière d’archivage personnel, et Google matérialise ce danger plus que tout autre, tant l’entreprise a développé de services « tout en ligne » (gestion et stockage de documents divers). Donnez-moi vos données et je vous garantis que vous y aurez toujours accès, telle pourrait être la devise de Google et de l’ensemble de l’industrie informatique aujourd’hui. Or, la question qui se pose est: peut-on faire confiance à des entreprises privées, incroyablement puissantes, pour s’occuper à notre place de nos données?
Parallèlement, l’espace de sauvegarde personnel a augmenté de manière exponentielle et si ce n’était les inondations thaïlandaises qui ont privé le monde d’approvisionnement en disques durs (la majeure partie des sites de fabrication ayant passé plusieurs semaines sous l’eau), qui ont inversé momentanément la tendance à la baisse du coût au giga-octets, le disque dur était de moins en moins cher, permettant le stockage de tonnes d’informations personnelles: avant les inondations, le disque dur externe 500 go coûtaient autour de 40 euros, et 500 go, c’est bien moins que les données personnelles d’une famille moyenne (textes, films et photos de famille, voire produits dans le cadre du travail). Et tous les systèmes d’exploitation permettent d’accéder directement à un fichier par le biais d’un moteur de recherche interne, quelque soit l’endroit où il est rangé sur le disque dur. De plus, même pour les supports externes, il existe des catalogueurs (dont des logiciels gratuits) qui permettent de répertorier leur contenu.
Je considère donc que nombreux sont les moyens de sauvegarde individuelle de ses données numériques, et aussi nombreux sont les moyens d’y accéder. Pour donner un exemple, si je me souviens avoir écrit une phrase en… 1997 sur mon ordinateur, il me faudra moins d’une heure pour retrouver le document sur laquelle cette phrase a été écrite; si je l’ai écrit dans un document papier, ce sera une autre paire de manches (dans quel cahier, qui est dans quel carton, dans quelle cave ou grenier)…
La base de données que vous appelez de vos vœux n’est qu’une variable technique, qui pose elle aussi les questions d’interopérabilité des logiciels spécialisés. Et, sur ce point, lorsque vous dites que la base de données grand public est resté lettre morte, c’est faux: sur Mac, AppleWorks à longtemps permis la création de base de données, sur PC, Access est un module de base de données intégré à M$ Office, et OpenOffice et son dérivé LibreOffice intègrent un module de base de données, de fait open source et multiplateforme. Aujourd’hui, Filemaker propose Bento sur mac, qui est un logiciel de création de base de données assez facile d’accès. Les bases de données grand public existent, elles sont justes très sous-utilisées. C’est le grand public qui ne voit pas la nécessité de s’en servir. Mais a-t-il vraiment tort?
Notre ordinateur est avant tout une vaste base de données, et depuis qu’il est doté d’un moteur de recherche interne performant, nous n’avons pas beaucoup de besoin de recherche dans nos archives qui ne soient pas satisfaisables. Oui, il faut une certaine maîtrise technique pour retrouver une action faite à une certaine époque, sur une autre machine, mais ni plus ni moins qu’il en faut au généticien pour retrouver la chronologie des ratures sur les brouillons de l’écrivain.
Mais la question n’est pas là, aujourd’hui: la question actuelle est celle du « cloud ». l’industrie nous pousse à mettre ces données en ligne plutôt qu’à les conserver sur des supports matériels de sauvegarde, sous prétexte de leur augmentation exponentielle. Il s’agirait de confier à des entreprises privées et professionnelles la gestion complète de nos données (stockage, archivage, accès). C’est ce que nous vante Google, Apple en partie avec iCloud, ou encore le très célèbre Dropbox.
Or, c’est là que nous perdrons totalement la maîtrise de l’accès. La mesure en est simple: supposons un arrêt de quelques heures d’internet. Si nos données sont dans le nuage, ça veut tout simplement dire: plus d’accès à nos données. Si nos données sont sur nos disques durs, cela veut dire: plus d’accès à de nouvelles données, mais accès à toutes nos données conservées.
Le numérique sans mémoire, c’est celui d’internet: un site peut être effacé en quelques minutes, et ne subsister que dans la mémoire de ceux qui l’auront regardé – et dans celle des moteurs d’archivage de Google. Une boite mail sur un serveur en IMAP peut disparaître à la faveur d’un bug sur ce serveur, et tout le contenu de cette boite aura à jamais disparu (sauf sauvegarde redondante des serveurs, dont on s’aperçoit qu’elles ne sont jamais aussi efficaces que promis, quand on a le malheur d’essuyer une panne de serveur).
Il faut bien diffencier ce que je garde sur mon ordi, mes disques durs, mes supports (CD, DVD, bande, clés USB), de ce que je confie à Google, FaceBook et autres. Ces données là ne m’appartiennent plus, j’en deviens un usager – privilégié, certes, mais au bon vouloir de celui qui les garde, et qui pourrait bientôt décider de m’en faire payer l’accès.
@Patrick Mpondo-Dicka: Un des points intéressants de votre positionnement, c’est le fait d’obtenir une réponse à une question posée en format texte. Il est exact qu’à l’inverse, mon ressenti de l’usage informatique est pour l’essentiel articulé à mes difficultés de retrouver du matériel image. J’ai environ 50.000 photos stockées sur iPhoto (qui rame), dont la plupart évidemment non taguées, my fault, mais je sais bien que cet état est plus représentatif de la situation générale que les tentatives d’archivage systématique pratiquées par quelques amis.
Il est important de savoir distinguer la sauvegarde de l’archivage, qui est un classement structuré susceptible de faire émerger de nouvelles configurations. Le stockage indexé est une première étape vers la structuration des données, qui permet de retrouver un ficher sur son disque dur ou un courrier dans son logiciel de mail, mais pas de produire des statistiques, faire ressortir des fréquences ou différencier des groupes d’objets. Ce sont ces opérations complexes que permet une base de données, dont l’utilité est proportionnelle au nombre des informations analysées. Avez-vous testé Bento? C’est à pleurer, on ne peut même pas réaliser un logiciel correct de bibliographie à partir de ça. Si les bdd sont sous-utilisées par les usagers, c’est parce que celles qui sont disponibles sont soit très performantes, mais réservées à des spécialistes, soit plus ouvertes, mais pour un service très pauvre.
Pour ne prendre qu’un seul exemple, mais qui est significatif, car il s’agit d’un besoin de base, qui n’est pas particulièrement difficile à résoudre: je ne connais aucun bon logiciel de bibliographie, aucun qui soit pratique et intuitif, ils sont tous décourageants de rigidité, on voit bien qu’ils ont été pensés par des documentalistes pour des documentalistes, et pas pour des étudiants dont les usages et les besoins sont évolutifs. Résultat: je dirais au doigt mouillé qu’on n’a aujourd’hui pas plus de 10% des étudiants qui se servent effectivement de cet outil, ce qui est une sorte de catastrophe – et un vrai constat d’échec des ressources numériques.
Le fait qu’il n’existe aucun gestionnaire capable de ranger ensemble, d’afficher et de classer fichiers texte, pdf, image, vidéo, powerpoint et son suffit à montrer les limites des outils disponibles, qui ne peuvent être considérés comme satisfaisants.
Effectivement, j’ai pensé texte plutôt qu’image, ce qui ne changeait pas grand chose selon mon usage personnel, qui est plutôt maniaque quant au rangement (sur ordinateur du moins !). Ainsi notre usage d’iPhoto diffère au moins en un point: j’ai tout indexé, passé des heures à identifier les visages, les lieux, et donne systématiquement un nom à tous les nouveaux « événements » de la phototèque).
Ce que vous dites de vos photos non taguées va dans le sens de ce que je dis de l’usage d’une base de données pour le grand public: même quand celle-ci est faite pour simplifier l’usage (iPhoto en est une, comme iTunes), l’utilisateur lambda n’ira pas la compléter – et encore moins, la créer. Du coup, je ne pense pas qu’elle représente « la » solution, à moins de concevoir une indexation automatique basée sur les usages de l’utilisateur (et qui les convertirait en liste de mots-clés… il y a du boulot).
Tout à fait d’accord sur la différence entre sauvegarde et archivage, mais la description que vous faites d’une base de données demande d’y entrer rigoureusement les informations, sans quoi, toute la puissance de la base est totalement inopérante, et c’est bien là qu’est le problème. Une bonne base de données, c’est une gestion rigoureuse des informations qui y sont introduites; or, si on a déjà cette gestion rigoureuse, on peut pratiquement se passer de la base de données (du moins dans ses usages simples). Je suis du même avis que vous sur les bases de données mises à disposition, très puissantes mais réservées aux utilisateurs les plus avancés, voire aux professionnels, ou assez abordables mais ni très souples, ni très performantes.
Cependant, elles sont déjà pléthoriques sur nos ordinateurs, sous formes de logiciels de gestion diverses: pdf (Yep) ou fichiers divers (Leap, DevonThink), catalogueurs de disques (DiskTracker, NeoFinder, DiskLibrary), gestionnaires de biblio/disco/filmographie (Disc Hunter, CD Hunter, etc., Delicious Library), photos (Atomic Viewer – de nombreux retoucheurs intègrent d’ailleurs leurs propres bases de données, aux premiers rangs desquels Lightroom et Aperture) – tout ça seulement sur mac, qui est l’environnement que je maitrise. les logiciels de création de base de données ne sont, de ce point de vue, que des logiciels généralistes au regard de tous ces logiciels de catalogage spécialisés.
Mais le système fait déjà tout ce que font ces bases de données (il passe son temps à noter ce qui se passe sur la base de registre, dans le plus grand détail et avec la minutie machinique qui le caractérise), la difficultés étant d’accéder aux données qu’il écrit. Plus que la base de données, j’irais dans le sens d’un logiciel d’accès et de présentation des données écrites dans l’ordinateur.
Pour un informaticien, le Terminal et la Console des systèmes à base d’Unix (dont MacOS X) sont une source d’information incroyable: c’est leur exploitation qu’il faudrait rendre accessible, plutôt que d’inventer un logiciel qui d’abord réindexe tout, puis doit être incrémenté par l’utilisateur pour continuer à être performant.
Pour ce qui est des logiciels de bibliographie… oui, ils restent contre-intuitifs, et quand ils fonctionnent, ils sont nourris de bases de données américaines, pour lesquels ils ont été construits. Mais le sous-usage de l’ensemble des ressources informatiques des universités me fait penser que ce n’est pas seulement dans leur manque d’ergonomie que réside le problème. C’est là qu’on attendrait de nos professionnels informaticiens et bibliothécaires, qu’ils fassent les choses bien: puissance de leur côté, facilité d’usage du nôtre.
On est, pour le moment, loin du compte, même si des portails comme Cairn ou Revue.org ou encore la consultation en ligne du catalogue des bibliothèques sont une bonne avancée; il manque, pour nos bibliothèques, une indexation nationale facile d’accès (SUDOC sur son bureau), et ce que fait Google Scholar, c’est-à-dire une numérisation des ouvrages et leur intégration dans une base de données géante accessible en ligne. on ne devrait plus trainer dans les bibliothèques et les librairies que pour le plaisir, pas par obligation pour mettre la main sur un ouvrage inaccessible.
Au final, oui, la base de données est la solution, mais la solution professionnelle, à échelle nationale (et internationale – mais l’exemple du fonctionnement des bibliothèques universitaires aux États-Unis montre déjà que l’échelle nationale est le levier d’un grand nombre de problèmes).
Le problème avec l’usager lambda… c’est que c’est un usager lambda. On ne peut pas se fier à lui (à nous donc) pour établir une description solide des données, même dans une base auto-incrémentée au départ (c’est toute la problématique de la folksonomie, qui a ses limites, même si elle peut être très complémentaire d’une bonne indexation).
Pour ce qui concerne les images et pire encore, les vidéos, c’est encore un autre problème, même si le descripteur textuel est un point d’entrée (en fait, pour le moment, le seul qui soit vraiment opérant).
Quant à Bento, vous me rassurez! Je pensais que c’était moi qui était complètement incapable 🙂
Le fait qu’il n’existe aucun gestionnaire capable de ranger ensemble, d’afficher et de classer fichiers texte, pdf, image, vidéo, powerpoint et son suffit à montrer les limites des outils disponibles, qui ne peuvent être considérés comme satisfaisants.
Je pense que plusieurs logiciels répondent à votre cahier des charges: DevonThink (perso ou pro), MacJournal (et toute application de prise de notes élaborée).
Mais une bonne requête dans le Finder serait tout aussi performante (recherches croisées par nom, type de fichier et date de modification, par exemple). En local, je crois vraiment que la solution (domestique, ou prosumer comme on dit dans le jargon pragmatique anglo-saxon) est à chercher de ce côté.
pour gérer sa bdd bibliographique Zotero est la preuve d’un logiciel intuitif, gratuit, qui automatise la saisie de donnée, voire même de certain tags. Ce qui rend une base de donnée exploitable et pertinente sans que l’utilisateur n’y collige manuellement des informations dans des champs.
Il est très utilisé dans le milieu universitaire. Et en plus il s’exporte dans un format totalement ouvert.
Zotero est l’exemple d’un logiciel bdd qui assure à la fois de sauvegarde et d’archivage du côté du software. Évidemment il faut également se préoccuper du hardware mais l’avantage c’est qu’on peut le gérer, le choisir de manière indépendante aux softwares. Ses stratégies de stockage peuvent être établies de manière indépendante.
Sinon sur la question de la mémoire, l’inconscience actuelle entrainera un grand nettoyage de notre mémoire visuelle. C’est comme un équilibre sain contre cette profusion. Une sorte de digidégradation par méconnaissance du grand public des bonnes pratiques. Cecinous amènera à un grand vide au niveau des images des années 1990-2020 dans une trentaine d’année.
Ça fait des années que je n’utilise plus Zotero, un des logiciels les moins pratiques du point de vue ergonomique (mais simple, soit). Je ne conseille pas cet outil avec lequel j’ai perdu de nombreuses collections. Mendeley est bien plus fiable et plus souple – mais reste insuffisamment configurable à mes yeux. Ce qui me frappe dans les manifestations de satisfaction exprimées ci-dessus, c’est l’absence d’imagination et de capacité de projection des usagers. Il suffit pourtant de réfléchir quelques minutes à ce que pourrait être une base biblio pour se rendre compte des limitations des outils actuels, qui restent de rigides instruments de fichage, alors qu’ils devraient être des passerelles entre l’univers de la documentation et celui de la rédaction, intégrant la possibilité de citations multimédia, calqués sur les circulations en ligne plutôt que sur l’ancienne économie du tapuscrit. Non, encore une fois, par rapport à mes besoins de chercheur, aucun logiciel de bibliographie ne trouve grâce à mes yeux.
« L’inconscience actuelle entrainera un grand nettoyage de notre mémoire visuelle. C’est comme un équilibre sain contre cette profusion » Ha ha! Bonne idée! Pour éviter de se poser les problèmes d’archivage, brûlons tout! Je suis con de pas y avoir pensé plus tôt!
Signalé aujourd’hui: Synapsen, « destiné notamment aux étudiants et chercheurs en sciences humaines qui maintiennent une bibliographie sur une longue période de temps, particulièrement dans le domaine de la philologie, de l’histoire de l’art, des études sociales et culturelles, de la philosophie, de l’histoire, du droit, etc… » (pas testé).
Pour mieux poser cette question politique de la mémoire, il faut différencier les stratégies ou pratiques de conservation du hardware, et ensuite sur un niveau supérieur celui des pratique de l’archivage via des systèmes bbd ou même plus simplement du File System avec des métadonnées spécialisées.
Pour le grand public; les solutions pérennes d’archivage doivent être les plus simples. La solution est logiciel qui permette à l’utilisateur de taguer sa collection de photo, les tags sont intégrés non dans un bdd mais dans les métadonnées spécialisées (iptc, exif ou autre) et c’est par un logiciel d’indexation de l’os de la machine que les images sont retrouvées. Ainsi vous outrepassez tout la difficile gestion d’une base de donnée pour laquelle chaque migration demande une compétence. Si vous changez d’os ou de machine il n’y a qu’à relancer l’indexation et votre archive-image est à nouveau interrogeables.
« Pour éviter de se poser les problèmes d’archivage, brûlons tout! Je suis con de pas y avoir pensé plus tôt! »
Mais non ça n’est même pas nécessaire. Car le problème ne se situe même pas au niveau de l’archivage pour le grand public. Il se situe en amont sur la sauvegarde des données et le maintien du bon fonctionnement du hardware.
Les bonnes pratiques de redondance de l’information sont très peu présentes dans le grand public. C’est pour cela que dans quelques dizaines d’années il y aura une absence d’un très grand nombre d’images parce qu’elles auront été perdues. Par ailleurs, il y a effectivement un lien entre la capacité de stockage presque infinie d’une part et la production et le stockage sans politique de tri, encore moins d’archivage d’autre part. Cependant la durée de capacité n’est pas indéfinie. Même si les utilisateurs en sont plus ou moins conscients, ils ne passent pas encore à l’acte pour mettre en place des politiques de sauvegarde et a fortiori d’archivage. Il en découlera un grande disparition d’image, sans besoin de les brûler!
Comme il a été souligné plus haut l’externalisation de ses données vers des data center n’est pas une solution intéressante. Certes sur le plan technique elle permet à tout le monde d’assurer une sauvegarde de ses images. Outre le fait qu’elle présente un problème de contrôle à divers degrés de son propre patrimoine d’image, elle évite aux utilisateurs de s’interroger sur une pratique de conservation de ses images et au delà de ses données numériques. Elle enlève à l’utilisateur la possibilité d’apprendre, de comprendre et de prendre la maîtrise de la conservation de sa production. Tout est conçu pour cela: (fausse) gratuité, facilité d’emploi, stockage très important. Il y a même maintenant des sociétés d’assurance, de service qui vous propose de récupérer le patrimoine numérique d’une personne défunte disséminé sur le réseau entre FB, Flickr, le courriel. C’est très intéressant. Cela montre le fossé qui sépare notre pratique numérique et notre réelle connaissance (savoir et savoir-faire) de cette pratique.
Merci Patrick. Je ne connaissais pas ce logiciel. Il a l’air intéressant, j’ai remarqué qu’il est structuré sur le Dublin Core, ce qui est une bonne chose. C’est un des points faibles peut être de Zotero qui s’en détache davantage. Mais la synchronisation avec une base stockée sur un serveur semble plus complexe à mettre en place chez Synapsen alors que c’est un point fort de Zotero.
Pour ma part, je n’ai perdu qu’une fois certain enregistrements par une erreur de ma part. Mais je n’ai jamais rien perdu à cause d’un dysfonctionnement de Zotero. Il gère un peu plus de 3Go de document et la bdd pèse environ 45Mo, cela correspond à 3000 fiches environ. L’utilisation est fluide ainsi que les recherches. Il permet même d’indexer le contenu de certains fichiers (pdf Peut être votre expérience date un peu, c’est un outils que je conseille toujours. Entre chercheurs nous l’utilisons comme format d’échange d’articles à lire.
Et pourquoi ne pas créer ce logiciel qui manque? Je suis prêt à marcher avec vous! Et je suis sérieux : un bon logiciel demande avant tout un bonne équipe, pas forcément un financement hors du commun. Et commencer local (l’EHESS) me paraît pertinent.
Par ailleurs il est possible d’élargir la problématique à la dimension politique – et donc collective au lieu de personnelle – avec l’absence de réflexion – je ne veux pas parler trop vite mais je m’intéresse de loin au sujet et j’ai très peu entendu sur le sujet – sur la conservation du patrimoine numérique : les textes de François BON seront sans doute perdu quelques mois après sa mort, si ce n’est avant sa mort pour faute de manipulation, et je ne parle pas de tous les autres personnes moins connues que lui qui publient sur le Net un contenu d’au moins égale valeur. Et il n’y a pas que les contenus « artistiques » qui importent. Juste un exemple : il y a deux ans je souhaitais accéder depuis le ministère de l’Environnement à des déclarations fiscales (déclaration d’achat d’un logement) pour une étude sur l’impact de la politique de prévention des risques sur le logement. Nous avons été obligés de passer par l’association des notaires de France (base PERVAL, payante) car, sauf pour les années récentes, les impôts stockent ces données encore au format papier, et n’envisagent pas de les numériser!
@Kart,
Depuis une dizaine d’année, les institutions patrimoniales commencent à comprendre et à mettre en place des stratégies, voire des procédures pour accueillir et gérer des œuvres numériques. Mais malgré de nombreuses initiatives plus ou moins pointues (Dspace, Fedora, ou des CMS maison) qui nécessitent des compétences variées (SQL, postgreSQL, php, administration réseau et surtout une bonne connaissance des différents normes de métadonnées comme le DC, METS, et métadonnées spécialisées), la majorité des institutions n’a pas encore de politiques abouties pour la gestion des données numériques.
Par contre il y a beaucoup de littérature sur ce sujet. Voici deux entrées: http://www.docam.ca/fr/bibliographie.html et un ouvrage facile à trouver à Paris je pense: http://www.citechaillot.fr/fr/publications/colloques_conferences/24342-architecture_et_archives_numeriques.html J’ai travaillé sur le cas d’étude de Greg Lynn.
Je pense que ça donne un premier aperçu de ce qui se fait dans ce domaine.