Numbering boxes of archaeological items, barcodes and storage management

Last week a tweet from the always brilliant Jolene Smith inspired me to write down my thughts and ideas about numbering boxes of archaeological finds. For me, this includes also thinking about the physical labelling, and barcodes.

The question Jolene asks is: should I use sequential or random numbering? To which many answered: use sequential numbering, because it bears significance and can help detecting problems like missing items, duplicates, etc. Furthermore, if the number of items you need to number is small (say, a few thousands), sequential numbering is much more readable than a random sequence. Like many other archaeologists faced with managing boxes of items, I have chosen to use sequential numbering in the past. With 200 boxes and counting, labels were easily generated and each box had an associated web page listing the content, with a QR code providing a handy link from the physical label to the digital record. This numbering system was put in place during 3 years of fieldwork in Gortyna and I can say that I learned a few things in the process. The most important thing is that it’s very rare to start from scratch with the correct approach: boxes were labeled with a description of their content for 10 years before I adopted the numbering system pictured here. This sometimes resulted in absurdly long labels, easily at risk of being damaged, difficult to search since no digital recording was made. I decided a numbering system was needed because it was difficult to look for specific items, after I had digitised all labels with their position in the storage building (this often implied the need to number shelves, corridors, etc.). The next logical thing was therefore to decouple the labels from the content listing ‒ any digital tool was good here, even a spreadsheet. Decoupling box number from description of content allowed to manage the not-so-rare case of items moved from one box to another (after conservation, or because a single stratigraphic context was excavated in multiple steps, or because a fragile item needs more space …), and the other frequent case of data that is augmented progressively (at first, you put finds from stratigraphic unit 324 in it, then you add 4.5 kg of Byzantine amphorae, 78 sherds of cooking jars, etc.). Since we already had a wiki as our knowledge base, it made sense to use that, creating a page for each box and linking from the page of the stratigraphic unit or that of the single item to the box page (this is done with Semantic MediaWiki, but it doesn’t matter). Having a URL for each box I could put a QR code on labels: the updated information about the box content was in one place (the wiki) and could be reached either via QR code or by manually looking up the box number. I don’t remember the details of my reasoning at the time, but I’m happy I didn’t choose to store the description directly inside the QR code ‒ so that scanning the barcode would immediately show a textual description instead of redirecting to the wiki ‒ because that would require changing the QR code on each update (highly impractical), and still leave the information unsearchable. All this is properly documented and nothing is left implicit. Sometimes you will need to use larger boxes, or smaller ones, or have some items so big that they can’t be stored inside any container: you can still treat all of these cases as conceptual boxes, number and label them, give them URLs.

QR codes used for boxes of archaeological items in Gortyna

There are limitations in the numbering/labelling system described above. The worst limitation is that in the same building (sometimes on the same shelf) there are boxes from other excavation projects that don’t follow this system at all, and either have a separate numbering sequence or no numbering at all, hence the “namespacing” of labels with the GQB prefix, so that the box is effectively called GQB 138 and not 138. I think an efficient numbering system would be one that is applied at least to the scale of one storage building, but why stop there?

Turning back to the initial question, what kind of numbering should we use? When I started working at the Soprintendenza in Liguria, I was faced with the result of no less than 70 years of work, first in Ventimiglia and then in Genoa. In Ventimiglia, each excavation area got its “namespace” (like T for the Roman theater) and then a sequential numbering of finds (leading to items identified as T56789) but a single continuous sequential sequence for the numbering of boxes in the main storage building. A second, newer building was unfortunately assigned a separate sequence starting again from 1 (and insufficient namespacing). In Genoa, I found almost no numbering at all, despite (or perhaps, because of) the huge number of unrelated excavations that contributed to a massive amount of boxes. Across the region, there are some 50 other buildings, large and small, with boxes that should be recorded and accounted for by the Soprintendenza (especially since most archaeological finds are State property in Italy). Some buildings have a numbering sequence, most have paper registries and nothing else. A sequential numbering sequence seems transparent (and allows some neat tricks like the German tanks problem), since you could potentially have an ordered list and look up each number manually, which you can’t do easily with a random number. You also get the impression of being able to track gaps in a sequence (yes, I do look for gaps in numeric sequences all the time), thus spotting any missing item. Unfortunately, I have been bitten too many times by sequential numbers that turned out to have horrible bis suffixes, or that were only applied to “standard” boxes leaving out oversized items.

On the other hand, the advantages of random numbering seem to increase linearly with the number of separate facilities ‒ I could replace random with non-transparent to better explain the concept. A good way to look at the problem is perhaps to ask whether numbering boxes is done as part of a bookkeeping activity that has its roots in paper registries, or it is functional to the logistics of managing cultural heritage items in a modern and efficient way.

Logistics. Do FedEx, UPS, Amazon employees care what number sequence they use to track items? Does the cashier at the supermarket care whether the EAN barcode on your shopping items is sequential? I don’t know, but I do know that they have a very efficient system in place, in which human operators are never required to actually read numerical IDs (but humans are still capable of checking whether the number on the screen is the same as the one printed on the label). There are many types of barcode used to track items, both 1D and 2D, all with their pros and cons. I also know of some successful experiments with RFID for archaeological storage boxes (in the beautiful depots at Ostia, for example), that can record numbers up to 38 digits.

Based on all the reflections of the past years, my idea for a region- or state-wide numbering+labeling system is as follows (in RFC-style wording):

  1. it MUST use a barcode as the primary means of reading the numerical ID from the box label
  2. the label MUST contain both the barcode and the barcode content as human-readable text
  3. it SHOULD use a random numeric sequence
  4. it MUST use a fixed-length string of numbers
  5. it MUST avoid the use of any suffixes like a, b, bis

In practice, I would like to use UUID4 together with a barcode.

A UUID4 looks like this: 1b08bcde-830f-4afd-bdef-18ba918a1b32. It is the UUID version of a random number, it can be generated rather easily, works well with barcodes and has a collision probability that is compatible with the scale I’m concerned with ‒ incidentally I think it’s lower than the probability of human error in assigning a number or writing it down with a pencil or a keyboard. The label will contain the UUID string as text, and the barcode. There will be no explicit URL in the barcode, and any direct link to a data management system will be handled by the same application used to read the barcode (that is, a mobile app with an embedded barcode reader). The data management system will use UUID as part of the URL associated with each box. You can prepare labels beforehand and apply them to boxes afterwards, recording all the UUIDs as you attach the labels to the boxes. It doesn’t sound straightforward, but in practice it is.

And since we’re deep down the rabbit hole, why stop at the boxes? Let’s recall some of the issues that I described non-linearly above:

  1. the content of boxes is not immutable: one day item X is in box Y, the next day it gets moved to box Z
  2. the location of boxes is not immutable: one day box Y is in room A of building B, the next day it gets moved to room C of building D
  3. both #1 and #2 can and will occur in bulk, not only as discrete events

The same UUIDs can be applied in both directions in order to describe the location of each item in a large bottom-up tree structure (add as many levels as you see fit, such as shelf rows and columns):

item X → box Y → shelf Z → room A → building B

or:

b68e3e61-e0e7-45eb-882d-d98b4c28ff31 → 3ef5237e-f837-4266-9d85-e08d0a9f4751
3ef5237e-f837-4266-9d85-e08d0a9f4751 → 77372e8c-936f-42cf-ac95-beafb84de0a4
77372e8c-936f-42cf-ac95-beafb84de0a4 → e895f660-3ddf-49dd-90ca-e390e5e8d41c
e895f660-3ddf-49dd-90ca-e390e5e8d41c → 9507dc46-8569-43f0-b194-42601eb0b323

Now imagine adding a second item W to the same box: since the data for item Y was complete, one just needs to fill one container relationship:

b67a3427-b5ef-4f79-b837-34adf389834f → 3ef5237e-f837-4266-9d85-e08d0a9f4751

and since we would have already built our hypothetical data management system, this data is filled into the system just by scanning two barcodes on a mobile device that will sync as soon as a connection is available. Moving one box to another shelf is again a single operation, despite many items actually moved, because the leaves and branches of the data tree are naïve and only know about their parents and children, but know nothing about grandparents and siblings.

There are a few more technical details about data structures needed to have a decent proof of concept, but I already wrote down too many words that are tangential to the initial question of how to number boxes.

Total Open Station: a specialised format converter

It’s 2017 and nine years ago I started writing a set of Python scripts that would become Total Open Station, a humble GPL-licensed tool to download and process data from total station devices. I started from scratch, using the Python standard library and pySerial as best as I could, to create a small but complete program. Under the hood, I’ve been “religiously” following the UNIX philosophy of one tool that does one thing well and that is embodied by the two command line programs that perform the separate steps of:

  1. downloading data via a serial connection
  2. converting the raw data to formats that can be used in GIS or CAD environments

And despite starting as an itch to scratch, I also wanted TOPS to be used by others, to provide something that was absent from the free software world at the time, and that is still unchallenged in that respect. So a basic and ugly graphical interface was created, too. That gives a more streamlined view of the work, and largely increases the number of potential users. Furthermore, TOPS can run not just on Debian, Ubuntu or Fedora, but also on macOS and Windows and it is well known that users of the latter operating systems don’t like too much working from a terminal.

Development has always been slow. After 2011 I had only occasional use for the software myself, no access to a real total station, so my interest shifted towards giving a good architecture to the program and extending the number of formats that can be imported and exported. In the process, this entailed rewriting the internal data structures to allow for more flexibility, such as differentiating between point, line and polygon geometries.

Today, I still find GUI programming out of my league and interests. If I’m going to continue developing TOPS it’s for the satisfaction of crafting a good piece of software, learning new techniques in Python or maybe rewriting entirely in a different programming language. It’s clear that the core feature of TOPS is not being a workstation for survey professionals (since it cannot compete with the existing market of proprietary solutions that come attached to most devices), but rather becoming a polyglot converter, capable of handling dozens of raw data formats and flexibly exporting to good standard formats. Flexibly exporting means that TOPS should have features to filter data, to reproject data based on fixed base points with known coordinates, to create separate output files or layers and so on. Basically, to adapt to many more needs than it does now. From a software perspective, there are a few notable examples that I’ve been looking at for a long time: Sphinx, GPSBabel and Pandoc.

Sphinx is a documentation generator written in Python, the same language I used for TOPS. You write a light markup source, and Sphinx can convert it to several formats like HTML, ePub, LaTeX (and PDF), groff. You can write short manuals, like the one I wrote for TOPS, or entire books. Sphinx accepts many options, mostly from a configuration file, and I took a few lines of code that I liked for handling the internal dictionary (key-value hash) of all input and output formats with conditional import of the selected module (rather than importing all modules that won’t be used). Sphinx is clearly excellent at what it does, even though the similarities with TOPS are not many. After all, TOPS has to deal with many undocumented raw formats while Sphinx has the advantage of only one standard format. Sphinx was originally written by Georg Brandl, one of the best Python developers and a contributor to the standard library, in a highly elegant object-oriented architecture that I’m not able to replicate.

GPSBabel is a venerable and excellent program for GPS data conversion and transfer. It handles dozens of formats in read/write mode and each format has “suboptions” that are specific to it. GPSBabel has also advanced filtering capabilities, it can merge multiple input files and since a few years there is a minimal graphical interface. Furthermore, GPSBabel is integrated in GIS programs like QGIS and can work in a variety of ways thanks to its programmable command line interface. A strong difference with TOPS is that many of the GPS data formats are binary, and that the basic data structures of waypoints, tracks and routes is essentially the same (contrast that with the monster LandXML specification, or the dozens of possible combinations in a Leica GSI file). GPSBabel is written in portable C++, that I can barely read, so anything other than inspiration for the user interface is out of question.

Pandoc is a universal document converter that reads many markup document formats and can convert to a greater number of formats including PDF (via LaTeX), docx, OpenDocument. The baseline format for Pandoc is an enriched Markdown. There are two very interesting features of Pandoc as a source of inspiration for a converter: the internal data representation and the Haskell programming language. The internal representation of the document in Pandoc is an abstract syntax tree that is not necessarily as expressive as the source format (think of all the typography and formatting in a printed document) but it can be serialised to/from JSON and allows filters to work regardless of the input or output format. Haskell is a functional language that I have never programmed, although it lends to creating complex and efficient programs that are easily extended. Pandoc works from the command line and has a myriad of options – it’s also rather common to invoke it from Makefiles or short scripts since one tends to work iteratively on a document. I could see a future version of TOPS being rewritten in Haskell.

Scriptability and mode of use seem both important concepts to keep in mind for a data converter. For total stations, a common workflow is to download raw data, archive the original files and then convert to another format (or even insert directly into a spatial database). With the two programs totalopenstation-cli-connector and totalopenstation-cli-parser such tasks are easily automated in a single master script (or batch procedure) using a timestamp as identifier for the job and the archived files. This means that once the right parameters for your needs are found, downloading, archiving and loading survey data in your working environment is a matter of seconds, with no point-and-click, no icons, no mistakes. Looking at GPSBabel, I wonder whether keeping the two programs separate really makes sense from a UX perspective, as it would be more intuitive to have a single totalopenstation executable. In fact, this dual approach is a direct consequence of the small footprint of totalopenstation-cli-connector, that merely acts as a convenience layer on top of pySerial.

It’s also important to think about maintainability of code: I have little interest in developing the perfect UI for TOPS, all the time spent for development is removed from my spare time (since no one is paying for TOPS) and it would be way more useful if dedicated plugins existed for popular platforms (think QGIS, gvSIG, even ArcGIS supports Python, not to mention CAD software). At this time TOPS supports ten (yes, 10) input formats out of … hundreds, I think (some of which are proprietary, binary formats). Expanding the list of supported formats is the single aim that I see as reasonable and worth of being pursued.

I libri che ho letto nel 2015

Come ogni anno faccio un elenco dei libri che ho letto, senza classifiche perché sono un esercizio abbastanza penoso e, per il 2015, anche perché ho avuto la fortuna di leggere quasi esclusivamente cose bellissime. Ve li presento quindi in ordine di lettura, aiutandomi con le stupidissime frasi che ho scritto su Twitter mentre li leggevo. Non c’è un errore: è il primo gennaio 2017 e questa lista arriva in ritardo di 366 giorni.

William Gibson: the Sprawl trilogy (Neuromancer, Count Zero, Mona Lisa Overdrive) + Burning Chrome

Proprio come lo scorso anno, è l’unica lettura in inglese, a cui sono arrivato per vie molto traverse che partono da un fumetto online e passano per un album indie. Ma non è una lettura qualunque. È un punto di non ritorno. Ho già scritto qualche riga sulle connessioni intessute da questa trilogia, che ho letto in mattinate non molto calde, decisamente buie, su un lettore di ebook e che mi ha fatto capire anzitutto l’epica del cyberpunk che è costruita interamente sul linguaggio. Le distopie tecnologiche dello Sprawl sono attuali perché si nutrono di dissociazioni contemporanee, immutate nei trent’anni passati dalla pubblicazione di questi libri, anzi, accresciute in un modo (im)prevedibilmente (in)concepibile.

Wu Ming, Cantalamappa

Come mi sono sentito di scrivere mentre lo leggevo:

Uno pensa di essere adulto, poi per fortuna i Wu Ming scrivono Cantalamappa e tutto prende una piega migliore

e continuo a pensarlo. Ci sono in questo libro storie che mi hanno fatto tornare bambino, anche quando parlano di cose “da adulti”. C’è un filo conduttore, la mappa, la scoperta del mondo che sia lontano o vicino, che è sempre stato uno dei miei modi di pensare. Un modo per una volta leggero di leggere Wu Ming. Regalato anche a lettori più giovani!

Yamunin, Diario di zona

Banalmente, potrei aver apprezzato Diario di zona perché racconta la città attraverso gli occhi di uno che è arrivato a Torino ma non ci è né nato né cresciuto, attraversandola in sella a una bicicletta e soffermandosi sulle tante lapidi che ricordano giovani morti lottando contro i nazifascisti. La verità è che a questo libro mi sono affezionato in prima persona, partecipando a letture e presentazioni. Che ho imparato a guardare chi fa le misurazioni dei contatori, e a vedere il lavoro e la persona che le fa. Che ogni città dovrebbe avere un suo diario di zona in cui si descrivano gli abitanti, le case, i marciapiedi senza vezzeggiativi. Che ognuno dovrebbe scrivere il proprio diario di zona e non limitarsi a percorrere le stesse quattro strade tutti i giorni, guardando come bestie gli abitanti degli altri quartieri in cui non avete mai messo piede.

David van Reybrouck, Congo

Un minimo di boria mi sia concessa per Congo, non il più bello ma certamente il più monumentale dei libri che ho letto nel 2015. Ho una copia di Congo. Een geschiedenis autografata da David van Reybrouck (con tanto di dedica e incoraggiamento ad imparare a leggere nederlands) nel 2012. Non ho comprato la traduzione italiana del libro attratto dalla fascetta di Roberto Saviano (come se qualcuno sapesse qualcosa dell’Africa, maledizione) né tantomeno dalla foto patetica sbattuta in copertina, così infedele all’originale da risultare fastidiosa. Congo non è una lettura facile, ma non è un manuale di storia ‒ è il narratore che ha magistralmente scelto per noi un pugno di persone che tengono insieme centoventi anni di politica, sette religiose, rivendicazioni, colonialismi pessimi e decolonizzazioni peggiori, musica, commercio, pugilato. La perla di Congo è scoprire pagina dopo pagina quanto sia importante il narratore di queste storie.

G.B. Canepa, La repubblica di Torriglia

Il giorno del mio compleanno siamo saliti sul Ramaceto e guardando forte là in fondo verso Cichero abbiamo letto ad alta voce la storia di Severino, lì in mezzo alle montagne dove ha combattuto la guerra partigiana contro i nazifascisti. Le montagne hanno la memoria lunga.

L’età della febbre

L’età della febbre è un’antologia edita da minimum fax, un sequel de La qualità dell’aria (che non ho letto) dove una manciata di autori italiani raccontano, a modo loro, il Paese e quello che ci succede. Nelle mie non-recensioni su Twitter, ho avuto l’ardore di definirlo

un Decameron poliedrico sulla famiglia italiana

perché è la sensazione ripetuta che ho incontrato leggendo ogni racconto, che ogni storia si arrotolasse intorno ad una famiglia, giovane o vecchia, con o senza figli, affiatata o scomposta.

Tommaso Pincio, Panorama

Panorama, o panòrama come mi è sembrato più naturale pronunciare il titolo di questo libro, era necessario. Perché sventra, magari in modo familiare a chi è più avvezzo al mondo letterario, un po’ della sua mitologia fondante, usando i social network come elemento di trama mescolata tra realtà e finzione. Poi per chi vive o conosce Roma più di me si trovano certamente altre chiavi di lettura.

Mi piacerebbe, per provocazione, leggere questo libro scritto a generi invertiti.

Alberto Prunetti, Amianto

Un libro in cui la voce narrante si fa beffe di ignari archeologi senesi rivendendo cazzuole maremmane come pregiate trowel britanniche sarebbe già di per sé meraviglioso. Ma non è per le burle che Amianto lascia il segno. È la serie di pugni nello stomaco, che si ripete impietosa alla Olivetti, alla IPLOM e in tante altre industrie “di eccellenza” dell’Italia che produce, lavora e crepa di mesotelioma. Negli stessi giorni in cui leggevo questo libro ho assistito alla clownesca performance di un fittizio padre fondatore del digitale italiano (uno dei tanti che si possono rintracciare) che proprio della Olivetti si fregiava, e il contrasto mentale che ne ho avuto era stridente quanto tonnellate di pece su corpi nudi. Avere tra le mani questa controstoria, umana e tragica, è un dovere. In più, Prunetti eccelle nel legare le lotte (semplicisticamente definibili) dei decenni scorsi con quelle (solo apparentemente) così diverse dei precari odierni, proletari intellettuali come è lui stesso.

José Saramago, Viaggio in Portogallo

Non ho terminato la lettura di questo libro perché quando ero a metà sono partito per il Portogallo, e durante il viaggio ho passato più tempo a vagare per Lisbona che a leggere. Ha un tempo magico, lentissimo e, se non ci si fa annoiare, ipnotico. È, semplicemente, una ininterrotta sequenza di epifanie lungo le strade di tutto il paese. Saramago ha voluto che tutti si innamorassero come lui degli angoli più nascosti del Portogallo, nelle campagne sperdute o in mezzo alle città. Non è una guida turistica né vuole assomigliarci!

Kurt Vonnegut, Quando siete felici, fateci caso

Questo volumetto contiene vari discorsi di Vonnegut rivolti a studenti, di per sé abbastanza ripetitivi anche se impeccabili (e comunque sempre, sempre, sempre meglio di Steve Jobs) ed è una buona summa del Vonnegut-pensiero socio-letterario. Inoltre, è composto tipograficamente in modo delizioso.

Luca Mastrantonio, Pazzesco

Sottotitolo: Dizionario ragionato dell’italiano esagerato. Molto leggibile, alcune cose note e altre no. A volte sconfina un poco in un approccio da “spiegato bene” ed è più attento al registro politicoso che a quello verace della lingua italiana.

James Ellroy, Perfidia

Dopo aver letto con malsana avidità American Tabloid non potevo non lanciarmi a capofitto su Perfidia. Dalla metà di novembre è rimasto fermo e chiuso in attesa di avere un po’ di tempo per respirare, mentre mi dedicavo in modo più deciso alla scrittura. Perfidia è il primo libro che ho letto nel 2016.

I visitatori dell’Acquario di Genova, edizione 2015

Lo scorso anno avevamo visto, in una panoramica sui musei di Genova, come l’Acquario, l’attrazione cittadina più conosciuta, più pubblicizzata e più visitata, abbia perso visitatori in modo costante negli ultimi anni, arrivando negli ultimi quattro anni per ben tre volte (2012, 2014, 2015) sotto la soglia psicologica di un milione di visitatori.

I dati pubblicati di recente nel Cruscotto dell’economia genovese, pur approssimativi, confermano la continua stagnazione: nel 2015 l’Acquario ha totalizzato 927000 presenze, con un calo percentuale del 6.1%. E pensare che lo scorso anno avevo azzardato una previsione ottimistica:

Sicuramente sarà la struttura che beneficerà maggiormente dell’afflusso di Expo, e i filmati pubblicitari sono già diffusi nelle stazioni ferroviarie e in altri spazi affollati.

Invece niente, anzi: durante i mesi di Expo i visitatori sono stati costantemente inferiori rispetto ai periodi estivi degli anni precedenti. Ma come è possibile? La risposta è abbastanza elementare: nel 2015 sono calati anche i visitatori dei musei, mentre sono aumentati leggermente gli arrivi turistici. Non è l’acquario e non sono i musei a tenere a galla la giovane vocazione turistica di Genova.

I numeri crudi sull’affluenza all’Acquario di Genova sono schietti. Tutti i grafici presentati sotto si basano sui dati pubblicati dal Comune di Genova.

Grafico che mostra i visitatori dell'Acquario di Genova dal 2010 (1166000) al 2015 (927000)
I visitatori dell’Acquario di Genova dal 2010 al 2015 presentati dal Cruscotto sull’economia genovese

Se li osserviamo su un arco temporale più ampio di quello presentato nel cruscotto, il calo costante appare ancora più vistoso.

 

Grafico con i visitatori dell'Acquario di Genova dal 1994 al 2015, anno per anno
I visitatori dell’Acquario di Genova dal 1994 al 2015

Lo scorporo mensile dei dati è ancora più interessante perché consente di esaminare i dati destagionalizzati.

Graico del trend destagionalizzato del numero di visitatori all'Acquario di Genova
Trend destagionalizzato del numero di visitatori all’Acquario di Genova

Pur altalenante, la curva del trend è inequivocabilmente rivolta verso il basso. Non capisco quindi su quali basi Giuseppe Costa possa parlare di

un periodo decisamente più roseo per l’Acquario con «numeri di molti vicini al periodo pre-crisi».

(tralasciamo le valutazioni di pura fantasia che compaiono nelle interviste realizzate nella stessa occasione sui “milioni di visitatori” attratti ogni anno a Genova dall’Acquario)

Peraltro, a gennaio lo stesso Costa aveva ammesso, commentando gli stessi dati, che

L’anno appena trascorso, che noi calcoliamo dall’1 novembre 2014 al 31 ottobre 2015, è stato il peggiore della storia

Nel periodo pre-crisi (2008, si suppone), l’Acquario aveva un milione e trecentomila visitatori all’anno, mentre nel 2015 è fermo a 927mila.

Dato il ritardo con cui vengono pubblicati i dati, non siamo in grado di sapere se la primavera del 2016 sia stata davvero più rosea, e ci piacerebbe poter fare queste valutazioni in tempi più rapidi, perché sono importanti per capire cosa sta succedendo prima che sia già l’anno prossimo. Per esempio, se a metà di Expo avessimo già saputo che l’Acquario non stava riscuotendo particolare successo di pubblico, si sarebbe potuta cambiare strategia di comunicazione. Per ora, ci dobbiamo accontentare dell’ottimismo con con si prevedono un milione e centomila visitatori.

La fine dell’archeologia in Italia

L’archeologia italiana è finita. C’è chi dice che non è vero e c’è chi non se n’è ancora accorto, ma molti elementi puntano in questa direzione e si stanno verificando tutti in un tempo brevissimo. Provo a farvi una panoramica, se mi riesce.

1. La riforma del MiBACT

Per chi non lo sapesse ancora, con DPCM 171/2014 il MiBACT ha avviato una riforma che ogni tanto viene ripresa, a cui viene aggiunto un altro capitolo, come una specie di romanzo che non ha mai fine. Dopo l’accorpamento delle soprintendenze storico-artistiche e architettonico-paesaggistiche adesso è il turno di quelle archeologiche. Non importa che tutta la struttura periferica del ministero sia paralizzata da un anno proprio per mettere in atto la prima fase di questa riforma, con il passaggio di beni e competenze ai nuovi poli museale e agli sbandierati musei autonomi. Non importa che le grandi inefficienze nella gestione attuale siano da imputare ai continui cambiamenti a cui la macchina già lenta del ministero è sottoposta.

Adesso, con avallo e sostegno di personalità come Giuliano Volpe, si riparte con una nuova puntata della riforma, prima ancora di aver minimamente concluso il ciclo precedente. Stupisce la ferocia da storyteller con cui si dipinge la beltà tutta verbale e teorica di questi nuovi assetti da venire, che tradisce una profonda ignoranza dello stato effettivo delle cose. E a sentire Volpe, pare non sia nemmeno finita e che ci debba essere ancora una fase 3 in cui, udite udite, si avvierà una integrazione tra università (a proposito di istituzioni moribonde) e MiBACT. Io mi domando se e come chi è rimasto miracolosamente a galla dopo un decennio abbondante di sfascio del sistema universitario schiacciato da riforme su riforme pensa che sia questo il modo per migliorare l’efficienza dell’apparato che deve tutelare il patrimonio culturale italiano. Domanda retorica. Io sono miope, mi mancano 5 diottrie, che ci volete fare.

Qualunque sia l’assetto sulla carta che questa riforma vuole dare al ministero, di fatto l’unico risultato effettivo e già ben visibile è la sua totale paralisi ed inefficacia, in tempi di efficientissimo silenzio-assenso. Non diamo il beneficio del dubbio ad un governo che ha dimostrato di avere a cuore solo gli interessi di pochi, e pensiamo ‒ con il rassoio di Occam in mano ‒ che sia pienamente raggiunto l’obiettivo di eliminare un fastidioso ostacolo alle attività economiche tipiche del rilancio post-crisi come edilizia, gli scempi paesaggistici, etc. e non a caso altri ostacoli hanno subito sorte anche peggiore in questi stessi giorni (abolito il Corpo Forestale dello Stato).

Temo che a poco servano gli strali quotidiani di Tomaso Montanari, che ha sostituito Salvatore Settis nel ruolo di Grillo parlante. È un gioco delle parti che al massimo rassicura quei pochi che ancora si preoccupano di questi problemi di non essere soli, e di aver assolto la pratica dell’indignazione tramite la lettura sulle pagine di un quotidiano.

2. L’abolizione dell’archeologia preventiva

L’archeologia però dà veramente fastidio a Matteo Renzi. Infatti, come voci bene informate dicevano da un paio di mesi, nelle ultime bozze della nuova versione del Codice degli Appalti gli artt. 95 e 96 sulla “archeologia preventiva” sono completamente scomparsi. Fonti di alto livello del MiBACT confermano questa versione dei fatti, lasciando un minuscolo spiraglio per la possibile inclusione della stessa norma nel Codice dei BBCC. Ma vedete al punto sopra per immaginare con quale efficacia potrà essere attuata l’archeologia preventiva fuori dai cardini del sistema più ampio dei lavori pubblici (lasciamo perdere le opere private, eh). Siamo in pieno spregio alla Convenzione della Valletta, che pure con una tipica operazione renziana di fumo negli occhi era stata ratificata a 23 anni di distanza dal Parlamento italiano (altre operazioni di fumo negli occhi: unioni civili, Freedom of Information Act … per creduloni di ogni ordine e grado).

Ovviamente questa riforma avviene al di fuori del MiBACT, e quindi conferma che la scure sull’archeologia è un unico disegno più ampio, di cui il ministero è solo spettatore passivo (la riforma è stata d’altra parte scritta dal prof. Lorenzo Casini).

Vedremo nei prossimi anni chi sarà tanto ingenuo da voler intraprendere studi archeologici all’università. Ormai è passata la stagione delle iscrizioni facili e ben pochi atenei hanno le carte per attrarre studenti verso le materie umanistiche in generale, figuriamoci verso una professione fallita in partenza. Una volta ridotti all’osso gli iscritti ai corsi universitari di archeologia vedremo chi sarà ancora così soddisfatto del nuovo assetto e delle nuove libertà di ricerca concesse agli atenei se è vero che anche gli articoli 88 e 89 del Codice cadranno sotto la scure della riforma.

3 . La fine delle piccole cose

Qualche giorno fa è stata diffusa la notizia del taglio dei fondi del MiBACT a FastiOnline, un progetto unico nel suo genere di raccolta e condivisione dei dati sugli scavi archeologici in molti paesi, che aveva avuto uno slancio particolarmente bello con l’obbligo per tutti i concessionari di scavo di contribuire ad aggiornare la banca dati. Ma dimensione internazionale, open data, trasparenza e standardizzazione sono tutte voci assenti dal nuovo corso dell’archeologia italiana e magari qualche concessionario di scavo sarà contento di non dover più rendere conto delle proprie goffe performance sul campo. Nelle nuove, bellissime soprintendenze uniche su base interprovinciale si farà una tutela di puro cabotaggio burocratico, entro confini ancora più ristretti dei precedenti (perché, lo sappiamo benissimo, l’archeologia italiana di Stato non brilla né per ecumenismo né per ampiezza di vedute).

Qualche settimana fa tutte queste notizie mi sembravano già gravi sintomi, e non ho avuto il tempo di scrivere tutto in un unico foglio, su cui mostrarvi come unire i puntini. Le voci di corridoio si confermano sempre, e Matteo Renzi ci ha abituati a svolgere i suoi obiettivi con efficienza inumana. A breve quindi le nuove soprintendenze uniche, ancora in pieno marasma riorganizzativo, saranno trasferite sotto i nuovi uffici territoriali dello Stato, per garantire la loro totale servitù nei confronti della politica, in uno dei paesi più intrisi di corruzione e malaffare.

Rimane solo una soddisfazione: il riconoscimento che l’archeologia ha un ruolo veramente straordinario nella società, trasformativo dei rapporti di potere e di accesso al paesaggio, e questo ruolo dà fastidio a chi vuole mantenere lo status quo a proprio vantaggio. Di questo possiamo essere orgogliosi e continuare come possiamo a infastidire il popolo italiano presentandogli i frammenti del suo passato.

Immagine di copertina: Woodcut illustration of Cassandra’s prophecy of the fall of Troy (at left) and her death (at right) – Penn Provenance Project by kladcat [CC BY 2.0], via Wikimedia Commons

L’etimologia di Genova

Perché Genova si chiama così? Dipende dall’epoca in cui fate questa domanda.

Oggi il calendario segna 2015 quindi lasciamo perdere la (interessante ma ben nota) paretimologia medievale di Ianua e quella molto meno interessante che rimanda al termine greco xenos. Parliamo dell’etimologia “vera” di Genua, attestata per la prima volta in un cippo miliario dell’anno 148 a.C. (CIL I¹ 540 = CIL V 8045).

L’ipotesi principale è che genua sia un termine indoeuropeo, che significherebbe “bocca” (*genaua), riferito alla foce del fiume ‒ il Bisagno. La tesi è stata formalizzata da Xavier Delamarre che nota nel suo Noms de lieux celtiques de l’Europe ancienne. Dictionnaire (p. 13, nota 5; traduzione mia):

Per limitarsi alla toponomastica, è notevole che l’antico nome di Genova, Genua, porto ligure per antonomasia, abbia una costruzione precisamente simile a quello della gallica Ginevra, Genava, entrambi esito di *Genoṷā, derivazione in -ā di un tema *genu- che indica la bocca in celtico (irlandese gin bocca, gallese gên ‘mascella’), e quindi per estensione ‘l’imboccatura’. Ora, se la derivazione semantica bocca → imboccatura, porto è banale e universale (latino ōsōstium, tedesco MundMündung, finlandese suu ‘bocca’ → (joen)suu, etc), è in celtico e solo in celtico che il tema indoeuropeo *ǵénu- / *ǵonu- che inizialmente indica la mascella o le guance (latino genae, gotico kinnus, sanscrito hanu-, etc.) è passato per metonimia a designare la bocca. Il nome «ligure» del porto di Genua è pertanto costruito su un tema la cui semantica è specificamente celtica.

Tra gli archeologi Delamarre ha trovato un primo forte sostegno da parte di Filippo Maria Gambari. La validità di questa ipotesi è slegata dalla attribuzione della lingua ligure preromana alla famiglia indoeuropea o al substrato pre-indoeuropeo, proprio perché il nome è attestato solo in epoca così tarda, e quindi potrebbe essere una acquisizione linguistica dalla lingua celtica in una situazione ‒ attestata anche archeologicamente ‒ di commistione celto-ligure. Le scoperte archeologiche dell’ultimo decennio nella zona della foce del Bisagno rafforzano questa ipotesi e indeboliscono molto la precedente ipotesi, sempre di ambito indoeuropeo, che indicava una possibile radice *genu– “ginocchio”, riferita ad un altra caratteristica geografica di Genova: l’insenatura del porto.

È interessante come in entrambe le ipotesi sia stata data per acquisita la coincidenza dell’etimologia di Genova con quella di Ginevra (registrata per la prima volta come Genaua nel De Bello Gallico), come indicato ad esempio sul Wikeriadur Brezhoneg (wikizionario bretone). Il bretone (con alcune lingue affini) e il gallese sono di fatto le uniche lingue che permettono di indicare questa parola come celtica, creando quindi un possibile legame etimologico. In effetti nel Catholicon breton (1464), la più antica testimonianza scritta di questo termine è indicata come guenou (mentre nel bretone contemporaneo il lemma è genoù), quindi il termine antico è più difforme dalla forma “celtica” rispetto a quello contemporaneo. In gallese genau indica “mouth, lips; estuary, entrance to a valley, pass, mouth (of sack, cave, bottle, &c.), hole; fig. saying, speech.” (Geiriadur Prifysgol Cymru). Sia il gallese sia il bretone sono considerate lingue celtiche “insulari”, cioè parzialmente distinte dalle lingue celtiche parlate sul continente (a maggior ragione in Liguria) e ora estinte.

L’archeologa Piera Melli, accettando questa ipotesi, sostiene nel suo recente volume Genova dalle origini all’anno Mille che potrebbe anche essere avvenuta una “etruschizzazione” del nome, in cui sarebbe stato sostanzialmente preso a modello il nome di  kainua (Marzabotto) e di altri nomi di città etrusche come mantua e padua. Tuttavia questa forma etrusca del nome di Genova non è attestata, e rimane una suggestione legata alla relativa abbondanza di iscrizioni in alfabeto etrusco rinvenute a Genova.

Genova nacque alla foce del Bisagno, ma era solo l’inizio.

Pottery and archaeology on the Web

Today marks five years since Tiziano Mannoni passed away.

There’s one thing that always characterised his work in publications and lectures: a need to visualise anything from research processes to production processes and complex human-environment systems in a schematic, understandable way. The most famous of such diagrams is perhaps the “material culture triangle” in which artifacts, behaviors and significants are the pillars on which archaeology is (or should be) based.

As a student, I was fascinated by those drawings, to the point of trying myself to create new ones. In 2012, in a rare moment of lucidity, I composed the diagram below trying to put together several loosely-related activities I had been doing in the previous years. Not much has changed since then, but it’s interesting to look back at some of the ideas and the tools.

 

Pottery 2.0

Kotyle is the name I gave to a prototype tool and data format for measurements of the volume/capacity of ceramic vessels. The basic idea is to make volume/capacity measurement machine-readable and allow for automated measurements from digital representations of objects (such as SVG drawings). Some of the ideas outlined for Kotyle are now available in a usable form from the MicroPasts project, with the Amphora Profiling tool (I’m not claiming any credit over the MicroPasts tool, I just discussed some of the early ideas behind it). Kotyle is proudly based on Pappus’s theorems and sports Greek terminology whenever it can.

SVG drawings of pottery are perhaps the only finalised item in the diagram. I presented this at CAA 2012 and the paper was published in the proceedings volume in 2014. In short: stop using [proprietary format] and use SVG for your drawings of pots, vases, amphoras, dishes, cups. If you use SVG, you can automatically extract geometric data from your drawings ‒ and maybe calculate the capacity of one thousand different amphoras in 1 second. Also, if you use SVG you can put links to other archaeological resources such as stratigraphic contexts, bibliographic references, photographs, production sites etc directly inside the drawing, by means of metadata and RDFa.

Linked Open Archaeological Data (with the fancy LOAD acronym) is without doubt the most ambitious idea and ‒ unsurprisingly ‒ the least developed. Based on my own experience with studying and publishing archaeological data from excavation contexts, I came up with a simplified (see? I did this more than once) ontology, building on what I had seen in ArchVocab (by Leif Isaksen), that would enable publication of ceramic typologies and type-series on the Web, linked to their respective bibliographic references, their production centres (Pleiades places, obviously) and then expand this to virtually any published find, context, dig, site. Everything would be linked, machine-readable and obviously open. Granularity is key here, and perhaps the only thing that is missing (or could be improved) in OpenContext. A narrow view of what it may look like for a single excavation project is GQBWiki. I don’t see anything similar to LOAD happening in the near future however, so I hope stating its virtual existence can help nurture further experiments in this direction.

The original case study for LOAD is ARSILAI: African Red Slip in Late Antique Italy, that is my master’s thesis. The web-based application I wrote in Django naturally became the inspiration for creating a published resource that could have been constantly updated, based on feedback and contributions from the many scholars in the field of late Roman pottery. Each site, dig, context, sherd family, sherd type, ware has a clean URI, with sameAs links where available (e.g. sites can be Pleiades places, digs can be FastiOnLine records). Bibliographic references are just URIs of Zotero resources, since creating bibliographic databases from scratch is notoriously a bad idea. In 2012 I had this briefly online using an AWS free tier server, but since then I have never had again the time to deploy it somewhere (in the meantime, the release lifecycle of Django and other dependencies means I need to upgrade parts of my own source code to make it run smoothly again). One of the steps I had taken to make the web application less resource-hungry when running on a web server was to abandon Matplotlib (which I otherwise love and used extensively) and create the plots of chronology distribution with a Javascript library, based on JSON data: the server will just create a JSON payload from the database query instead of a static image resulting from Matplotlib functions. GeoJSON as alternate format for sites was also a small but useful improvement (and it can be loaded by mapping libraries such as Leaflet and OpenLayers). One of the main aims of ARSILAI was to show the geospatial distribution of African Red Slip ware, with the relative and absolute quantities of finds. Quantitative data is the actual focus of ARSILAI, with all the implications of using sub-optimal “data” from literature, sometimes 30 years old (but, honestly, most current publications of ceramic contexts are horrible at providing quantitative data).

So the last item in the “digital approaches to archaeological pottery” toolbox is statistics. Developing open source function libraries for R and Python that deal with commonly misunderstood methods like estimated vessel equivalents and their statistical counterpart, pottery information equivalents (pie-slices). Collect data from bodysherds with one idea (assessing quantity based on volume of pottery, that I would calculate from weight and thickness sherd-by-sherd) just to find out an unintended phenomenon that I think was previously unknown (sherd weight follows a log-normal or power-law distribution, at any scale of observation) Realise that there is not one way to do things well, but rather multiple approaches to quantification based on what your research question is, including the classic trade networks but also depositional histories and household economics. At this point, it’s full circle. The diagram is back at square one.