Open archaeology: otto anni di discussioni tra tecnica, metodologia e professione

For my non-Italian-speaking friends and readers: there is an older post in English, touching several of the topics discussed here.

Il 17 e 18 novembre ero a Paestum per il workshop “Il futuro dell’antico” organizzato dall’Associazione Nazionale Archeologi (ANA) che mi ha invitato a parlare di “Open archaeology”. I risvolti nel mondo professionale della cosiddetta (non da me) “rivoluzione” open mi interessano molto, in più non avevo mai partecipato alla Borsa Mediterranea del Turismo Archeologico (evento contenitore all’interno del quale si svolgeva il workshop) e tutto sommato mi mancava un viaggio agli estremi della logistica ferroviaria (sono passato sull’Albegna poche ore dopo la riapertura ‒ attraversando il disastro ancora nell’aria). Insomma, l’invito è stato veramente gradito.

XV Borsa Mediterranea del Turismo Archeologico - Paestum

Gli otto anni del titolo si contano a partire dal 2004. Il 2004 non è solo l’anno in cui prese vita IOSA, ma più in generale si avviò un processo di convergenza tra realtà fino a quel momento isolate che poi avrebbe condotto nel 2006 al primo workshop di Grosseto.

Con il senno di poi il mio intervento non è stato dei più comprensibili. Proverò qui a svolgere il tema in modo più articolato, riflettendo sui punti che ho affrontato.

Ho iniziato con una domanda che mi pongo da qualche tempo, riassunta così:

tecnologia + futuro = futuro migliore?

Forse è banale domandarselo. Forse è incoerente con il fatto che gran parte delle mie attività hanno a che fare con la tecnologia. Ma se guardo l’archeologia del 2012 e la confronto con quella del 2002 (c’ero già dentro… il tempo passa) o del 1992, sarei disonesto se volessi vedere un radicale miglioramento avvenuto grazie alla tecnologia:

  • maggiore precisione nelle misurazioni? Certamente sì, ma il rapporto costi/benefici non è stato opportunamente preso in considerazione;
  • maggiore quantità di dati raccolti? Certamente sì, ma i dati solo ora iniziano timidamente a circolare in rete, 20 anni dopo l’invenzione del web, mentre un report di scavo o un volume monografico sono immutati in forma, dimensione e fruibilità;
  • maggiore qualità dei dati raccolti? Non saprei;
  • migliore comunicazione al pubblico? In alcuni casi, una ristretta minoranza;
  • grandi scoperte grazie alla tecnologia? Nemmeno l’ombra;
  • cambiamenti di paradigma? rivoluzioni copernicane? Lasciamo perdere.

Questo non significa che dobbiamo rinunciare alla tecnologia o rifiutarla. Al contrario dobbiamo appropriarcene molto più di quanto abbiamo fatto finora, e liberarci della fascinazione che esercita. Ma andiamo con ordine.

Delicious, GeoCities e il software libero

Ho portato l’esempio dei social network come anello debole del nostro uso dei sistemi di informazione. I social network più diffusi (Facebook, Twitter, Google+ e tutti gli altri) sono al di fuori del nostro controllo. Inseriamo informazioni, aggiornamenti, foto in sistemi di cui non possediamo la chiave. Sono sistemi gratuiti: il prodotto non è il sito web usato da noi, bensì siamo noi il prodotto. Non è solo teoria catastrofista, purtroppo, come dimostrano la chiusura di GeoCities e di Delicious, tanto per fare alcuni esempi. A quando la chiusura di Facebook? Una persona qualunque può credere ingenuamente alla durata eterna di qualcosa. Un’archeologa, un archeologo no, per definizione.

Questo è importante per capire il ruolo del software libero: esistono sistemi distribuiti, cioè non centralizzati, che funzionano secondo gli stessi principi del Web. Questo blog utilizza un software (WordPress) che posso installare su altri server, anche se questo ha un costo superiore all’utilizzo di un sistema gratuito. In questa dicotomia tra “libero ma costoso” e “proprietario ma gratuito” spero si possa finalmente superare la grande confusione tra software open source e software gratuito che ancora permane.

Che sia in rete o installato sui nostri pc, il software proprietario ci priva del controllo sulle informazioni e sui dati. Ma perché siamo tanto attirati dalle novità tecnologiche?

Nuove tecnologie?

Il GIS (al singolare maschile), il 3D, le reti neurali, il laser scanning, il web semantico, i social network… tutti episodi nella grande saga delle nuove tecnologie per l’archeologia. 20 anni fa la tecnologia dell’informazione era molto meno pervasiva, l’archeologia era molto più accademica e quindi in qualche caso eravamo veramente all’avanguardia nell’adozione di nuove tecnologie. Oggi tutto è cambiato, e fa sorridere che qualcuno pensi ancora di essere innovativo perché applica, usa o sviluppa tecnologia. Peraltro un sottoinsieme della tecnologia, cioè la tecnologia dell’informazione. È ovunque, è un nervo della nostra società. Non è una scelta.

Ricollegandomi all’intervento precedente di Paolo Güll, posso dire che gli archeologi devono ancora perdere la loro innocenza nei rapporti con la tecnologia e l’informatica, ancora intrisi di feticismo, timore, ignoranza. L’archeologo facci l’archeologo, no l’informatico! sento la eco di questo disperato appello ancora pulsare parlando con tanti colleghi … e invece no, è importante capire se un sistema di gestione dei dati è appropriato o meno, e non è qualcosa che si possa decidere in poco tempo, senza pensarci, senza discuterne, senza comprendere (l’autore dell’appello rimarrà anonimo, che è meglio).

In più, mentre subiamo l’evangelizzazione dei profeti delle nuove tecnologie, possiamo fare innovazione usando vecchie tecnologie come il web per condividere dati archeologici. Potevamo farlo anche 20 anni fa, ma non ne siamo stati capaci. Di condivisione dei dati ha parlato più concretamente Gabriele Gattiglia prima di me illustrando il progetto MAPPA.

Open: cosa apriamo precisamente?

“A piece of content or data is open if anyone is free to use, reuse, and redistribute it — subject only, at most, to the requirement to attribute and/or share-alike.”

Open Definition

Nella Open Definition, si dice che un dato o un contenuto sono aperti se soddisfano certe condizioni. Dati. Contenuti.

Permission is hereby granted, free of charge, to any person obtaining a copy of this software and associated documentation files (the “Software”), to deal in the Software without restriction, including without limitation […]

MIT License

La licenza MIT è una delle più diffuse e comprensibili licenze di software libero. L’autore che la adotti per il proprio lavoro concede a chiunque, senza specificazione di provenienza, età, professione, autorizzazioni, il permesso di copiare, modificare, redistribuire il codice sorgente senza restrizioni né limitazioni. L’unica condizione è di citare l’autore.

Queste due definizioni sono importanti perché:

  1. spiegano senza mezzi termini che per essere “open” dobbiamo dare qualcosa agli altri ‒ se per esempio dico di avere un  “approccio open (source)” o una “filosofia open” non sto dando niente;
  2. spiegano che i destinatari non devono essere definiti a priori (es. gli archeologi in possesso di un certo titolo di studio), ma devono essere universali.

Un mea culpa è d’obbligo per aver contribuito alla diffusione di locuzioni (slogan?) come open archaeology senza il necessario sottotitolo: software e dati liberi. Ma purtroppo l’ambiguità della parola open è ben oltre i confini dell’archeologia e dilaga. Quello che vi chiedo è di non inventare nuovi significati di open dovunque sia coinvolta la tecnologia dell’informazione: il significato c’è, è chiaro, e contribuisce all’esistenza di cose come Wikipedia. Anche perché in caso contrario pongo una minaccia (amichevole ‒ si capisce): di perseguitare chi usa a sproposito la open archaeology pretendendo che la metta in atto veramente.

Sarei solo pedante con questo discorso (Vittorio Fronza lo avrebbe già battezzato pippone diversi paragrafi fa, a buon diritto) se non ci fosse ArcheoFOSS. Ma invece c’è. Dal 2006 abbiamo iniziato a incontrarci, raccogliendo intorno allo stesso tavolo archeologi, informatici, avvocati, economisti, studenti. All’inizio il tema era semplice e chiaro: Free software, open source e open format nei processi di ricerca archeologica (alla faccia degli acronimi). Però nel giro di due anni ci siamo trovati a parlare di:

  • diritto di accesso ai dati;
  • ostacoli alla circolazione delle informazioni in rete;
  • proprietà intellettuale degli archeologi a contratto

Questo è accaduto per due motivi. Il primo motivo è che queste tematiche sono lo svolgimento naturale dei principi del software libero (libertà di condivisione, riconoscimento della propria opera) nel contesto dell’archeologia italiana. Il secondo motivo, più grave e tuttora in cerca di una soluzione vera, è che non esiste in Italia un’altra occasione per affrontare questi temi ‒ affrontarli davvero, non parlarne e basta. Ritengo quindi fondata la necessità del legame tra software libero e dati liberi in questo contesto (Paolo Güll dopo mi ha detto che la pensa diversamente, ma intanto Metarc usa Mediawiki, FastiOnLine è software libero dalla testa ai piedi, così come MAPPA).

L’accesso alle banche dati è diventato fondamentale anche a livello economico dopo l’introduzione dell’archeologia preventiva, perciò qualunque professionista può capire che questa battaglia (se si può chiamare così) è un obiettivo comune. Con l’introduzione del software libero nella Pubblica Amministrazione la condivisione dei dati è oggettivamente più semplice. Per i liberi professionisti e le piccole imprese (di medie e grandi non ne vedo in archeologia) si pone anche un’altra questione economica: investire sulla formazione o sui costi di licenza? E ancora, rifacendomi all’esempio dei social network, che vale però per qualunque servizio web, esternalizzare o fare rete? Mi piacerebbe, a maggior ragione nell’ambito di un incontro organizzato dall’ANA, che queste problematiche non fossero relegate alle scelte dei singoli ma affrontate collettivamente, che si tenesse conto del percorso già fatto in questi anni.

Un esempio di “open” che mi piace

L’apertura delle banche dati e del libero accesso al patrimonio informativo sui beni culturali non riguarda solo gli archeologi. Nel suo intervento Tsao Cevoli ha messo bene in evidenza come un modello sano di partecipazione alla gestione del patrimonio debba includere anche i cittadini.

Nel 2012 per la prima volta si è tenuto in Italia il concorso fotografico Wiki Loves Monuments. Il concorso è stato possibile (anche) grazie ad un accordo tra Ministero per i Beni e le Attività Culturali e Wikimedia Italia, che consentiva di fotografare liberamente i monumenti e siti archeologici che le soprintendenze segnalavano, con una particolare attenzione a quelli “minori” (con meno di 50.000 visitatori l’anno).

Anfiteatro di Capua – Nicola D’Orta – Il vincitore di Wiki Loves Monuments Italia 2012

Tutte le foto partecipanti al concorso sono state caricate su Wikimedia Commons con una licenza Creative Commons – Attribuzione – Condividi allo stesso modo (CC-BY-SA) che permette il riutilizzo senza limitazioni, a patto che si continuino a condividere i contenuti. A me questo sembra un grande esempio di “beni culturali open” in cui la rete serve a incentivare la partecipazione dei cittadini e la “appropriazione buona” dei beni culturali, con una eccezione temporanea ad una norma tra le più anacronistiche del Codice dei Beni Culturali e del Paesaggio.

Tirando le somme…

Nel 2007 avevo invitato Tsao Cevoli, presidente dell’ANA, al secondo workshop sull’archeologia e il software libero (non si chiamava ancora ArcheoFOSS), per parlare di accesso ai dati. Già allora avevamo capito che il software era necessario ma non sufficiente. Già allora avevamo capito che era fondamentale uscire dalle aule universitarie e diffondere una maggiore consapevolezza sugli strumenti e le pratiche di creazione e gestione delle informazioni. Ci siamo un po’ persi per strada e nonostante la partecipazione di professionisti e soprintendenze sia diventata un elemento costitutivo di ArcheoFOSS c’è ancora molto lavoro da fare per rendere questa consapevolezza elementare (nel senso scolastico) e universalmente diffusa.

Il bello di questo workshop è stato ritrovare lo stesso spirito di partecipazione e critica che siamo riusciti a creare in ArcheoFOSS, in una atmosfera seria ma sanamente informale (nella quale ho potuto rivendicare il diritto al mugugno all’inizio del mio intervento) . È un modo per andare dritti al sodo, senza girare intorno ai problemi.

Ho concluso più o meno così:

Io non credo nella condivisione della conoscenza come costituzione di super-intelligenze, di banche dati in grado di rispondere a tutte le domande, la conoscenza si fa costruendo e assemblando le banche dati. Spero invece che la crescente diffusione di dati archeologici in rete possa dare ‒ per dirla con Wu Ming ‒ asce di guerra alle archeologhe e agli archeologi di domani.

• · • · •

Appendice: standard e partecipazione

Sabato 17, durante la prima sessione del workshop, ho commentato l’intervento di Andrea D’Andrea sul web semantico, sottolineando che le ontologie CIDOC-CRM sono state create a tavolino da un gruppo ristretto di persone (per la gestione dei beni museali), ed è quindi difficile accettare che questi standard siano accettati da decine di migliaia di professionisti che se li vedono recapitare a scatola chiusa. È vero che CIDOC-CRM è uno standard ISO: tuttavia, mentre qualunque ingegnere impara che per certi aspetti del suo lavoro dovrà fare riferimento agli standard ISO di competenza, a nessun archeologo viene comunicata l’esistenza di questi standard, che rimangono dominio per pochi “scienziati dell’informazione” (cito D’Andrea) in grado di interagire con gli archeologi. Sono emersi anche problemi di ordine concettuale e filosofico, ma non li affronto qui. Mi è sembrato emblematico che D’Andrea stesso abbia definito “incomprensibili” alcuni dei principali concetti che tentava di esporre ‒ e che si continui a partire da concetti totalmente astratti (ontologie, modelli dati) senza riuscire ad entrare nel concreto e semplice svolgimento dei linked open data.

Ho fatto anche un incauto parallelo con lo sviluppo delle schede ICCD negli anni ’80 (a cui è seguita una opportuna correzione di Giuseppina Manca di Mores, che comunque mi è sembrata rafforzare il punto del mio discorso sull’importanza della partecipazione). L’importanza di standard costruiti tramite processi partecipativi è ritornata anche nelle discussioni di domenica e credo possa essere un punto di partenza per iniziare a confrontarsi con gli standard tecnici che già esistono in modo critico e iterativo (l’iteratività dei processi creativi mi piace molto ‒ ma ne parliamo un’altra volta), puntando alle buone pratiche.

Total Open Station packaged for OpenSUSE

Thanks to Angelos Tzotzos (Remote Sensing Laboratory, National Technical University of Athens) Total Open Station has an installable package for OpenSUSE, since a few weeks. Installing is as easy as:

$ sudo zypper ar http://download.opensuse.org/repositories/Application:/Geo/openSUSE_12.1/ GEO 
$ sudo zypper refresh 
$ sudo zypper install TotalOpenStation

Any report about this package will be very welcome. We have already added these instructions in the website.

A few days ago I met Angelos in Athens. He is a very active member in several OSGeo projects and even more importantly he does an incredible job at animating the small Greek OSGeo community. I hope they will grow as our Italian community did, and I think we have an obligation to help them.

ArcheoFOSS 2010: back from Foggia

ArcheoFOSS 2010, the 5th Italian workshop on “Free software, open source e open format nei processi di ricerca archeologica” took place in Foggia, on the 6 and 7 May. First of all, it was very good. I’m satisfied with this meeting. Why? Here are some thoughts I sketched while traveling back to Siena.

Lots of talks were about the results and methods of research done by MA and PhD students (myself included) – and this means one of the most important pieces of research, perhaps the most important at all, and the most underrated at the same time. Our community shows a strong connection between education and research. Making this connection stronger is part of our habits, I believe

There was a lot of discussion about methodology, and thanks to the firm experience of our friends in Foggia we have gone beyond some stereotypes of the past years. Take for example the recognition that methodology means much more than recording, documentation or technical tools. Add the acceptance of plurality as a (positive) fact rather than a problem. End up with the epiphany that using similar tools (e.g. databases, GIS) doesn’t mean working with the same underlying methodological mindset. In Italy we have a very bad habit of not having a debate about method and theory, but with this workshop we’re clearly building a place open for discussion.

We are well distributed geographically (from many regions of Italy) and chronological/disciplinary (from prehistoric to medieval archaeology, both excavation and landscape archaeologists). Despite this variability, there are some strong groups that are references for the whole community. I firmly believe that the University of Foggia should be listed among these groups since now. Even more interestingly, there are new groups of people that look very promising for their novel approach (I am glad to see that even my department could now be listed here). The ArcheoFOSS workshop is already acting as an incubator for innovation, and in the future we will see more of that, because of the large number of young researchers involved, the friendly and encouraging environment that is perhaps even more interesting than “open archaeology” for Italian academia. Or maybe it’s just part of the “open archaeology” agenda.

Free software works. It works from a technical perspective, obviously, but also from a social one. We have been learning its limits, its potential and the ways to improve it and share it. There’s a political vein in free software, and it’s so well combined with the need for a new way of doing research in archaeology. On the technical side, I am more and more excited about how creativity is encouraged, instead of being pre-ordered. We are doing humanities – it would be so silly to lose our creativity (also when it goes towards chaos and anarchy), in the name of a pseudo-scientific strictness born out of a great misunderstanding. We already won one bet since the early 2000, but now we can play with something even more important: not just sharing software and methods, but sharing knowledge. This is our target for 2020, and what we are going to do for the next decade.

Lastly, we’re learning how to act in the real world, and not just discuss among ourselves. Take for example the creation of common tools for creating catalogues. we can do that from the bottom up, with a wide perspective that is going to comprise technical standard, conservation and research needs – all as free software and open formats. grupporicerche already proposed some work in this direction last year, and we invite again all those who have developed databases for archaeological purposes to share them.

What’s missing? Of course, we have lots of areas for improvement. This is also because of the “multidimensional” approach of this initiative. Here I list some topics that I’m particularly interested in:

  • quantitative and statistical methods: let’s take back maths into archaeology through computing! This is not to say that archaeology can be reduced in numerical terms, but on the contrary to better define the complexity we are dealing with, giving the right weight to “data” (whatever that means) and developing proper archaeological ideas
  • an inter-regional and international approach, to deal with big not-so-big research themes in a collaborative way
  • encouraging the upgrade of old databases from obsolete, proprietary formats to open and free formats, ready for dissemination on the web
  • build a technological infrastructure for sharing our work, in the many forms it can take – or at least develop best practices for doing that on our own, taking accessibility and sustainability into account since day #0

More comments, insights and excerpts from the round table to follow in the next few days.

This post was originally published at iosa.it.

M(‘)appare Milano – campagna di mappatura OpenStreetMap sotto la Madonnina

M(‘)appare Milano è la nuova iniziativa lanciata da GFOSS.it e OpenStreetMap per coinvolgere i mappatori milanesi in micro eventi della durata massima di 3 ore durante i quali si procede alla raccolta dei dati di una zona limitata di territorio. La fase di editing della mappa verrà svolta dai partecipanti al proprio domicilio.

Lo scopo collaterale è quello di far conoscere il progetto ad altri potenziali partecipanti coinvolgendoli in una mappatura a due nella loro prima esperienza.

Il primo Micro Mapping Party si è svolto il 2 marzo 2008 nella zona compresa tra:

  • viale Zara-Fulvio Testi
  • viale Marche
  • viale Monza
  • via Giosué Carducci a Sesto San Giovanni

milano

Se abiti a Milano o nei dintorni, mappa anche tu!

Export from OpenOffice to Mediawiki

Sono amministratore di (circa…) 8 installazioni di Mediawiki. Mediawiki è il software (libero) che fa girare Wikipedia e migliaia di altri wiki in tutto il mondo. Inoltre, sono utente di qualcosa come 20-25 wiki che utilizzano Mediawiki. Insomma… lo uso spesso.

Oggi ho scoperto che per chi usa OpenOffice.org 2.4 è disponibile la fa-vo-lo-sa possibilità di esportare un file di testo nel formato di Mediawiki, tabelle incluse – chi ha mai avuto necessità di usare tabelle può capire cosa ciò significhi.

Provare per credere! Spero che questo sia un ulteriore incentivo per usare OpenOffice.org.

Schermata-Esporta

Total Station and GNU/Linux: Zeiss Elta R55 done!

The pySerial library is really good. Today I installed it and in half an hour I got acquainted with its class methods, even though I have little knowledge about serial ports and the like.

With some trial and error about the connection parameters, I was even able to solve the problem with non-printable characters, tweaking the bytesize of the connection.

Briefly, these are the steps I did in the interactive ipython console:

  1. >>> import serial
    >>> ser = serial.Serial('/dev/ttyUSB0', \
    baudrate=9600, bytesize=serial.SEVENBITS, timeout=0, \
    parity=serial.PARITY_NONE, rtscts=1)
    >>> ser.open()
  2. at this point, start the transfer from the device
  3. check that you have received some data:
    >>> ser.inWaiting()
    648L
    

    A non-zero result means that you have received something.

  4. I saved this value to use it with the read() method of the Serial class:
    >>> n = ser.inWaiting()
    >>> result = ser.read(n)
    
  5. The result object is a string, seeing its contents is as simple as:
    >>> print(result)
    0001 OR.COOR
    0002                   0S        X        0.000 Y         0.000 Z     0.000
    0003                                            Om     397.0370
    0004 POLAR
    0005 INPUT                       th       1.500 ih        0.000
    0006 INPUT                       th       0.000 ih        0.000 Z     0.000
    0007                   1         X       -0.472 Y         1.576 Z     0.004
    END
    

    As you can see, there are no errors after the END sentence, because the serial connection is handled gracefully now. The previous attempt with cat /dev/ttyUSB0 was a bit brutal…

For now, that’s all. I go back studying and maybe also writing some Python code for this Total Station. If you have got a total station and want to contribute to this project, let me know by leaving a comment here.

Total stations and GNU/Linux, part 2

In this off-line weekend, I went on investigating the output from the Zeiss Elta R55 total station.

First of all, it turns out that the file was not binary. A simple

$ file downloaded_data
downloaded_data: Non-ISO extended-ASCII text

could have revealed this simple truth. My error was due mainly to the fact that most of the content in the file was made by non-printable characters. But my guess about the lines that contained the point coordinates was right. Probably due to a wrong download procedure, there were some problems with that file. All characters with code > 128 (hex 80) had to be translated shifting their code by 128. I used this simple Python script for this task:

>>> read_file = open("downloaded_data", 'r')
>>> des = read_file.read()
>>> for i in des:
...     if ord(i) > 127:
...         print chr(ord(i)-128)
...     else:
...         print chr(ord(i))

Probably this could be done in a better way, but I’m no hexpert at all. And I think this can be completely avoided by downloading from the serial port with the right connection parameters. I think I’m going to use the pySerial library for this task.

Obviously, I’m solving the problem for one model of one manufacturer, but there are many models and many brands. With my short experience, the best solution I can think of is a modular approach, with an abstract connection class that can be subclassed, with the connection parameters for each model.

The second part of the story comes when it’s time to process the downloaded data. First of all, take a look at the clean file contents:

   0001 OR.COOR
   0002                   0S        X        0.000 Y         0.000 Z     0.000
   0003                                            Om     397.0370
   0004 POLAR
   0005 INPUT                       th       1.500 ih        0.000
   0006 INPUT                       th       0.000 ih        0.000 Z     0.000
   0007                   1         X       -0.472 Y         1.576 Z     0.004
END
E
E

Let’s comment it, line by line:

  1. the first line contains the OR.COOR string, but I’m not sure about the other possible values it can take; the line starts with 0001 like all other lines, except the last one
  2. the second line contains the X Y Z coordinates of the origin point (maybe represented by the string 0S?); please note that it uses the same format as for normal points, except that instead of the id number there is this special string
  3. the third line contains information about the orientation angle, but I can’t tell anything more specific about this
  4. the fourth line contains the POLAR string, that is probably referred to the orientation method; I’m not sure about the other values this field can take
  5. the fifth and sixth lines both start with an INPUT string, that should refer to the height of the reflector prism: 1.500 m is in fact the usual height of the reflector
  6. the seventh line contains our only recorded point, with its id (an integer number) and the X Y X coordinates with precision 3
  7. the eighth line indicates that there are no more points to download, and starts with the END string: when downloading, the program should stop here, otherwise the device emits an error (and also a noisy beep), that is represented by the E string on the following lines
  8. attempts to let the download go on even if the device emits the error simply result in more E lines

Part 3 will follow soon.

cat /dev/total_station > file

This post is one of the “dear lazyweb” ones.

Here at the department we have a Zeiss Elta R55 total station. This device has its own software for downloading recorded data, but, as usual, it’s a Windows-only, non-free application.

Is it possible to download data from such a device using a GNU/Linux machine? Nobody knows. I have asked a number of people and no one has ever tried to do this. 🙁 With some good advice from Frankie, today I made my first test.

With substantial help from Elisa, I recorded 1 point. This point has coordinates:

X    -0.472
Y     1.576
Z     0.004

I downloaded from the device using this simple command (it’s ttyUSB0 because my laptop has no serial port)

cat /dev/ttyUSB0 > data

The total number of points is 7. Points 1-6 contain information about the origin point and other parameters. For now, I’m ignoring them. The resulting data file is binary. You can see it here. I am no expert of binary files, so I used GHex to see its contents. Its dumped form looks like this:

...000.....................
...........................
...........................
...000....................0
S.................0.000.Y..
.......0.000.Z.....0.000...
...0003....................
...........................
....39..03.0...............
...000..P..A...............
...........................
...........................
...0005..NPU...............
.........t..........500.i..
.......0.000...............
...0006..NPU...............
.........t........0.000.i..
.......0.000.Z.....0.000...
...000.....................
.................-0.....Y..
.........5.6.Z.....0.00....
.ND........................
...........................
...........................
...............

Some comments about this first test:

  • anything after the ND means there are no more data.
  • the recorded point seems to be in the part immediately before ND

If anyone has any other suggestions about this test, please tell me.