Macchine che apprendono
Algoritmi, automi, machine learning e intelligenza artificiale
Remko Bigai | AI Algorithms Engineer
La digitalizzazione di un archivio storico (heritage aziendale) è quel processo che principalmente trasforma la natura fisica dei documenti. Dal supporto cartaceo (lettera, scheda, foto) i dati vengono fatti migrare su supporto digitale. Si tratta di un'operazione complessa (che può coinvolgere anche le fonti già digitali) che richiede l'utilizzo di vari strumenti hardware (scanner, macchine fotografiche, computer, server) e software.
Nella digitalizzazione si produce una grande quantità di dati che deve essere processata secondo le indicazioni e nelle modalità previste dalla struttura responsabile del progetto. Questa attività si chiama data processing ed è basata sull'utilizzo massivo di algoritmi.
Il termine algoritmo ha una origine antica e risale al IX secolo della nostra era, quando la scienza parlava arabo e Baghdad era il centro della cultura matematica medievale. A quei tempi uno dei matematici (e astronomo e geografo) più famosi si chiamava Muhammad ibn Musa al-Kuwarizmi. Un genio universale. Fondò l'algebra e diede il nome ai procedimenti di calcolo utilizzati nel medioevo e basati sull'uso delle cifre arabiche. Al Kuwarizmi – Algorithmus – Algoritmo.
Fino a qualche anno fa, algoritmo era un termine astruso che evocava incubi notturni ai liceali prossimi alla maturità. Oggi, in seguito alla rivoluzione informatica promossa da Internet, Smartphone, App e Social, tutti parlano di algoritmi, intesi come procedimenti quasi magici che a partire da una base dati più o meno ampia sono in grado di fare qualunque cosa, compreso influenzare il comportamento delle persone su questioni di primaria importanza come è testimoniato dal caso Cambridge Analytica. In informatica gli algoritmi fanno soprattutto cose buone, In particolare nel settore della digitalizzazione dei beni archivistici e documentali. In questo campo, essi sono assimilabili a software realizzati tramite apposita programmazione (coding) che svolgono autonomamente una serie di operazioni (conversione, misurazione, trasformazione) sui file con l'obiettivo di:
- Velocizzare il tempo di elaborazione;
- Ridurre il numero di persone addette a tale elaborazione;
- Migliorare il risultato finale.
Gli algoritmi di digitalizzazione possono svolgere operazioni di varia natura. Alcune elementari: rotazione, scalatura, ritaglio, correzione colore, aggregazione immagini, organizzazione file. Altre più complesse: Optical Character Recognition (OCR), Object Detection (riconoscimento contenuto), trasformazione del contenuto.
Per poter far svolgere agli algoritmi operazioni particolarmente complesse non è più sufficiente la sola abilità del programmatore. È necessario che le macchine imparino da sé. È una prospettiva affascinante e terrificante allo stesso tempo. È già reale. Si chiama Intelligenza Artificiale (Artificial Intelligence/AI).
Il sogno di creare macchine intelligenti ha sempre accompagnato l'uomo. Già nel mondo ellenistico esistevano gli automi, oggetti artificiali che svolgevano funzioni 'umane'. Il primo automa della storia fu probabilmente il servo automatico di Philon, una sorta di robot del III secolo AC che serviva vino agli ospiti del suo padrone. A questo seguì la Macchina di Anticitera, una sorta di calcolatore ante litteram risalente al 150 AC. Con un salto nel tempo si passa dalla Grecia antica alla Roma papale e alla testa parlante di Silvestro II. Ad Al Jazari e alla civiltà araba del XIII secolo si deve il primo automa programmabile. Pare che anche Leonardo da Vinci progettò un automa cavaliere. Ma forse è una leggenda, come quella del Golem che simboleggia il desiderio dell'uomo di dare vita alla materia inanimata, sostituendosi a Dio.
Tornando ai giorni nostri è opinione diffusa che il padre dell'intelligenza artificiale contemporanea sia Alan Turing, matematico inglese di Cambridge, che nel 1936, a soli 22 anni, realizzò la famosa Macchina di Turing, la prima "macchina ideale" in grado di eseguire algoritmi. La connessione tra macchina, algoritmi e intelligenza artificiale venne definitivamente stabilita. Da quella data partiranno sviluppi inimmaginabili, che trasformeranno il mondo del 20° e 21° secolo. In questo lasso di tempo si passa dall'Intelligenza Artificiale, che descrive le tecniche che permettono alle macchine di imitare il comportamento umano, al Machine Learning, che definisce tecniche che offrono ai computer l'abilità di imparare senza essere programmati per farlo, per arrivare al Deep Learning, uno sviluppo dell'intelligenza artificiale che consente alle macchine di strutturare delle vere e proprie reti neurali artificiali. Così facendo, le macchine non soltanto apprendono, ma creano connessioni originali che, potenzialmente, contribuiscono allo sviluppo della conoscenza. Per progredire questi protocolli hanno bisogno di alimentarsi di grandi quantità di dati. Proprio quel genere di dati che grazie ai progetti di digitalizzazione degli archivi storici è oggi possibile raccogliere in grandi quantità.
Una convenienza reciproca quindi. I dati migliorano l'apprendimento di questi sistemi, i quali a loro volta contribuiscono alla valorizzazione creativa dei dati. Una strategia win win che le imprese storiche, grazie a progetti come quelli proposti da Made in Heritage, hanno oggi la possibilità di sfruttare.