Home > Innovazione > EYECAN: dati per l’AI Industriale in modalità “All-You-Can-Eat”

EYECAN: dati per l’AI Industriale in modalità “All-You-Can-Eat”

L’innovativa azienda bolognese EYECAN ha realizzato una tecnologia – image tagging – che permette di identificare le immagini. TrainingMachine, una soluzione basata su Intelligenza Artificiale che supera il problema della riconfigurazione

di Davide Lega davileg@tin.it

L’intelligenza artificiale ha bisogno di dati. Per questo motivo i dati oggi sono chiamati il nuovo petrolio. Ma come l’oro nero, necessitano di essere raffinati e quando sono immagini queste devono essere prima classificate.

Parliamo di classificazione di immagini o Image Tagging o più semplicemente Tagging e di un azienda italiana EYECAN che sta proprio lavorando su questo tema.

davide lega

Ne scrive Davide Lega, consulente e formatore aziendale nel campo della Logistica e Lean Manufacturing, autore di libri e manuali tecnici, che prosegue il dialogo con i lettori di econerre.it sui temi dell’Industria 4.0 e dell’innovazione.
Lega collabora con scuole, agenzie interinali, agenzie di intermediazione nella formazione, aziende, privati.

Molti anni fa i ricercatori pensavano che creare un computer che riuscisse a differenziare l’immagine di un cane da quella di un gatto sarebbe stato impossibile. Per merito del progresso significativo nel campo dell’intelligenza artificiale ora si può fare a un livello di precisione superiore al 99 per cento. Questa attività è chiamata classificazione delle immagini e i computer attuali non solo riconoscono la differenza tra cane e gatto, ma anche con precisione le specifiche razze e soprattutto lo fanno in velocità. Basti pensare che poco tempo fa occorreva circa 20 secondi per processare una sola immagine.

Il passo successivo nella classificazione di immagini è riconoscere all’interno dell’immagine non solo il cane e la specifica razza, ma ovviamente anche gli altri oggetti che lo circondano. Questo compito viene svolto dividendo l’immagine originale in “bounding boxes” e cioè riquadri al cui interno cerchiamo di trovare e quindi classificare gli oggetti. Una volta individuati gli elementi e le loro posizioni relative possiamo poi pensare di fare un ulteriore passo avanti cercando di capire l’interazione tra questi oggetti in uno spazio di fatto reale.  Se vogliamo costruire un sistema basato sulla visione artificiale, ad esempio un auto senza pilota o un robot all’interno di un reparto che manipola oggetti o un veicoli a guida automatica AGV – Automatic guided vehicle questo è il tipo di informazione di cui necessitiamo, appunto, il nuovo petrolio.

Ritornando alla velocità di processamento delle immagini, è ovvio che venti secondi a immagine sarebbero un tempo molto lungo se consideriamo un veicolo automatico la cui capacità di riconoscere oggetti è legata alla sua capacità di interagire nel mondo fisico azionando ad esempio un freno in caso di necessità. Se passiamo a due secondi il nostro computer è ovviamente più veloce e capace di riconoscere ed inseguire un oggetto che si muove a quella velocità, ma stiamo parlando di un uomo che cammina a piedi molto lentamente (3,6 km orari) e non certo di un autoveicolo o di un robot industriale.

Cominciamo a capire l’importanza della velocità nel riconoscimento degli oggetti.

Occorre allora una velocità che identifichi gli oggetti in tempo reale anche quando cambiamo la taglia di un oggetto, pensiamo a un palloncino che si gonfia o si sgonfia molto velocemente o a un uomo che allarga le braccia o che si rannicchia o che addirittura volta le spalle. E questa velocità è di venti millisecondi a immagine ed è quella che occorre se vogliamo costruire un sistema basato sulla visione artificiale real time.

L’elaborazione viene svolta da reti neurali che possono essere allenate anche su specifiche e limitate classi di oggetti e a questo punto, come puoi immaginare, questo riconoscimento sarà utile per trovare quegli specifici oggetti in qualsiasi ambiente. Penso ad esempio a un bambino nascosto tra gli alberi che gioca a nascondino, o a un attrezzo di officina caduto per terra, o a al salvataggio di persone in disastri  ambientali o più semplicemente a oggetti di uso comune in un ambiente casalingo (gli occhiali e il cellulare). Pensando a applicazioni più serie lo stesso codice, utilizzato per identificare segnali di stop o pedoni o biciclette per un veicolo automatico, può essere utilizzato per trovare cellule cancerose durante una biopsia. L’utilizzo di questa tecnologia è infatti un metodo già da tempo utilizzato per fare passi avanti in campi come la medicina. Inoltre questa tecnologia è già disponibile per smartphone e sono quindi sicuro che presto la vedremo su tutti i nostri cellulari.

In questo ambito tecnologico si muove l’azienda EYECAN di Bologna https://www.eyecan.ai/ che propone TrainingMachine, una soluzione basata su Intelligenza Artificiale dedicata, inizialmente, ai sistemi Robotici dotati di Visione operanti sulle linee di produzione. Questi sistemi infatti soffrono del problema della riconfigurazione: se cambiano le condizioni ambientali o i prodotti transitanti è necessario intervenire con una manutenzione adattiva/correttiva del Software. Con TrainingMachine il sistema è in grado di riconfigurarsi senza intervento umano.

I fondatori della società sono tre: Daniele De Gregorio, CEO e CTO (P.h.D e PostDoc in Robotica e Visione Artificiale), ha lavorato come sviluppatore senior per due Startup, Samuele Salti, advisor (professore di Reti Logiche) ha coordinato il team di Data Science di Verizon Connect, azienda leader mondiale nel campo del fleet management e Luigi Di Stefano, Advisor&Networking (professore ordinario di Computer Vision), è stato membro indipendente del CdA di Datalogic SpA.

La tecnologia di TrainingMachine serve a generare i Dati di Addestramento per le moderne Reti Neurali in ambito industriale. Generare i dati vuol dire appunto prendere le immagini, una per una, e aggiungere un contenuto informativo, e.g. “cerchiare” col mouse gli oggetti di interesse, e per questo è chiamata  Etichettatura o Tagging. L’idea vincente è automatizzare completamente queste operazioni che attualmente sono prodotti solo a mano da  startup internazionali che prendono in carico le immagini e le etichettano utilizzando personale poco specializzato dislocato in parti del mondo dove il costo della manodopera è molto basso.

EYECAN: il plus della tecnologia TrainginMachine

Il vantaggio di questa tecnologia è evidente: per fare un esempio, se volessimo addestrare un sistema robotico a riconoscere della frutta per farne del Pick&Place, dovremmo etichettare circa 10.000 immagini e costerebbe 500 ore di lavoro manuale. Con TrainingMachine viene tutto fatto da un robot dotato di telecamera e in pochi minuti, con un boost di performance di più di 1000x. In più non ci sono sbagli, perché fare questo lavoro a mano comporta un 5% di errori che degradano le performance della Rete Neurale che andiamo ad addestrare.

Cosa più importante, non dobbiamo mandare le nostre immagini a terze parti (per farle etichettare più velocemente) rompendo così la riservatezza che è altamente richiesta nel mondo industriale.

La parte più interessante di TrainingMachine è che questa tecnologia a bordo del robot è in grado di generare dati per addestrare se stesso o altri robot a fare nuovi task visivi (e.g. riconoscimento oggetti per manipolazione). Di conseguenza questa tecnologia li rende auto-riconfiguranti cioè senza intervento umano.

L’ idea, ben oltre il livello prototipale, e validata in laboratorio, ha già trovato numerosi clienti. Le prime applicazioni di TrainingMachine sono per i  costruttori di macchine per il packaging, specialmente per le parti di pick&place di fine linea, perché sono quelli che soffrono di più la “riconfigurazione” continua dei loro sistemi (e.g. quando ci sono cambi di luce o cambi di oggetto il software deve essere riscritto o adattato per poter funzionare). Tuttavia, la tecnologia si adatta bene a qualsiasi altro sistema robotico industriale dotato di visione e quindi il  piano a lungo termine di EYECAN, dopo aver validato il mercato del packaging, è quello di scalare su altri.

Non è un compito facile, come si può capire. Per questo la mia simpatia e il mio supporto vanno a EYECAN e a tutte quelle aziende che vorranno testardamente incamminarsi su questo complicato, ma affascinante nuovo percorso tecnologico il cui orizzonte appare appena abbozzato.

Un altro video di EYECAN, impresa selezionata per Up Idea Startup Program e un programma di accelerazione che parte al Tecnopolo di Reggio Emilia

image_pdf