Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Se l’occhio elettronico diventa smart

Se l’occhio elettronico diventa smart

Sony lancia i primi sensori d'immagine intelligenti (IMX500 e IMX501) e indica la via: puntare sull’intelligenza artificiale distribuita

25 maggio 2020, 13:31

Redazione ANSA

ANSACheck

Se l’occhio elettronico diventa smart - RIPRODUZIONE RISERVATA

Se l’occhio elettronico diventa smart - RIPRODUZIONE RISERVATA
Se l’occhio elettronico diventa smart - RIPRODUZIONE RISERVATA

di Alessio Jacona*

Non si vive di solo cloud computing: i centri di elaborazione interconnessi tra loro e distribuiti in tutto il mondo - quella “nuvola informatica” nata per offrire potenza di calcolo e capacità di storage quasi infinite - da soli non possono bastare a sostenere tutte le possibili applicazioni dell’intelligenza artificiale nella realtà che ci circonda.

Se infatti uno degli obiettivi è rendere sempre più “smart” gli strumenti tecnologici che utilizziamo tutti i giorni, dalla lavatrice alla televisione, dalle auto ai semafori, demandare al cloud tutti i calcoli necessari a farli funzionare è già possibile, ma spesso può non essere la soluzione ottimale.

Prendiamo l’esempio delle telecamere a circuito chiuso: in giro per il mondo c’è una quantità di occhi elettronici che ogni giorno svolgono i compiti più diversi sorvegliando porzioni di territorio, oppure contando il numero di persone nei negozi e negli aeroporti, le auto sulle strade, le scatole piene di merci presenti nei magazzini. A queste mansioni si aggiungono ora anche altri delicati compiti: monitorare la temperatura delle persone presenti nei luoghi pubblici, così come vegliare sul rispetto delle regole di distanziamento fisico per combattere l’epidemia di Sars-cov-19.

Dato questo contesto, ci sono due scenari possibili: nel primo, poco raccomandabile, si moltiplicano gli streaming video verso i server remoti, dove sistemi basati su intelligenza artificiale analizzano un frame dopo l’altro e separano le (poche) informazioni necessarie da miliardi di bit tutto sommato inutili. Una modalità che tende a intasare la rete, può creare problemi di privacy per le persone inquadrate e richiede costosa potenza di calcolo per “setacciare” i video.

Il secondo scenario è quello che Sony, il gigante giapponese dell’elettronica, ha appena reso possibile lanciando i primi due sensori d’immagine “intelligenti” al mondo, i Sony IMX500 e IMX501. Una soluzione che si ispira ai principi di ciò che chiamiamo “edge AI computing”, e che consiste nel portare l'hardware necessario a far girare gli algoritmi che elaborano le immagini il più vicino possibile alla fonte dei dati.

Che cosa cambia? Facciamo un esempio pratico: mettiamo il caso che in un aeroporto siano state installate alcune telecamere equipaggiate con i nuovi sensori Sony per scopi diversi, come monitorare il numero di persone che accedono alla struttura, quante transitano ai gate, o ancora per misurare la loro temperatura corporea. Grazie all’intelligenza artificiale “incorporata”, questi sensori possono analizzare le immagini mentre le catturano, estrarre i dati che servono (ad esempio il numero di persone presenti in un luogo in un dato momento) e inviare al sistema centrale solo i metadati che ne hanno estratto, evitando così saturazione della banda ed eventuali ritardi dovuti all’inefficienza delle connessioni. Ma anche garantendo il rispetto della privacy degli utenti, visto che la loro immagine non lascia la telecamera per raggiungere il cloud ed essere analizzata.

Se a questo aggiungiamo che ogni sensore può essere riprogrammato a piacimento con un nuovo modello di IA, di fatto cambiando scopo e funzionalità di una telecamera senza intervenire sull’hardware, i vantaggi della soluzione Sony appaiono piuttosto evidenti.

E questo è solo uno dei possibili campi di applicazione. Non è infatti da escludere l’utilizzo dei nuovi sensori in altri settori come ad esempio la fotografia mobile, dove possono contribuire a migliorare e velocizzare l’elaborazione delle immagini già ora fortemente ritoccate da algoritmi specializzati. Oppure nell’industria automobilistica, dove la velocità di elaborazione delle immagini raccolte dalle telecamere che equipaggiano gli ADAS (gli Advanced Driver Assistance Systems, i sistemi di sicurezza che vegliano sulla sicurezza del veicolo), risulta fondamentale per riconoscere e segnalare pericoli, quindi per garantire la sicurezza stradale.

Insomma, dietro quello che appare il semplice lancio di un prodotto si celano la strategia e la stessa visione del futuro di Sony, che ora sembra puntare con forza sull’intelligenza artificiale distribuita.

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza