Analizzare immagini in Vision Studio
Visione di Azure AI include numerose funzionalità per comprendere il contenuto e il contesto delle immagini ed estrarre informazioni dalle immagini. Visione di Azure AI Studio consente di provare molte delle funzionalità di analisi delle immagini.
In questo esercizio si userà Vision Studio per analizzare le immagini usando le esperienze try-it-out predefinite. Si supponga che l’azienda di vendita al dettaglio fittizia Northwind Traders abbia deciso di implementare un “negozio intelligente”, in cui i servizi di intelligenza artificiale mantengono monitorato il negozio per identificare i clienti che richiedono assistenza e indirizzare i dipendenti per aiutarli. Usando Visione di Azure AI, le immagini scattate da fotocamere in tutto il negozio possono essere analizzate per fornire descrizioni significative di ciò che illustrano.
Creare una risorsa Servizi di Azure AI
È possibile usare le funzionalità di analisi delle immagini di Visione di Azure AI con una risorsa multiservizio di Servizi di Azure AI. Se non è già stato fatto, creare una risorsa Servizi di Azure AI nella sottoscrizione di Azure.
-
In un’altra scheda del browser aprire il portale di Azure in https://portal.azure.com, accedere con l’account Microsoft associato alla sottoscrizione di Azure.
- Fare clic sul pulsante +Crea una risorsa e cercare Servizi di Azure Ai. Selezionare Crea un piano di Servizi di Azure AI. Verrà visualizzata una pagina per creare una risorsa Servizi di Azure AI. Eseguire la configurazione con le seguenti impostazioni:
- Sottoscrizione: la sottoscrizione di Azure usata.
- Gruppo di risorse: selezionare o creare un nuovo gruppo di risorse con un nome univoco.
- Area: selezionare l’area geografica più vicina. Se negli Stati Uniti orientali usare “Stati Uniti orientali 2”.
- Nome: immettere un nome univoco.
- Piano tariffario: Standard S0.
- Selezionando questa casella, confermo di aver letto e compreso tutte le condizioni seguenti: Opzione selezionata.
- Selezionare Rivedi e crea, quindi Crea e attendere il completamento della distribuzione.
Connettere la risorsa del servizio Azure per intelligenza artificiale a Vision Studio
Connettere quindi la risorsa del servizio di Azure per intelligenza artificiale di cui è stato effettuato il provisioning in precedenza a Vision Studio.
-
In un’altra scheda del browser passare a Vision Studio.
-
Accedere con l’account e assicurarsi di usare la stessa directory di quella in cui è stata creata la risorsa dei servizi di Azure AI.
-
Nella home page di Vision Studio selezionare Visualizza tutte le risorse nell’intestazione Introduzione a Visione.
-
Nella pagina Seleziona una risorsa da usare, passare il cursore del mouse sulla risorsa dell’elenco creata in precedenza, quindi selezionare la casella a sinistra del nome della risorsa, poi scegliere Seleziona come risorsa predefinita.
Nota: Se la risorsa non è elencata, potrebbe essere necessario aggiornare la pagina.
-
Chiudere la pagina delle impostazioni selezionando “x” in alto a destra nella schermata.
Generare didascalie per un’immagine
A questo punto è possibile usare Vision Studio per analizzare le immagini scattate da una fotocamera nel negozio Northwind Traders.
Si esaminerà ora la funzionalità di didascalia delle immagini di Visione artificiale di Azure. Le didascalie delle immagini sono disponibili tramite le funzionalità Caption e Dense Captions.
-
In un Web browser passare a Vision Studio.
-
Nella pagina di destinazione Introduzione a Vision selezionare la scheda Analisi delle immagini e quindi selezionare il riquadro Aggiungi didascalie alle immagini.
-
Nella sottotitolo Prova in uscita confermare i criteri di utilizzo delle risorse leggendo e selezionando la casella.
-
Selezionare https://aka.ms/mslearn-images-for-analysis per scaricare image-analysis.zip. Aprire la cartella nel computer e individuare il file denominato store-camera-1.jpg, che contiene l’immagine seguente:
-
Caricare l’immagine store-camera-1.jpg trascinandola nella casella Trascina i file selezionati qui o passando al file system.
-
Osservare il testo della didascalia generato, visibile nel pannello Attributi rilevati a destra dell’immagine.
La funzionalità Caption fornisce una singola frase in inglese leggibile dall’uomo che descrive il contenuto dell’immagine.
-
Successivamente, usare la stessa immagine per eseguire i sottotitoli densi. Tornare alla home page di Vision Studio e, come in precedenza, selezionare la scheda Analisi immagini e quindi selezionare il riquadro Didascalie dense.
La funzionalità Didascalie dense differisce dalla funzionalità Didascalia in quanto fornisce più didascalie leggibili per un’immagine, una che descrive il contenuto dell’immagine e altre, ognuna che copre gli oggetti essenziali rilevati nell’immagine. Ogni oggetto rilevato include un rettangolo di selezione, che definisce le coordinate pixel all’interno dell’immagine associata all’oggetto.
-
Passare il puntatore del mouse su una delle didascalie nell’elenco attributi rilevati e osservare cosa accade all’interno dell’immagine.
Spostare il cursore del mouse sulle altre didascalie nell’elenco e osservare come il rettangolo di selezione viene spostato nell’immagine per evidenziare la parte dell’immagine usata per generare la didascalia.
Assegnazione di tag alle immagini
La funzionalità successiva che si proverà è la funzionalità Estrai tag. L’estrazione di tag si basa su migliaia di oggetti riconoscibili, tra cui esseri viventi, paesaggi e azioni.
-
Tornare alla home page di Vision Studio, quindi selezionare il riquadro Estrai tag comuni dalle immagini nella scheda Analisi immagini.
-
In Scegliere il modello da provare, lasciare selezionato Prodotto predefinito vs. modello gap. In Scegliere la linguaselezionare Inglese o una lingua delle preferenze.
-
Aprire la cartella contenente le immagini scaricate e individuare il file denominato store-image-2.jpg, simile al seguente:
-
Caricare il file store-camera-2.jpg.
-
Esaminare l’elenco dei tag estratti dall’immagine e il punteggio di attendibilità per ognuno nel pannello degli attributi rilevati. Qui il punteggio di attendibilità è la probabilità che il testo per l’attributo rilevato descriva ciò che è effettivamente presente nell’immagine. Si noti nell’elenco dei tag che include non solo oggetti, ma azioni, ad esempio shopping, vendita e standing.
Rilevamento oggetti
In questa attività si usa la funzionalità Rilevamento oggetti di Analisi immagini. Rilevamento oggetti rileva ed estrae rettangoli delimitatori basati su migliaia di oggetti riconoscibili e esseri viventi.
-
Tornare alla home page di Vision Studio, quindi selezionare il riquadro Rileva oggetti comuni nelle immagini nella scheda Analisi immagini.
-
In Scegliere il modello da provare, lasciare selezionato Prodotto predefinito vs. modello gap.
-
Aprire la cartella contenente le immagini scaricate e individuare il file denominato store-camera-3.jpg, simile al seguente:
-
Caricare il file store-camera-3.jpg.
-
Nella casella Attributi rilevati osservare l’elenco degli oggetti rilevati e i relativi punteggi di attendibilità.
-
Passare il cursore del mouse sugli oggetti nell’elenco Attributi rilevati per evidenziare il rettangolo di selezione dell’oggetto nell’immagine.
-
Spostare il dispositivo di scorrimento Valore soglia fino a quando non viene visualizzato un valore pari a 70 a destra del dispositivo di scorrimento. Osservare cosa accade agli oggetti nell’elenco. Il dispositivo di scorrimento soglia specifica che devono essere visualizzati solo gli oggetti identificati con un punteggio di attendibilità o una probabilità maggiore della soglia.
Eseguire la pulizia
Se non si intende eseguire altri esercizi, eliminare eventuali risorse non più necessarie. In questo modo si evita di accumulare costi non necessari.
- Aprire il portale di Azure e selezionare il gruppo di risorse che contiene la risorsa creata.
- Selezionare la risorsa e selezionare Elimina, quindi Sì per confermare. La risorsa viene quindi eliminata.
Altre informazioni
Per altre informazioni sulle operazioni che è possibile eseguire con questo servizio, vedere la pagina del servizio Visione di Azure AI.