IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 2

IA e apprendimento automatico

I seguenti frammenti di intervista sono stati rilasciati dal Dr. Sebastian Lapuschkin e trattano il tema dell’IA e dell’apprendimento automatico, forniscono un approccio all’automazione e menzionano poi ulteriori esempi di apprendimento automatico.

transcript

Mi chiamo Dr. Sabasana. Sono il responsabile dell’IA sperimentale a casa mia, a Berlino, e il mio compito è quello di condurre ricerche sulla spendibilità dell’intelligenza artificiale.

 

Quiz question 1/8

L’intervistato, il dottor Sebastian Lapuschkin, è il responsabile del gruppo Explainable Artificial Intelligence presso il Fraunhofer HHI di Berlino. È incaricato di condurre ricerca verso la spiegabilità dell’intelligenza artificiale.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Che cos’è il machine learning e come funziona? L’apprendimento automatico è essenzialmente un modo per trovare soluzioni di automazione, soluzioni di automazione basate sui dati, quando l’obiettivo dell’automazione non può essere raggiunto in modo esplicito, ad esempio utilizzando o programmando algoritmi. Nello specifico, l’idea alla base dell’apprendimento automatico è quella di utilizzare i dati che rappresentano l’insieme dei problemi o che li descrivono e quindi utilizzare gli algoritmi di apprendimento automatico per consentire loro di trovare una soluzione a tali problemi. Questo approccio si chiama “data driven”. Può dirci in che modo l’apprendimento automatico è legato all’intelligenza artificiale e ai big data? Sì, certo. All’inizio l’intelligenza artificiale è più o meno solo un termine di marketing che descrive l’apprendimento automatico. Oppure si potrebbe anche dire che l’intelligenza artificiale è un sottocampo attuale dell’apprendimento automatico. Per capirlo bisogna sapere che tutto ciò che avviene nelle intenzioni artificiali utilizza l’apprendimento automatico. E per quanto riguarda la questione dei termini di marketing, è successo che il termine intenzioni artificiali è riapparso all’inizio del 2000 e con l’immersione dell’hype del deep learning. Le tre emergenze sono all’altezza del deep learning in questo momento ed è stato coniato per la prima volta negli anni ’60 o ’50 con l’emergere del primo machine learning big data descrive l’approccio allo stato di Londra per raccogliere e organizzare un sacco di dati. Giusto? E per condurre l’apprendimento automatico in modo efficiente è necessario disporre di dati che descrivano sufficientemente il problema e che siano rappresentativi del problema stesso. Detto questo, però, se avete molti dati non significa che siano buoni, che descrivano un problema. Potreste anche introdurre alcune caratteristiche confondenti, ossia informazioni che si correlano con gli obiettivi prefissati, ma che alla fine fanno sì che il vostro modello si rivolga a un altro obiettivo perché non riesce a capire cosa volete dai dati nello specifico. Giusto? Credo che la descrizione sia un po’ contorta. Il problema è che si usa l’apprendimento automatico per risolvere un problema che si può descrivere solo attraverso i dati e se i dati non descrivono la soluzione che si vuole ottenere, l’algoritmo di apprendimento automatico probabilmente non troverà la soluzione desiderata, ma qualche altra soluzione che funziona ugualmente. Ma questo potrebbe essere utile.

 

Quiz question 1/8

Vero o falso? Il Machine learning mira a trovare soluzioni di automazione basate sui dati quando l'obiettivo dell'automazione non può essere raggiunto in modo esplicito.




Quiz question 1/8

Vero o falso? L'Machine learning mira a trovare soluzioni manuali a problemi umani basati sui dati.




Quiz question 1/8

Vero o falso? L'Machine learning è un approccio guidato dai dati per trovare soluzioni umane ai problemi causati dalle macchine.




Quiz question 1/8

Vero o falso? Big Data descrive l'approccio alla raccolta e all'organizzazione di dati complessi e di grandi dimensioni provenienti da varie.fonti




Quiz question 1/8

Vero o falso? Per condurre il Machine learning in modo efficiente, è necessario disporre di dati rappresentativi che descrivano sufficientemente il problema.




Quiz question 1/8

Vero o falso? Avere molti dati significa che i dati sono automaticamente buoni e in grado di descrivere il problema.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Potrebbe dirci qualcosa di più sul deep learning e qual è la differenza tra machine learning e deep learning? Sì, il deep learning è un sottotitolo del machine learning e descrive l’uso e l’addestramento di algoritmi di machine learning che hanno una rappresentazione profonda delle informazioni. Di solito si tratta di reti neurali profonde. La profondità dell’apprendimento profondo nelle reti neurali profonde consiste nell’impilare più strati di possibili rappresentazioni dei dati. Si possono immaginare come strati di operazioni matematiche che vengono apprese durante l’addestramento. Quindi si dà la forma della rete e la funzione della rete viene appresa in un processo di addestramento iterativo fornendo un esempio di dati e il termine deep e learning. L’approccio deriva dalla profondità della rete. E qual è la differenza tra l’apprendimento automatico, il deep learning e la programmazione tradizionale? Ok, come ho detto, il deep learning fa parte dell’apprendimento automatico. La differenza tra l’apprendimento automatico e la programmazione tradizionale è la seguente: considerate che avete dei dati e conoscete le regole per elaborarli, giusto? Poi potete implementare le vostre soluzioni. Questo è un approccio tipico della programmazione. Si hanno i dati, si sa come elaborarli, si implementano i programmi e i risultati e si risponde. L’approccio all’apprendimento automatico è quindi quello di avere molti dati e di conoscere le risposte a questi dati, ma di non avere alcuna idea di come realizzarle. In pratica, non avete le regole, giusto? Il compito dell’apprendimento automatico è quello di addestrare la macchina ad apprendere le regole che consentono di collegare i dati e produrre le risposte attese. Una volta ottenuto questo, si ha un modello di apprendimento automatico addestrato che può ricevere nuovi dati, dati che non ha mai visto prima perché ha imparato le regole e non deve imparare i dati a memoria, e può quindi produrre risposte. Quindi, nella velocità dell’apprendimento automatico, diciamo che il modello deve generalizzare, il che significa che deve aver appreso regole generali su come gestire i dati inseriti per fornire le risposte corrette. Una volta che si dispone di un modello di questo tipo, è possibile inserirlo come un insieme di regole nel compito di programmazione. Ad esempio, se l’insieme di regole fosse così complesso da non poter essere esplicitamente in grado di COVIDERE scrivendo il codice manualmente.

 

transcript

E può fornire uno o più esempi di utilizzo popolare dell’apprendimento automatico? Penso che un esempio che viene usato abbastanza spesso sia il riconoscimento ottico dei caratteri, cioè le macchine e l’ufficio postale che leggono l’indirizzo della lettera che scrivete, di solito non è fatto da esseri umani ma è solo una macchina sensoriale. La macchina decifra la vostra calligrafia, poi digitalizza l’indirizzo e inserisce tutte queste informazioni in un database e quindi la lettera viene indirizzata all’indirizzo desiderato. Un altro approccio potrebbe essere il riconoscimento facciale, ad esempio. Ad esempio nelle videocamere digitali, nelle webcam e nei sistemi di riconoscimento facciale. Lo spettro di applicazioni dell’apprendimento automatico è quindi molto utile. Ad esempio, nel nostro laboratorio utilizziamo l’apprendimento automatico per la prevenzione dei disastri naturali, dove abbiamo a disposizione, ad esempio, dati sul clima o sull’inquinamento atmosferico degli ultimi anni, mesi e così via. E poi addestriamo un modello che dovrebbe essere in grado di prevedere il comportamento dell’arrivo della temperatura e così via. Considerando i numerosi fattori che cucinano negli ultimi giorni, potrebbe fornire uno o pochi esempi di utilizzo popolare del deep learning? Praticamente tutto ciò che è abbastanza complesso e che era apparentemente irrisolvibile, circa dieci anni fa abbiamo concesso la licenza per il deep learning e cioè il riconoscimento delle immagini, per esempio, utilizza il deep learning perché utilizzando la fase delle reti profonde questa architettura profonda permette al modello di imparare come una cascata di diverse fasi di elaborazione delle caratteristiche. Giusto? In effetti, le reti neurali profonde sono in qualche modo motivate dalla corteccia visiva del cervello umano, che elabora le informazioni in diverse fasi, a partire dalla semplice ricezione delle informazioni sui colori fino all’attivazione dei neuroni su forme semplici, come bordi e forme rotonde, e così via, le reti neurali fanno cose abbastanza simili. E passando dalle caratteristiche più atomiche a quelle più complesse, ad esempio, dai gradienti di colore dei bordi ai neuroni che sono lì o hanno imparato a riconoscere le teste delle lucertole, ad esempio, queste informazioni complesse dell’immagine possono essere elaborate in modo efficiente e abbastanza veloce. E questo porta gli attuali modelli di apprendimento automatico nel riconoscimento delle immagini a superare gli esseri umani, soprattutto se si tiene conto del tempo.

 

Quiz question 1/8

Il Machine learning è utilizzato nel riconoscimento dei volti, ad esempio nelle videocamere digitali, nelle webcam e nei sistemi di sorveglianza. Il campo di applicazione del Machine learning è molto ampio. Nei laboratori degli intervistati si usa il Machine learning per prevenzione dei disastri naturali, in cui si tiene traccia dei dati climatici e dell’inquinamento atmosferico degli anni precedenti e si addestra un modello che dovrebbe essere in grado di prevedere i fattori climatici e meteorologici. Il Deep learning viene utilizzato in molti processi complessi come riconoscimento di immagini.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Quali sono le opportunità e gli aspetti positivi dell’apprendimento automatico per la società? Innanzitutto, la possibilità di raggiungere uno stato di automazione che elimina i compiti ad alta intensità di lavoro, ma noiosi e che nessuno dovrebbe svolgere perché possono essere automatizzati in modo ottimale. Questo, ovviamente, aumenta l’efficienza. Riduce gli errori perché la macchina non si stanca mai. In ambito medico, ad esempio, le macchine potrebbero essere utilizzate per migliorare le decisioni dei tirocinanti. Il signor patologo, ad esempio. Il signor patologo è un dominio particolarmente interessante perché è noto che uno storico ha il suo massimo valore quando sta per andare in pensione, perché ha alle spalle un periodo di apprendimento di base che dura tutta la vita. E questi quasi pensionati sono molto più veloci dei nuovi arrivati che devono imparare il mestiere, giusto? E per più veloci intendo dire che guardano intuitivamente uno di quei vetrini di istopatologia e capiscono immediatamente cosa sta succedendo, perché il novellino deve scansionare meticolosamente ogni pezzo dei vetrini e prendersi del tempo, eccetera eccetera. C’è anche un gruppo in classe che agisce da Andreas Holzinger. Sta addestrando metodi di apprendimento automatico basati sulle annotazioni dei dati fatte da un esperto, il signor Patologo, con l’obiettivo di incapsulare la sua esperienza di vita nella sua topologia in un modello di apprendimento automatico. Quindi, potenzialmente, può essere utilizzato come compagno di addestramento per i principianti in questo settore.

 

transcript

E quali sono i rischi più rilevanti legati all’etica, ad esempio, secondo lei? Uno, ovviamente, è il caso d’uso previsto per l’apprendimento automatico. Ad esempio, volete usarlo per il bene generale? Si vuole migliorare la società? Si vuole migliorare l’ambiente? O volete inserirlo in un missile da crociera? Questa è la differenza fondamentale. E poi questi sono gli estremi dello spettro. E poi c’è una pletora di questioni sociali nel mezzo. Ad esempio, è possibile automatizzare la stima del merito di credito di una persona e utilizzare l’apprendimento automatico per questo? E poi c’è la domanda: quali dati avete usato per addestrare questo modello? E avete forse modellato o addestrato correlazioni indesiderate tra alcune caratteristiche e dati e il risultato? Per esempio, abbiamo imparato che alcune etnie, per qualsiasi motivo, per esempio il colore della pelle, l’etnia, come ho detto, non dovrebbero ricevere, non so, aiuti finanziari per questo motivo, giusto? La domanda è sempre: quali dati inserire? Quali dati volete che qualcuno usi? Esiste il principio della spacity dei dati, che significa utilizzare solo i dati necessari per risolvere il compito, perché i dati aggiuntivi potrebbero creare un comportamento conflittuale nel modello. E questo è naturalmente uno dei grandi problemi attuali con l’automazione in corso. Con l’apprendimento automatico. D’altra parte, c’è sempre un problema se si utilizzano dati reali per addestrare i modelli di apprendimento automatico e non si apprezza ciò che il modello sta facendo, perché il modello stesso è oggettivo, il trust può imparare dai dati forniti. I dati sono l’unica realtà del modello. Significa che non vi piace quello che fa il modello? O non vi piace la realtà? Giusto. E penso che non sia sempre il modo giusto di correggere e curare i dati per eliminare certi comportamenti del modello. Lo vedrei come un indicatore del cambiamento necessario nella società che produce questo.

 

transcript

Una domanda sull’intelligenza artificiale estendibile X-A-Y: può spiegarci com’è? Si. L’obiettivo dell’Intelligenza Artificiale Estendibile è quello di fare ombra alla scatola nera dell’apprendimento automatico. Attualmente l’apprendimento automatico è molto complesso, il che significa che l’osservatore esterno, anche lo sviluppatore, non ha la possibilità di capire cosa il modello stia effettivamente imparando. Con l’accessibilità o l’X AI, invece, vogliamo recuperare un po’ di trasparenza su ciò che il modello sta facendo. Sì, questo può essere fatto in diversi modi. Quello che abbiamo fatto nel nostro laboratorio è stato lo sviluppo di un metodo di retrospettiva modificato, il che significa che se si immettono alcuni punti di dati nel modello, il modello viene trasformato strato per strato nella rete o nel modello. In pratica, il modello viene attraversato e il risultato finale è la risposta del modello. Giusto. Possiamo invertire questo processo, ad esempio, se il modello riceve un’immagine e mi dice che è un gatto, posso partire dall’output del gatto e dire: “Sì, ma perché? E poi posso smontare le decisioni parziali dei modelli, strato per strato, fino a raggiungere di nuovo l’input e ottenere così una mappa di calore. In pratica, si tratta di un mascheramento nello spazio di input dove si trovano più informazioni e si può fare questo per qualsiasi risultato potenziale. Ad esempio, se il modello ha come output un cane, si può eseguire lo stesso processo con l’output del cane e si può ottenere la risposta al perché il modello pensa che non ci sia un cane nell’immagine o perché le informazioni sul cane non sono corrette. Questo è un modo per collegare l’utilizzo delle informazioni fornite dai punti dati da parte del modello all’output del modello stesso. Sì, l’espandibilità è un campo piuttosto giovane: direi che i primi passi seri e i primi modelli più complessi sono stati fatti nel 2010 e da allora l’evoluzione è stata piuttosto rapida. Quindi c’è molto lavoro in corso. Stiamo lavorando per fornire spiegazioni che vadano oltre le semplici visualizzazioni delle mappe di calore, che a volte richiedono un’interpretazione, soprattutto se i dati sono difficili da capire e da riconoscere. Ma il nostro obiettivo finale è quello di creare un modello che, in base al trattamento di una migliore sfruttabilità su cui state attualmente lavorando, dovrebbe essere più o meno autoesplicativo, senza dire: “Guardate questa parte dell’immagine, c’è un’informazione che, a mio avviso, come modello parla da sola”. Ma il modello dovrebbe informare l’utente. Per esempio, che penso che ci sia un gatto perché vedo questo e quello e quello e quello. Caratteristiche simili a quelle di un gatto che il modello ha appreso, ad esempio, come caratteristiche da utilizzare per fare previsioni. Grazie mille. E cosa rende possibile l’IA spiegabile? Che cosa si può ottenere? Per esempio, si può capire cosa sta facendo il modello e si può ottenere una comprensione su base campionaria per campione, il che significa che in questo caso per ogni punto di dati inserito nel modello si riceve un feedback sul ragionamento del modello basato su questi dati. Naturalmente, è possibile utilizzare questi dati per verificare il modello. Ma in alcuni casi si potrebbe anche ottenere l’informazione che il modello sta producendo l’output giusto per le ragioni sbagliate. Per esempio. E questo potrebbe indicare errori nei dati di addestramento, dove sono state introdotte informazioni confondenti, caratteristiche confondenti che il modello collega all’output dei gatti, ma che non sono assolutamente Cadillac solo perché è più facile per il modello. E poi abbiamo di nuovo il problema che la porta di addestramento del modello è l’unica realtà del modello. Basta dargli un paio di migliaia di immagini di gatti e il modello impara a passare da questa fonte di dati al gatto. E se queste immagini, per esempio, sono state raccolte da Flicker e hanno tutte una filigrana di copyright perché sono immagini di stock o altro, il modello potrebbe capire che le immagini di stock sono gatti. Giusto? Questo è il problema che possiamo identificare con l’esternalità e che ci permette di migliorare il modello, la fonte dei dati e così via, in modo da essere sviluppatori di apprendimento automatico molto più informati di prima.

 

The learning unit has not been completed

You have successfully completed the learning unit.