IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 8

Tecnologie IA – IA ed etica

I frammenti di intervista che seguono sono stati rilasciati da Emanuela Girardi e riguardano lo sviluppo delle tecnologie di IA a diverse scale, le preoccupazioni della società e l’uso etico dell’IA, nonché le norme e i regolamenti della stessa.

transcript

Buongiorno. Oggi siamo in presenza della dottoressa Emanuela Girardi nella nostra intervista. Emanuela Girardi è la fondatrice di Pop-AI (Popular Artificial Intelligence), ed è membro del gruppo di esperti di Intelligenza Artificiale del Ministero per lo Sviluppo Economico,  che ha scritto la Strategia italiana per l’Intelligenza artificiale. E’ altresì  membro del direttivo della Associazione Italiana per Intelligenza Artificiale e dell’Industry Task Force di CLEAR (Confederation of Laboratories in AI Research in Europe), di cui è coordinatrice della task force su Intelligenza Artificiale e Covid 19. È anche membro del Board della AI Data and Robotics (ADRA), che è la nuova associazione europea che lavorerà con la Commissione europea per realizzare il programma Horizon 2020. E’ quindi una persona di estrema rilevanza ed estrema competenza che ci guiderà in questa mezz’oretta di intrattenimento su alcune cose interessanti nel campo dell’AI. La ringrazio ancora e passerei a farle alcune domande.

 

Quiz question 1/8

L’intervistata, Emanuela Girardi, è la fondatrice di Pop Ai, che significa Popular Artificial Intelligence e che fa parte del gruppo di esperti di IA del Ministero dello Sviluppo Economico. È anche coordinatrice della task force su IA e Covid19 e membro del board su IA, dati e robotica.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Cominciamo con la domanda più di base. Vista la tua esperienza Emanuela, quali sono a tua conoscenza le strategie globali nel settore dell’intelligenza artificiale? Qual è il contesto? Quali sono i modelli internazionali? Sento parlare in particolare in America. Qual è Il contesto internazionale?

Sì, grazie Fulvio e buongiorno a tutti. Sicuramente in questo momento diciamo che le tecnologie di intelligenza artificiale sono considerate un pò come una tecnologia strategica per lo sviluppo delle società del futuro. E vari Stati sono un pò partiti alla rincorsa dell’intelligenza artificiale e quindi hanno investito tantissime risorse e soprattutto hanno sviluppato una strategia nazionale per l’intelligenza artificiale. Al momento ci sono circa 50 strategie nazionali di intelligenza artificiale in tutto il mondo e qualcuna è in via di sviluppo, quindi verrà pubblicata nei prossimi anni o comunque quest’anno. Qquindi tutti gli Stati, appunto, hanno considerato queste tecnologie come veramente strategiche per l’aspetto dirompente che ha sulla società, già oggi, sulla nostra vita di tutti i giorni e che avrà sempre più sulla nostra vita del futuro. In particolare, però, diciamo che nonostante ci siano 50 strategie diverse già a livello mondiale, oggi si può parlare fondamentalmente di due-tre modelli di sviluppo per l’intelligenza artificiale a livello globale, che sono il modello americano, il modello cinese e in mezzo si è inserito di recente il modello europeo. Per quanto riguarda i modelli americano e cinese, a una prima analisi sembrano molto diversi, ma restano delle grandi similitudini perché in entrambi i modelli, in realtà lo sviluppo delle tecnologie e l’indirizzo dello sviluppo delle tecnologie di intelligenza artificiale è guidato da grandi gruppi privati, che sono tra l’altro presenti in in tutto il mondo, quindi non solo in Cina, Stati Uniti ma in tutto il mondo. Le due grandi differenze tra questi gruppi sono che mentre in Cina abbiamo una tendenza a un controllo governo centrico di queste tecnologie, negli Stati Uniti c’è una sorta di tendenza invece verso la deregulation, quindi una sorta di mancanza di regolamentazione di queste tecnologie. L’Europa è partita un po in ritardo per quanto riguarda gli investimenti nello sviluppo e nell’adozione di queste tecnologie e in particolare è partita nel 2016 con un accordo nel 2018 sposato con un accordo di cooperazione tra tutti gli Stati membri per lo sviluppo di un piano coordinato per lo sviluppo delle tecnologie di intelligenza artificiale. Partendo un po in ritardo, ha deciso però di focalizzarsi sulla visione etica e quindi su, in primis, la definizione di linee guida etiche per lo sviluppo delle tecnologie di intelligenza artificiale. E da questo gruppo di ricerca che hanno convocato per la Commissione europea è nata quella che è la visione europea dell’intelligenza artificiale, che è una visione che viene definita umano-centrica, cioè che mette al centro l’uomo che promuove l’utilizzo di tecnologie di intelligenza artificiale per migliorare la vita delle persone. Il secondo aspetto, invece, è che promuove l’utilizzo di tecnologie Trustworthy, cioè affidabili. Ma perché ‘affidabili’? Questo è un pò il cuore della visione europea. Affidabili perché se noi pensiamo a una definizione molto semplificata di tecnologie di intelligenza artificiale, dove e con le quali si possono identificare dei sistemi che analizzano l’ambiente circostante, cioè raccolgono dei dati per raggiungere un determinato obiettivo, questo lo fanno in modo autonomo e manifestando un comportamento che, se fosse svolto da un essere umano, noi potremmo definire come un comportamento intelligente. Ora, affinché, quando raggiungono questo obiettivo, cioè compiere una qualche azione che viene definita dell’essere umano, l’essere umano accetti l’esito di questa azione o di questa decisione che viene presa da un sistema autonomo e quindi si fidi sia di utilizzare questi sistemi e sia delle azioni o delle decisioni che vengono prese da questi sistemi, questi devono essere affidabili. E cosa vuol dire affidabili? Diciamo che per quanto riguarda la versione e la definizione europea di tecnologie affidabili vuol dire tre cose. Fondamentalmente vuol dire che (i) devono rispettare le leggi europee e (ii) devono rispettare quelli che sono i valori etici che sono compresi nella Carta europea dei diritti e poi (iii) devono essere sicure da un punto di vista della robustezza tecnica, non devono nuocere alle persone. Quindi, se questi sistemi soddisfano i tre requisiti che vengono richiesti,allora la Commissione europea dice che si possono utilizzare e che possono essere sviluppati e utilizzati all’interno della Comunità Europea. Poi la Commissione europea è andata avanti e ha sviluppato una serie di documenti importanti, un libro bianco, una strategia europea per i dati, ma in realtà il documento al momento più controverso ma anche più importante è quello che è stato presentato ad aprile 2021 ed è il cosiddetto AI Act , cioè un insieme di documenti che sono la prima proposta al mondo per regolamentare l’utilizzo dei sistemi di intelligenza artificiale. E questo documento è molto importante perché innanzitutto utilizza un approccio basato sui rischi, cioè divide tutti i sistemi di intelligenza artificiale in quattro categorie in base al rischio. Il primo rischio è considerato quello inaccettabile, quindi sono i sistemi che vengono proibiti all’interno della Comunità europea. Poi ci sono dei sistemi ad alto rischio, medio rischio o basso rischio. Per quanto riguarda i sistemi ad alto e medio rischio, vengono definite tutta una serie di requisiti, le cosiddette assessment list, cioè delle una serie di requisiti o di certificazioni che questi sistemi dovranno avere per poter essere utilizzati all’interno del mercato unico della Comunità Europea. Quindi questi aspetti sono molto importanti, e al momento c’è molto dibattito su questa proposta di regolamentazione, perché da una parte si dice che l’obiettivo della Commissione Europea è di favorire lo sviluppo e l’utilizzo delle tecnologie di intelligenza artificiale, che in un qualche modo e sicuramente tutelino le persone /  cittadini europei, ma allo stesso tempo che ci sia una sorta di certezza di diritto per le aziende per poter sviluppare questi sistemi in un ambiente sicuro dal punto di vista anche legislativo, e per non avere quindi rischi nel momento in cui introducono delle tecnologie di intelligenza artificiale nei loro prodotti e servizi, nella loro offerta di mercato. Chiaramente il limite maggiore che in questo momento viene discusso è quello che un eccesso di regolamentazione potrebbe in qualche modo limitare l’innovazione. E questo soprattutto se consideriamo i due sistemi di cui abbiamo parlato prima, quello cinese e quello americano, dove in realtà c’è molta meno regolamentazione, soprattutto quello americano, rispetto al mercato europeo che stiamo cercando di creare. E quindi è molto difficile, da una parte bilanciare la necessità di regolamentare questi sistemi che se vengono utilizzati in modo malevolo possono effettivamente causare dei danni, e dall’altra però cercare anche di favorire lo sviluppo dell’innovazione europea e di far sì che ci sia anche uno sviluppo vero e proprio di tecnologie di intelligenza artificiale — ma non solo di intelligenza artificiale, anche in realtà di tutte le tecnologie a supporto. Quindi penso a blockchain, penso a tecnologie di cloud, penso ai performance computing perché in realtà è molto importante che anche a livello europeo si possano sviluppare queste tecnologie e che quindi si realizzi quella che viene definita nel piano coordinato la sovranità tecnologica europea. Pensiamo anche, per esempio, al progetto Gaia X, che mira anche allo stesso obiettivo, e quindi quello proprio di realizzare una sorta di sovranità tecnologica europea.

Quiz question 1/8

No
 

Le tecnologie IA sono strategiche per lo sviluppo della società in futuro.


Solo poche risorse sono state investite nel campo dell'IA.


Al momento esistono circa 150 strategie nazionali di IA in tutto il mondo.


Tutti i paesi considerano le tecnologie dell'IA come strategiche e significative per la società odierna e che diventeranno ancora più rilevanti in futuro.


A livello globale, possiamo dire che esistono due o tre modelli per lo sviluppo delle tecnologie di IA: il modello americano, il modello cinese e, in mezzo, il modello europeo.


Il modello americano di IA e quello cinese sono molto diversi tra loro.


Per quanto riguarda gli investimenti nello sviluppo delle tecnologie IA, l'Europa è molto avanti rispetto al resto del mondo.



Quiz question 1/1

You have completed the Quiz!

Loading...

Quiz question 1/8

  1. Su cosa si sono accordati tutti gli Stati membri dell’UE nel 2018? Un piano coordinato per lo sviluppo delle tecnologie IA.
  2. Su cosa ha deciso di concentrarsi l’Europa? Su una visione etica dell’IA.
  3. Su cosa si basa e si concentra la visione europea? Sugli esseri umani.
  4. Cosa significa una tecnologia di IA affidabile da un punto di vista etico? Deve rispettare le leggi europee, rispettare i valori etici europei ed essere affidabile, ad esempio sicura dal punto di vista tecnico.
  5. Quali documenti ha pubblicato la Commissione europea sulla regolamentazione dell’IA? Un libro bianco, una strategia europea sui dati.
  6. Qual è il documento più importante e controverso proposto nell’aprile 2021 dalla Commissione europea per regolamentare l’uso dei sistemi di IA? La legge sull’IA
  7. A cosa devono conformarsi i sistemi di IA ad alto e medio rischio per poter essere utilizzati all’interno della comunità europea? a una serie di requisiti e certificazioni.
  8. A cosa potrebbe portare un eccesso di regolamenti? Limitare l’innovazione
  9. Tra il mercato americano e quello europeo, quale è più regolamentato? Quello europeo.

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Quindi se capisco bene, al di là del modello americano e di quello cinese, che con aspetti diversi comunque vanno in una direzione un pò diversa da quella nostra, che è più appunto umano-centrica, parlo della Commissione europea, e “trustworthy”, come hai detto. Poi dopo parleremo magari anche di cosa accade in Italia, se capisco sempre bene il AI Act di cui parli, quello del 21 Aprile, ha messo vari livelli di rischi. C’è qualcosa che ci vuoi dire in fretta, diciamo quali sono i punti rilevanti oltre al discorso della classificazione di  rischio della proposta europea, ci sono degli aspetti? Ho sentito parlare di 32 casi in cui si può intervenire soggetti al fatto che ci fossero degli ordini di cattura. Allora c’è tutto un discorso, cioè c’è qualcosa che si può dire in fretta su quali sono i punti essenziali della proposta europea?

Sì, in realtà quello che posso dirvi per quanto riguarda i rischi sono gli aspetti considerati dei sistemi di intelligenza artificiale il cui rischio è considerato inaccettabile, per esempio il social scoring, il controllo biometrico a distanza delle masse o i sistemi che possono in qualche modo influenzare o manipolare il comportamento delle persone, soprattutto delle persone vulnerabili. Questi sono considerati inaccettabili e quindi sono proibiti al momento all’interno dell Comunità europea. Per quanto riguarda invece i sistemi ad alto rischio, secondo me al momento ci sono degli aspetti ancora da chiarire perché si parla di conformity assessment, quindi con questa lista di tutta una serie di criteri che dovranno essere soddisfatti per poter essere introdotti e utilizzati all’interno della Comunità europea. Ma il il problema è che si parla anche di una certificazione europea, ma in questo momento non è molto chiaro. Dobbiamo tra l’altro tener presente che la catena del valore dei sistemi di intelligenza artificiale è estremamente complessa. Perché va, per esempio, se pensiamo allo sviluppo di un algoritmo di intelligenza artificiale, da chi raccoglie i dati, da chi fa l’addestramento, da chi sviluppa l’algoritmo, da chi poi lo utilizza nei propri sistemi all’interno della propria azienda, lo immette nel mercato e poi magari viene cambiato il dataset, è necessario un riaggiornamento e quindi potrebbe cambiare il sistema e in questo caso bisogna monitorare tutto attraverso l’uso. Si parla proprio di Life cicle, dell’intero ciclo di vita del sistema di intelligenza artificiale, e quindi fa sì che tutti i vari attori della filiera rimangano costantemente collegati e che costantemente monitorino l’utilizzo del sistema di intelligenza artificiale che hanno sviluppato, addestrato e immesso nel mercato. Quindi questi aspetti ancora non sono ben chiariti perché proprio c’è un aspetto secondo me di filiera che è molto complesso.

Un altro aspetto complesso riguarda il fatto che al momento i sistemi ad alto rischio sono definiti non in modo chiarissimo, anche se sono comunque definiti nell’annex 3. Però un’altro aspetto riguarda il fatto che la Commissione europea al momento si è, diciamo, attribuita al diritto di poter cambiare questa lista e quindi aggiungendo dei nuovi sistemi, cosa che è abbastanza controversa perché normalmente ci dovrebbe sempre essere una divisione tra il potere legislativo e il potere esecutivo, quindi in realtà ci sono già tante discussioni a tale proposito, dicendo che non è la Commissione europea che ha il potere di cambiare un annesso ad una legge. E quindi questi aspetti sono sono abbastanza controversi, per esempio leggevo l’altro giorno che le i vari CEN, CENELEC e tutti diciamo gli Standardizatation Body hanno chiesto perché.

C’è anche un aspetto molto interessante per quanto riguarda proprio la definizione degli standard di AI, che al momento mancano ancora a livello europeo e quindi tutti i vari standardization Body ci stanno lavorando. È uno dei feedback che hanno richiesto perché in questi giorni tutti stanno scrivendo dei feedback alla Commissione europea. Il 6 agosto 2021 era il giorno ultimo per poter sottomettere dei feedback. Una proposta di regolamentazione è uno dei feedback, che è proprio quello di cancellare l’articolo 41, cioè il fatto che la Commissione europea possa variare, diciamo più o meno a suo piacimento, non è esattamente così, ma possa variare discrezionalmente questa lista di di sistemi. Quindi questi sono alcuni dei diciamo elementi più contrastanti.

Un altro elemento molto contrastante riguarda la definizione AI, perchè è una definizione molto molto ampia perché in realtà dovrebbe essere, diciamo, orientata al futuro e future proof. Però dall’altro punto di vista al momento vengono considerati come AI systems anche dei sistemi che insomma non lo sono, tipo I sistemi di statistica avanzata, di regressione lineare, … che quindi rendono diciamo molto più complesso l’utilizzo di questi sistemi che probabilmente, a oggi, non sono di intelligenza artificiale, quindi ci sono tantissimi aspetti di discussione. Io credo che che ci vorranno due o tre anni prima che venga applicato questo regolamento in tutti gli Stati membri.

Quiz question 1/8

  1. Quali sono i rischi inaccettabili legati ai sistemi di IA all’interno della comunità europea? la marcatura sociale, il controllo della massa, il controllo per influenzare e manipolare il comportamento degli europei
  2. Per quanto riguarda i sistemi di IA ad alto rischio, come vengono definiti i requisiti e i criteri da valutare? Valutazioni di conformità
  3. Com’è la catena del valore dei sistemi di IA? Estremamente complessa.
  4. A cosa si riferisce il monitoraggio dei sistemi di IA? Al ciclo di vita dei sistemi di IA.

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Grazie per le tue considerazioni che in gran parte coincidono anche con alcuni dubbi che avevo io. Mi sembra di capire comunque che la cosa essenziale che noi abbiamo più di altri è proprio il concetto dell’umano-centrico, giusto? Il famoso “human in the loop”, che molti dicono “on the loop”, giustamente, cioè alla fine ci deve essere un “umano”, e io sono molto preoccupato personalmente di quello che la Commissione europea ha detto esplicitamente che non può trattare, che sono i discorsi militari, e lì entriamo in discorsi che che già trattiamo in altri interviste e molto preoccupanti, perché lì non c’è l’Human In the loop. Però questo è un discorso che non c’entra con le nostre cose, è solo una riflessione tra tra noi che ci occupiamo di queste cose.

Benissimo, quindi abbiamo visto un pò il mondo e l’Europa. E l’Italia a che punto sta? Tra l’altro in Italia, come anche nel resto d’Europa, ma da noi in particolare, ultimamente c’è anche il termine della “sostenibilità”, di cui ormai parliamo sempre. Ecco, qual è in Italia, qual è l’approccio, la strategia italiana e il nostro approccio, diciamo alla Sostenibilità e all’importanza di usare l’intelligenza artificiale e di investire in sistemi intelligenza artificiale?

Allora l’Italia ha Sviluppato diverse strategie. Al momento io ho partecipato ai lavori che hanno portato allo sviluppo della strategia di intelligenza artificiale promosso dal Ministero dello Sviluppo Economico (MISE). In realtà poi ci sono state altre due iniziative, quindi in realtà abbiamo sviluppato tante strategie, ma al momento non ne abbiamo ancora pubblicata neanche una. Adesso la notizia degli ultimi giorni, senza nessuna polemica, però, è che un gruppo composto da tre ministeri ha creato una nuova Task force che deve rianalizzare il documento che abbiamo scritto noi al MISE e spero, questa volta veramente, di proporre la fase invece di execution, cioè di realizzare veramente la strategia, di portarla in esecuzione che è  la cosa fondamentale. Quindi speriamo veramente che questa sia la la svolta anche per l’Italia, è un peccato perché in Italia abbiamo tantissime eccellenze, secondo me, soprattutto per quanto riguarda diciamo la la ricerca e lo sviluppo dell’intelligenza artificiale, però purtroppo manca il momento un pò di visione strategica, di quelle che potrebbero essere le applicazioni e gli utilizzi, gli sviluppi dell’intelligenza Artificiale applicata nei vari campi della società.

Per quanto riguarda invece la proposta di strategia italiana che abbiamo fatto è fondata su tre pilastri, diciamo. Il primo era l’AI per l’essere umano, quindi assolutamente in linea con questa visione europea umano-centrica, la seconda è l’AI per uno sviluppo produttivo sostenibile e di eccellenza, e questa è molto nella visione del documento europeo, il White Paper, il Libro bianco sull’intelligenza artificiale che è stato presentato a Febbraio 2021 e che promuove proprio la creazione di un sistema di eccellenza e di fiducia a livello europeo per promuovere lo sviluppo delle tecnologie di intelligenza artificiale e quindi investire in educazione per portare le tecnologie intelligenza artificiale nelle aziende, nelle scuole, nella società. E l’ultimo punto, invece, è il punto che secondo me il più importante ed è anche il più innovativo per quanto riguarda la strategia italiana di intelligenza artificiale, ed è l’AI per la sostenibilità, cioè quello che abbiamo proposto noi è che serve proprio un cambio di paradigma, nel senso che abbiamo detto non è più sufficiente mettere solo al centro l’uomo perché l’uomo, in realtà, vive nel pianeta e all’interno dell’ecosistema. E quindi dire che utilizziamo le tecnologie solo per migliorare la vita dell’uomo non basta più e abbiamo quindi proposto l’utilizzo delle tecnologie di intelligenza artificiale per realizzare quelli che sono gli obiettivi di sviluppo sostenibile dell’Agenda 2030 delle Nazioni Unite. E quindi proprio proponendo di cambiare un pò il paradigma e proponendo questo aspetto di AI per la sostenibilità, questo approccio, diciamo chiamiamolo “pianeta-centrico” se vuoi, e quindi questa visione è molto innovativa al momento. In realtà è stata adottata poi anche dall’OECD, dalle Nazioni Unite e credo sia anche stata inserita in realtà nell’ultimo piano coordinato della Commissione europea, e credo che sia probabilmente l’unica visione possibile, anche perché se ci sono 156 Stati che hanno deciso che l’Agenda 2030 delle Nazioni Unite è  la Agenda, come sono gli obiettivi che, anche se pensiamo che 2030 è praticamente domani, sono gli obiettivi maggiormente condivisi che ci sono oggi a livello europeo, allora a questo punto, secondo me, cioè definiti gli obiettivi, come dicevamo prima, la definizione di intelligenza artificiale sono dei sistemi che in qualche modo autonomo ci permettono di raggiungere alcuni obiettivi.

Se noi abbiamo ben chiari gli obiettivi che vogliamo raggiungere, a questo punto, anche se sono obiettivi complessi, possiamo utilizzare queste tecnologie per raggiungerli. E quindi noi abbiamo analizzato poi per alcuni SDG (Sustainable Development Goals) come utilizzare le tecnologie per raggiungerli. In particolare già oggi un aspetto diciamo molto importante, abbiamo cercato di dedicarlo a quello di cercare di aumentare l’inclusione e l’accessibilità delle persone con disabilità. E proprio questo grazie all’utilizzo delle tecnologie di intelligenza artificiale, e quindi questi aspetti sono molto importanti, ma sono anche molto importanti per poi aiutarci a contrastare quelli che sono i cambiamenti climatici o come migliorare quelli che sono gli impatti sull’ambiente. Per esempio, a tale proposito c’è un progetto molto interessante che è appena stato promosso dalla Commissione europea che si chiama “Destination Earth”, e che ha creato un gemello digitale della terra e che permette proprio di monitorare e valutare quelli che sono i cambiamenti climatici, gli effetti dei cambiamenti climatici e di poter testare, diciamo, su questo gemello digitale della terra, le nuove politiche ambientali che si vogliono sviluppare utilizzando chiaramente anche le tecnologie di intelligenza artificiale. Questo anche per promuovere una ottimizzazione e razionalizzazione delle risorse scarse che ci sono sulla terra.

Quiz question 1/8

L’Italia sta sviluppando diverse strategie relative alla diffusione delle tecnologie di IA, ma non sono ancora state pubblicate. La proposta italiana di strategie si basa su tre pilastri: IA per l’essere umano, che fa riferimento alla visione europea incentrata sull’uomo, IA per lo sviluppo produttivo e sostenibile (ad esempio nelle aziende, nelle scuole, nell’istruzione e nella società) e IA per la sostenibilità. La Commissione europea ha recentemente promosso un progetto molto interessante chiamato “Destination Earth”, in cui è stata creata una simulazione digitale della Terra con un digital twin che verrà utilizzato per comprendere, monitorare e valutare meglio gli effetti del cambiamento climatico e dei disastri ambientali e per testare le nuove politiche ambientali su questo gemello digitale utilizzando le tecnologie di IA.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Ottimo, ottimo e senza senza parlare del neonato Istituto per intelligenza artificiale a Torino e che comunque ha avuto un primo finanziamento, mi sbaglio?

No, no, purtroppo ti sbagli. In realtà è andata un pò diversamente, nel senso che si, doveva esseredestinato a Torino ma è un pò incerto, dato che in realtà purtroppo questa decisione che era stata presa dal governo precedente non ha poi avuto seguito e quindi, dopo varie discussioni, quello che si è deciso di fare è un centro per la ricerca e lo sviluppo dell’automotive che avrà sede a Torino e che utilizzerà anche le tecnologie di intelligenza artificiale, con un finanziamento, se mi ricordo bene, di 20 milioni. Quindi, in questa fase è stato messo, diciamo on hold l’Istituto italiano per l’intelligenza artificiale, cosa che secondo me è un gran peccato perché perché quello avrebbe permesso anche all’Italia di partecipare ai vari tavoli internazionali, diciamo con un cappello istituzionale perché oggi purtroppo l’Italia ha tanti tavoli internazionali, è rappresentata solo dai singoli che sono le eccellenze, ma non a livello diciamo istituzionale, quindi, diciamo, è un’occasione mancata questa.

Speriamo che questa nuova task force riesca a riproporlo. .

Diciamo che è una vittoria a metà, vediamola in positivo. E allora,abbiamo visto Mondo Europa, Italia. Adesso  quindi, per finire, c’è molto bisogno di formazione, ovviamente, perché tutti parlano di intelligenza artificiale, quella cosa che non si capisce mai bene cos’è se uno non ci entra un pò in dettaglio, quindi credo che siamo d’accordo che la formazione è determinante per capire cosa siano queste tecnologie e come utilizzarle in modo sicuro. C’è il rischio che senza una formazione adeguata – parlo a questo punto proprio di noi sistema Italia, visto che siamo nell’ambito di questo progetto di formazione per gli adulti all’intelligenza artificiale – ci sia una sorta di digital divide, come dire, nel settore delle AI rispetto agli altri? Ecco come la vedi tu, qual è l’importanza e cosa vedi le cose importanti che andrebbero fatte appunto per insegnare bene e meglio le potenzialità, pro e contro, rischi e quant’altro, dell’intelligenza artificiale?

Allora, secondo me questo è l’aspetto chiave e più importante. Pensa che all’inizio parlavamo di oltre 50 paesi che hanno già definito la loro strategia nazionale di intelligenza artificiale. Pensa che ci sono paesi come la Finlandia che hanno messo come priorità numero 1 della loro strategia di intelligenza artificiale la formazione, l’educazione dei propri cittadini alle tecnologie di intelligenza artificiale, quindi è veramente un aspetto chiave. E tra l’altro anche la Cina sta investendo tantissimo proprio in formazione dei propri cittadini, perché ha capito che questa, diciamo, è la chiave per poter partecipare poi attivamente alla società del futuro. Quindi secondo me è proprio l’aspetto fondamentale. È questo perché se noi pensiamo, per esempio, diciamo a noi come lavoratori o come cittadini o come studenti, allora se ci mettiamo il cappello dei lavoratori, i lavori del futuro richiederanno sicuramente la capacità di utilizzare le tecnologie di intelligenza artificiale e quindi questo aspetto è fondamentale, quindi è necessaria un’attività di formazione di  training, o diciamo di Up Skilling, quindi per imparare diciamo le nuove mansioni oppure di re-training, cioè reskilling, quindi imparare proprio i nuovi lavori. E questo è, secondo me è un aspetto chiave, perché se noi pensiamo a un’azienda che sta introducendo, in questo momento, magari dei sistemi di automazione robotica dei processi e che quindi libera in qualche modo delle risorse perché erano delle attività che venivano delle mansioni che venivano svolte dalle persone che adesso vengono svolte da sistemi automatici e quindi questo tempo che viene liberato, queste risorse liberate dovrebbero, a mio avviso, essere assolutamente reinvestite per fare formazione per i dipendenti. Questo aspetto è anche importante dal punto di vista economico, perché significa anche un ridistribuire quelli che sono i benefici anche economici dell’introduzione di sistemi di automazione nelle aziende e quindi è anche una redistribuzione, diciamo di quelli che sono gli effetti benefici tra i vari stakeholders e quindi investire nella formazione che dovrebbe a mio avviso diventare proprio un diritto di di tutti i lavoratori.

L’altro aspetto invece è che su queste cose qui è importante veramente apprendere quelle che sono, diciamo, le skill digitali non solo più di base, ma avanzate, per poter conoscere cosa sono le tecnologie intelligenza artificiale e per poterle utilizzare per il proprio lavoro, perché tutti i lavori comunque utilizzeranno anche questetecnologie. A tale proposito molto interessante è per esempio un approccio che riguarda più, diciamo, la formazione, cioè l’educazione, quindi la scuola, un progetto molto bello che hanno sviluppato al MIT di Boston assieme a un progetto finanziato da Schwartzman, che è il private equity fondato proprio dal signor Schwartzman, e ha finanziato questo college che si chiama lo Schwartzman College, che è una sorta di scuola bilingue, cioè qualsiasi cosa si decida di studiare, non so, filosofia, antropologia, medicina, legge, … si studia insieme a scienze computazionali e a intelligenza artificiale, e questo perché l’idea è che tutti in futuro avranno bisogno comunque di una solida base di Scienze computazionali e di capacità di utilizzare le tecnologie di intelligenza artificiale. Dovrebbe essere inserito anche proprio nella nostra scuola, quindi veramente fin da quando siamo bambini, cioè la scuola elementare, dovrebbero essere inserite come obbligatorie queste materie che in teoria ci sono già, in realtà purtroppo non vengono fatte in modo così, diciamo, approfondito. E quindi fondamentale, forse la cosa ancora più importante, è la formazione dei formatori, quindi anche il progetto che state portando avanti voi secondo me è molto importante perché serve prima a fare la formazione dei formatori in modo che poi possano chiaramente andare a insegnare queste materie. Quindi nelle scuole è importantissimo, perché se noi pensiamo, non so, ai medici che sono oggi per esempio negli ospedali e non sono in grado probabilmente di utilizzare quelli che sono i nuovi sistemi di intelligenza artificiale e neanche quando usciranno, cioè scusa i medici che sono oggi, diciamo all’università, che non stanno studiando queste tecnologie, quando andranno a lavorare negli ospedali non saranno in grado di utilizzarle e noi abbiamo visto quanto sono state utili queste tecnologie durante la pandemia da Covid 19. Quindi, se riuscissimo a formarli veramente per poter utilizzare queste tecnologie, potrebbe essere veramente uno strumento molto utile allo svolgimento del loro lavoro. E poi c’è l’altro aspetto da considerare, che i lavori del futuro saranno diversi, cioè il medico di oggi sarà molto diverso dal medico di domani e quindi devono proprio cambiare anche proprio l’approccio sia a imparare a usare queste tecnologie sia avere una mentalità, una forma mentis più fluida, più aperta per poter affrontare anche nuovi lavori che oggi probabilmente non ci sono ancora e che cambieranno moltissimo nei loro contenuti.

Quiz question 1/8

Vero o falso? In Italia l'istruzione e la formazione in materia di tecnologie IA sono la priorità assoluta.




Quiz question 1/8

Vero o falso? 2) Le risorse liberate grazie ai sistemi di IA dovrebbero essere reinvestite e ridistribuite nella formazione, nell'aggiornamento e nella riqualificazione dei lavoratori, degli studenti e dei cittadini.




Quiz question 1/8

Vero o falso? Tutti i lavoratori dovrebbero avere il diritto di trarre profitto dalla ridistribuzione delle risorse risparmiate grazie all'IA.




Quiz question 1/8

Vero o falso? In futuro i lavoratori non dovranno essere in grado di comprendere e utilizzare le tecnologie di IA.




Quiz question 1/8

Vero o falso? A Boston è stato realizzato un progetto molto interessante: Si chiama "MIT Schwarzman College of Computing" ed è un college bilingue in cui gli studenti studiano due materie: una a scelta (come medicina, legge ecc.) e le scienze informatiche e l'IA, perché tutti avranno bisogno di queste conoscenze in futuro.




Quiz question 1/8

Vero o falso? Le scienze informatiche e l'IA dovrebbero essere integrate anche a scuola.




Quiz question 1/1

You have completed the Quiz!

Loading...

The learning unit has not been completed

You have successfully completed the learning unit.

IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 7

Apprendimento automatico

I frammenti di intervista che seguono sono stati rilasciati da Fabio Del Frate e riguardano la definizione di IA, gli aspetti più importanti dell’apprendimento automatico, le interpretazioni sul deep learning, i temi dell’apprendimento supervisionato e non supervisionato e la loro relazione con l’IA, nonché i diversi tipi di apprendimento automatico.

transcript

Fabio Del Frate ha conseguito presso l’Università di Roma “Tor Vergata” la laurea specialistica in Ingegneria Elettronica (1992) e il dottorato di ricerca in Informatica (1997). Nel 1995-1996 è stato Visiting Scientist presso il Massachusetts Institute of Technology e dal 1998 al 1999 ha lavorato presso l’Agenzia Spaziale Europea. Successivamente è entrato a far parte dell’Università di Roma “Tor Vergata”, dove attualmente è professore associato di Telerilevamento ed Elettromagnetismo Applicato in vari programmi di Master e Dottorato. Su questi temi è stato docente in diverse università europee, nonché principal investigator / project manager in diversi progetti finanziati dall’Agenzia Spaziale Europea (ESA) e dall’Agenzia Spaziale Italiana (ASI), conducendo attività di ricerca nel campo dell’Intelligenza Artificiale applicata ai dati satellitari per l’Osservazione della Terra (di seguito indicata come “EO”).

Quiz question 1/8

L’intervistato, Fabio Del Frate, è dottore in informatica, attualmente professore all’Università di Roma Tor Vergata. È docente di telerilevamento ed elettromagnetica. Presso le Agenzie Spaziali Europea e Italiana ha condotto attività di ricerca nel campo dell’intelligenza artificiale applicata ai dati satellitari per osservazioni della Terra.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Prof. Del Frate, partiamo dalle basi. Che cos’è l’Intelligenza Artificiale?

Per spiegare brevemente che cos’è l’intelligenza artificiale mi piace spesso citare uno dei padri dell’IA, il Prof. Nils John Nilsson. Per lui “l’intelligenza artificiale è quell’attività dedicata a rendere intelligenti le macchine, e l’intelligenza è quella qualità che permette a un’entità di funzionare in modo appropriato e con lungimiranza nel suo ambiente”.
Quindi, possiamo dire che forniamo alle macchine e ai computer più gradi di libertà. Chiediamo loro di prendere decisioni autonome per andare oltre quello che è successo con la programmazione tradizionale dei computer, cioè eseguire sostanzialmente una sequenza, anche se lunga e complessa, di linee di comando.
Come lo realizziamo? Consiste essenzialmente nell’alimentare le macchine con dati e nel fornire loro la capacità di cercare relazioni, anche molto sottili, tra questi dati. È con questi due elementi: dati e modelli di interpretazione, che l’IA sviluppa e costruisce la propria conoscenza, la propria esperienza.
Credo che in questo contesto potrebbe essere interessante anche una prospettiva storica, per cui potremmo essere curiosi di sapere quando sono stati proposti i primi algoritmi di intelligenza artificiale e di apprendimento automatico. Le risposte potrebbero essere diverse, ma la mia opinione è che per trovare le radici dell’intelligenza artificiale dovremmo risalire al 1943, quando il primo modello matematico di reti neurali fu presentato nell’articolo scientifico “A logical calculus of the ideas immanent in nervous activity” di Walter Pitts e Warren McCulloch. In questo articolo per la prima volta viene presentato un singolo neurone come unità elementare di elaborazione non lineare e si ipotizza che sia connesso ad altri neuroni. In altre parole, una prima approssimativa ma efficace rappresentazione matematica del cervello.
Ora il punto è: tutto questo è pericoloso? Credo che la risposta sia “Sì, potrebbe esserlo”, ma proprio come lo sarebbe, o lo è stato, ogni volta che siamo affascinati da una nuova tecnologia e vogliamo lasciarla crescere. In realtà, la questione dello sviluppo di un’IA “sicura” è sicuramente all’attenzione delle comunità di scienziati e ricercatori. Il punto chiave è che gli esseri umani dovrebbero sempre agire come supervisori. Le regole, le linee guida, ma soprattutto i dati su cui la macchina, come abbiamo detto, costruisce la sua conoscenza, su cui si baserà quando prenderà le sue decisioni, sono forniti da esperti umani, in modo che la macchina si comporti sì con un certo livello di autonomia, ma all’interno di un campo di gioco ben definito, i cui confini sono decisi dagli esseri umani.

Quiz question 1/8

L’intelligenza artificiale sta fornendo alle macchine e ai computer più gradi di libertà, il che significa che alle macchine viene chiesto di andare oltre la tradizionale programmazione informatica. Affinché le macchine possano identificare modelli, relazioni e costruire la propria conoscenza, è necessario fornire loro dati. Due elementi importanti per l’interpretazione dei risultati nell’IA sono i dati e i modelli. L’IA produce risultati positivi e stimolanti, ma può anche rivelarsi pericolosa. Pertanto, i ricercatori devono concentrarsi su un sicuro sviluppo dell’intelligenza artificiale. Il principio fondamentale deve essere che l’essere umano copre sempre il ruolo di supervisore di regole e linee guida, ma soprattutto di dati.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Che cos’è l’apprendimento automatico?

Direi che il machine learning è un possibile, credo al momento il più utilizzato, processo tecnico per generare intelligenza artificiale all’interno di una macchina. Abbiamo già visto che ci sono due attori principali: i dati e il modello, più esattamente un modello matematico. La sfida è trovare i parametri del modello matematico in modo che possa rappresentare le relazioni tra i dati. Tutto si basa sulla creazione di un processo di apprendimento basato sui dati stessi. Possiamo avere diversi tipi di modelli, ad esempio reti neurali o macchine vettoriali di supporto e, di conseguenza, diversi algoritmi per apprendere il modello. L’obiettivo finale, tuttavia, è sempre lo stesso: estrarre conoscenza dai dati utilizzati nel processo di addestramento e applicare questa conoscenza estratta a nuovi dati. A proposito, la valutazione della bontà delle prestazioni del modello sui nuovi dati, cioè sui dati non considerati durante la fase di addestramento, è molto importante. Ci dice quanto il modello sia applicabile nel mondo reale, quanto sia in grado di generalizzare.

In ogni caso, la qualità e la quantità dei dati utilizzati durante la fase di apprendimento sono fattori cruciali per una performance di successo. In particolare, la quantità di dati deve essere statisticamente significativa per fornire le caratteristiche rilevanti del fenomeno che si vuole indagare. Un’altra importante questione chiave è decidere quanto complesso debba essere il nostro modello matematico. Sarebbe un problema serio se scegliessimo un modello troppo semplice per cercare relazioni molto sottili tra i dati ma, allo stesso tempo, se le regole alla base dei dati sono meno complicate, anche la struttura del modello può essere più leggera, a volte…. meno è meglio, come diciamo noi, dove meno si riferisce al numero di parametri che caratterizzano il modello.

Inoltre, la complessità del modello ha anche a che fare con il tempo necessario per addestrare il modello e con la quantità di dati necessari per l’implementazione del processo di apprendimento completo.

Quiz question 1/8

Che cos'è il Machine learning?





Quiz question 1/8

Cosa fa il Machine learning?





Quiz question 1/8

Quali sono i risultati dei diversi tipi di modelli?





Quiz question 1/8

Perché è importante valutare le prestazioni del modello su nuovi dati?





Quiz question 1/8

Quali sono i fattori cruciali per il successo dell'IA?





Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

AI e ML sono spesso associati a termini come “deep learning”. Che cos’è l’apprendimento profondo?

Possiamo dire che la parola deep nell’apprendimento profondo ha due significati diversi, anche se molto correlati. Uno ha a che fare con la rappresentazione gerarchica dello scenario a cui siamo interessati.  Se lo scenario è, per esempio, il riconoscimento di un oggetto, deep ha a che fare con le molteplici fasi del processo di riconoscimento dell’oggetto: come animale, come cane, come cane dalmata.

Queste molteplici fasi di rappresentazione trovano una corrispondenza con i diversi strati del modello matematico che vogliamo utilizzare per rappresentarlo, quindi, per semplificare, uno strato del modello matematico si concentra sull’animale, uno strato sul cane, uno strato sul tipo di cane.  Questo è ciò che accade con una rete neurale profonda. Le reti neurali sono i modelli più utilizzati per l’apprendimento profondo. Abbiamo quindi il secondo significato, che è un significato topologico, che riguarda il numero di strati dell’architettura. Abbiamo quindi reti neurali profonde, come le reti neurali convoluzionali, che comportano molti strati di elaborazione, contro reti neurali superficiali, come i convenzionali percettori multistrato, che sono reti neurali con un numero limitato di strati. Per tornare a quanto detto sulla complessità dei modelli, le architetture di deep learning sono indubbiamente molto complesse, il che comporta un elevato carico computazionale e la disponibilità di enormi quantità di dati di apprendimento. In effetti, la necessità di un numero molto elevato di dati ha stimolato lo sviluppo di nuove tecniche per la cosiddetta “data augmentation”, che consiste nell’aumentare il numero di dati partendo da un insieme di dati più limitato.

Quiz question 1/8

No
 

Possiamo dire che il Deep learning ha due significati?


Il Deep learning è responsabile di più fasi del processo di riconoscimento degli oggetti?


Un modello matematico contiene diversi livelli di conoscenza?


È vero che le reti neurali non sono le reti più utilizzate per il Deep learning?


Uno dei significati del Deep learning è quello topologico?


Le reti neurali possono essere superficiali o convoluzionali?


L'apprendimento profondo è una strategia non complessa?



Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Che cos’è l’apprendimento supervisionato? Può fare qualche esempio di applicazioni che lo utilizzano?

Direi che l’apprendimento supervisionato è il ramo più comune dell’apprendimento automatico oggi. L’apprendimento supervisionato è una forma di apprendimento in cui, per un dato input, è disponibile un risultato “vero” e questa verità può essere insegnata al modello. In altre parole, come insegnante o supervisore, per ogni input dato al modello sappiamo quale dovrebbe essere l’output del modello e vogliamo che il modello incorpori la regola generale. In genere, questo avviene minimizzando quello che viene chiamato errore o funzione di costo, che rappresenta la distanza tra i valori di uscita desiderati e i valori di uscita effettivi generati dal modello durante la fase di addestramento. In realtà, si può ritenere che l’apprendimento supervisionato abbia successo quando l’errore complessivo finale su un insieme di esempi, che non sono stati utilizzati durante la fase di addestramento, è inferiore a una soglia predefinita. La fase di addestramento può essere molto lunga, ma una volta conclusa correttamente, si dispone di uno strumento molto potente, che opera sostanzialmente in tempo reale, per l’elaborazione dei nuovi dati. L’apprendimento supervisionato può essere utile in molti campi. Un’applicazione piuttosto massiccia riguarda la classificazione delle immagini. In questo caso i dati veri sono quelli etichettati dall’interpretazione umana delle immagini. La classificazione può essere eseguita a vari livelli: livello di pixel, livello di patch, livello di oggetto. Il livello di classificazione guida la scelta dell’input che si vuole dare al modello. Più in particolare, l’apprendimento supervisionato è oggi molto applicato nell’Osservazione della Terra, dove si vuole effettuare una stima dei parametri bio-geofisici a partire dai dati raccolti dai satelliti. Un esempio interessante riguarda il precision farming in agricoltura. Se vogliamo monitorare la biomassa di una coltura per ottimizzare la quantità di fertilizzante da utilizzare, possiamo sfruttare le misure satellitari effettuate su quella coltura. Tuttavia, soprattutto nella regione delle microonde dello spettro elettromagnetico, l’estrazione dei parametri della vegetazione non è banale perché la misura è anche, diciamo, contaminata dal terreno sottostante, per cui i modelli supervisionati dall’IA possono sicuramente essere uno degli strumenti che ci permettono di recuperare quella parte di informazioni nella misura più legata alla vegetazione, scartando quella più condizionata dal terreno.

Quiz question 1/8

Vero o falso? L'apprendimento supervisionato non è una sottocategoria comune del Machine learning.




Quiz question 1/8

Vero o falso? L'errore rappresenta la distanza tra i valori di uscita decisi e quelli effettivi




Quiz question 1/8

Vero o falso? La fase di addestramento dell'apprendimento supervisionato è breve.




Quiz question 1/8

Vero o falso? Il risultato finale dell'apprendimento supervisionato è molto potente, perché può operare su nuovi dati in tempo reale




Quiz question 1/8

Vero o falso? La classificazione delle immagini e il rilevamento degli oggetti sono esempi di apprendimento supervisionato.




Quiz question 1/8

Vero o falso? L'apprendimento supervisionato è raramente applicato alle osservazioni terrestri.




Quiz question 1/8

Vero o falso? I parametri biofisici provenienti dai dati raccolti dai satelliti sono inclusi nell'apprendimento supervisionato quando si effettuano osservazioni della terra.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Che cos’è l’apprendimento non supervisionato? Può fornire alcuni esempi di applicazioni che lo utilizzano?

Lo scopo principale dell’apprendimento non supervisionato è quello di trovare correlazioni tra i dati in modo da raggrupparli in categorie simili. Nell’apprendimento non supervisionato non abbiamo bisogno di operazioni di etichettatura esterne o di un insegnante che fornisca valori target. L’intero addestramento del modello matematico si basa solo sui dati originali esistenti, quindi in questo caso, rispetto all’apprendimento supervisionato, il processo è caratterizzato da un maggior livello di automazione. Possiamo dire che, al termine dell’addestramento, il modello organizza una rappresentazione interna dei dati che li rende più comprensibili e facilmente interpretabili. Come per gli altri paradigmi di apprendimento, anche l’apprendimento non supervisionato può essere implementato per mezzo di vari modelli matematici. Anche in questo caso, bisogna sempre tenere d’occhio la complessità del modello, che dovrebbe riflettere la complessità della rappresentazione interna che stiamo cercando. In EO e in altri campi l’apprendimento non supervisionato può essere utilizzato per ridurre la dimensionalità. Se consideriamo una misurazione iperspettrale, abbiamo che le informazioni raccolte possono essere distribuite su centinaia di lunghezze d’onda. In molti casi sarebbe auspicabile che tali informazioni, o quelle più significative, fossero compresse in un numero inferiore di componenti. Questo può essere ottenuto con tecniche di apprendimento non supervisionato.

Quiz question 1/8

  1. Cosa cerchiamo nei dati con l’apprendimento non supervisionato? Correlazione.
  2. Su cosa si basa il raggruppamento dei dati nell’apprendimento non supervisionato? Somiglianze.
  3. Nell’apprendimento non supervisionato sono necessarie operazioni di etichettatura esterne? No.
  4. Su cosa si basa l’addestramento dei modelli matematici? I dati originali.
  5. Cosa fa il modello con i dati alla fine dell’addestramento nell’apprendimento non supervisionato? Li organizza.
  6. A cosa dobbiamo prestare attenzione nell’apprendimento non supervisionato? Complessità del modello.
  7. Per cosa può essere utilizzato in particolare l’apprendimento non supervisionato? Riduzione della dimensionalità.

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Esistono vari raggruppamenti di algoritmi di Machine Learning, ad esempio regressione, classificazione e così via. Può spiegare la loro importanza e le differenze tra loro?

Esistono varie possibilità di raggruppare gli algoritmi di apprendimento automatico. Credo che la principale si basi sul tipo di modello matematico. In particolare, come già detto, abbiamo modelli per l’addestramento supervisionato e modelli per l’addestramento non supervisionato. Per quanto riguarda i primi, tra i più importanti abbiamo le reti neurali, profonde o superficiali, le macchine a vettori di supporto, gli alberi decisionali, le tecniche di ensemble. Per i modelli non supervisionati possiamo citare k-means, analisi delle componenti principali, reti neurali auto-associative, mappe auto-organizzate e così via.

Ma, come sottolineato dalla domanda, un’altra possibilità di raggruppare gli algoritmi di apprendimento automatico riguarda la distinzione tra regressione e classificazione. Una volta fornito un certo input al nostro modello matematico, la differenza tra regressione e classificazione si basa principalmente sul tipo di output che ci interessa. Nel caso della classificazione, l’output sarà un’etichetta, una classe. Ad esempio, consideriamo ancora una volta un’applicazione satellitare in cui il telerilevamento viene utilizzato per la meteorologia. Supponiamo quindi di dover fare un’analisi meteorologica e di voler decidere quale pixel di un’immagine del cielo deve essere associato a un cielo nuvoloso e quale a un cielo sereno, in modo che lo scopo finale sia quello di produrre una mappa in cui rappresentiamo con il colore blu i pixel di cielo sereno e con il colore grigio i pixel di cielo nuvoloso. In questo caso diciamo che vogliamo ottenere una mappa di classificazione. Per la regressione, in sostanza, vogliamo che il nostro modello matematico, come risposta alla sua elaborazione dei dati, calcoli, o stimi, un numero, più in generale un numero a valore reale. Quindi, se consideriamo lo stesso scenario impostato sulla meteorologia, vogliamo sapere dai dati telerilevati quanto è l’umidità o il tasso di precipitazione, numeri reali, in una determinata area. Tuttavia, è interessante notare come un problema di regressione possa essere tradotto in un problema di classificazione. Questo è ciò che accade se dico: in questo intervallo di valori di precipitazione, quindi tra questi due numeri, ho la classe “precipitazione bassa”, in quest’altro intervallo o gamma ho “precipitazione moderata”, e così via. In questo caso mappo intervalli di valori in classi.

Grazie, Prof. Fabio Del Frate, l’abbiamo apprezzato molto. È stata un’istantanea chiara e interessante delle caratteristiche dell’intelligenza artificiale e delle relative applicazioni.

Quiz question 1/8

Esistono solo due diversi algoritmi di Machine learning.




Quiz question 1/8

Vero o falso? Gli algoritmi delle reti neurali possono essere profondi o superficiali.




Quiz question 1/8

Vero o falso? Le macchine a vettore di supporto e gli alberi decisionali sono algoritmi di Machine learning supervisionato.




Quiz question 1/8

Vero o falso? Le mappe auto-organizzanti, il clustering dei mezzi e l'analisi delle componenti principali sono tipi di Machine learning supervisionato.




Quiz question 1/8

Vero o falso? La differenza principale tra classificazione e regressione sta nel tipo di output.




Quiz question 1/8

Vero o falso? L'output nella classificazione è un'etichetta/classe.




Quiz question 1/8

Vero o falso? La regressione stima un numero reale.




Quiz question 1/8

Vero o falso? Non è possibile trasferire un problema di regressione in uno di classificazione.




Quiz question 1/1

You have completed the Quiz!

Loading...

The learning unit has not been completed

You have successfully completed the learning unit.

IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 6

IA e sfide sociali

I seguenti frammenti di intervista sono stati rilasciati da Simon Delakorda e riguardano l’impatto sociale dell’IA con esempi di vita quotidiana, le sfide sociali dell’apprendimento automatico e il ruolo delle istituzioni nel campo delle normative sull’IA.

transcript

Salve a tutti. Mi chiamo Simon Delakorda. Sono il direttore dell’Istituto per la partecipazione elettronica di Lubiana, Slovenia. L’Istituto per la partecipazione elettronica è un’organizzazione non governativa che opera nel campo della società dell’informazione, dello sviluppo e della digitalizzazione. Ci occupiamo anche di questioni legate all’intelligenza artificiale. Ad esempio, l’anno scorso abbiamo realizzato un dialogo con i cittadini che ha riguardato anche le questioni attuali legate allo sviluppo dell’intelligenza artificiale. Il modo in cui questa tecnologia si rapporta alla vita quotidiana dei cittadini.

Quiz question 1/8

L’intervistato, Simon Delakorda, è il direttore dell’Istituto per la partecipazione elettronica di Lubiana, un’organizzazione no-profit che si occupa dello sviluppo della società dell’informazione. All’Istituto lavorano anche nel campo della digitalizzazione e si occupano del problema di intelligenza artificiale.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Allora, partendo dalla mia prima domanda, cos’è l’intelligenza artificiale e come si relaziona con la società? Di solito l’intelligenza artificiale viene descritta come una tecnica che permette a un sistema computazionale di imitare qualsiasi tipo di intelligenza. Forse suona un po’ tecnico, ma fondamentalmente significa che una macchina è in grado di risolvere un problema specifico. Alcuni si riferiscono all’intelligenza artificiale come a un approccio tecnico, altri la definiscono come una combinazione di software, hardware e dati. In ogni caso, l’intelligenza artificiale è un compromesso tra vari strumenti e metodi. Per questo motivo è anche molto difficile identificare l’intelligenza artificiale. Al momento abbiamo queste definizioni ampiamente accettate perché, francamente, non sappiamo ancora cosa sia effettivamente l’intelligenza umana e come definirla correttamente. Potete quindi immaginare che abbiamo questo problema anche con l’intelligenza artificiale. Ma per passare direttamente alla nostra esperienza senza applicazioni di intelligenza artificiale nella vita di tutti i giorni, possiamo vedere già oggi che esiste un gran numero di applicazioni diverse che offrono un enorme supporto e contribuiscono a rendere la nostra vita più facile. Ad esempio, gli esempi più tipici di utilizzo dell’intelligenza artificiale nella società sono il riconoscimento vocale. Molti di voi probabilmente conoscono la teoria di Apple o Alexa di Amazon, che includono sistemi intelligenti e sono in realtà sistemi di intelligenza artificiale che riconoscono gli input vocali e, sulla base di questi input vocali, forniscono diversi servizi o commenti per implementare diverse attività. Il prossimo esempio di utilizzo dell’intelligenza artificiale nella società, oggi piuttosto comune, è la personalizzazione. Ad esempio, quando navighiamo su piattaforme di social media o servizi online, come Netflix o Amazon, questi servizi web utilizzano sistemi di intelligenza artificiale in background che personalizzano i contenuti e li presentano in base alle nostre abitudini o esigenze di navigazione. Ad esempio, se si sta cercando un particolare contenuto o un prodotto, in base alla cronologia o al comportamento di ricerca dell’utente, queste applicazioni forniscono il contenuto più adatto ai suoi interessi e glielo consigliano. Il terzo esempio di utilizzo dell’intelligenza artificiale nella vita quotidiana, anch’esso molto utile per me, è il filtraggio delle e-mail. Sappiamo tutti che ci sono molte e-mail di spam che arrivano nella nostra casella di posta elettronica principale e possiamo usare programmi di intelligenza artificiale in grado di distinguere tra le e-mail reali e quelle pertinenti e le e-mail di spam nelle vostre cartelle di posta elettronica. Inoltre, un’applicazione dell’intelligenza artificiale che viene spesso utilizzata oggi è anche nel settore sanitario, ad esempio nella diagnostica clinica. In medicina l’intelligenza artificiale è sempre più utilizzata per supportare il lavoro dei medici nella diagnosi. In questi casi, però, stiamo parlando di un’intelligenza artificiale ristretta, perché si tratta di casi in grado di risolvere problemi molto ben definiti e in qualche modo ristretti, problemi pratici. Ma anche quando parliamo di intelligenza artificiale. Possiamo anche parlare di intelligenza artificiale generale, che si riferisce al sistema in grado di eseguire qualsiasi compito intelligente che l’uomo sarà in grado di eseguire. Naturalmente, questo non è ancora una realtà. Ci sono alcune previsioni per il futuro secondo cui forse anche l’intelligenza artificiale sarà in grado di risolvere compiti più complessi e più grandi che al momento sono legati solo all’intelligenza di tipo umano. Per concludere questa introduzione iniziale sull’intelligenza artificiale nella società, possiamo vedere che ci sono molte applicazioni dell’intelligenza artificiale. Alcune di esse sono incredibilmente positive, hanno un impatto sulla società, sugli individui e sulla società e portano anche grandi opportunità. Tuttavia, dobbiamo anche essere consapevoli che l’intelligenza artificiale può anche discriminare e svantaggiare alcuni gruppi di persone. Per questo motivo è molto importante capire il rapporto tra intelligenza artificiale e società, soprattutto in termini di responsabilità, trasparenza di parte, qualità dei dati e altri problemi etici derivanti dall’uso dell’intelligenza artificiale.

 

Quiz question 1/8

  1. Cosa può fare una macchina dotata di intelligenza artificiale? Risolvere un problema specifico.
  2. Conosciamo la definizione esatta di IA? No, non la conosciamo.
  3. Che tipo di risultati otteniamo con l’aiuto dell’IA quando usiamo un browser? Personalizzati.
  4. Cosa fa l’IA con le e-mail rilevanti e di spam nei servizi di posta elettronica online? Le filtra.
  5. Quali tipi di problemi risolve l’IA ristretta? Problemi molto ben definiti.
  6. Che tipo di compito può svolgere un’IA generale? Compiti di intelligenza umana.
  7. In futuro l’IA potrebbe risolvere problemi più complessi di quelli che può risolvere un essere umano? Sì.
  8. Quali possono essere le conseguenze negative dell’IA nella società? La discriminazione nei casi in cui i pregiudizi umani vengono trasferiti negli algoritmi di un sistema di IA.

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Il prossimo punto di vista o problema relativo all’intelligenza artificiale su cui vorrei concentrarmi è quello delle sfide sociali dell’apprendimento automatico. Prima di tutto, cos’è l’apprendimento automatico? L’apprendimento automatico si riferisce ad algoritmi e tecniche che imparano da soli, confrontandosi con dati, osservazioni e interazioni con il mondo circostante. Fondamentalmente, l’apprendimento automatico riguarda gli algoritmi. Si basa sugli algoritmi e gli algoritmi sono semplicemente delle istruzioni su come risolvere dei compiti. Ora, quando si mettono in relazione gli algoritmi con l’apprendimento automatico significa che un particolare tipo di algoritmo può essere appreso, ma non dai programmatori umani, bensì da loro stessi. In altre parole, l’apprendimento automatico è un apprendimento autonomo che si avvale di un approccio statistico. Di solito l’apprendimento automatico si articola in due fasi. La prima fase è quella in cui gli algoritmi di apprendimento automatico vengono addestrati utilizzando i dati, utilizzando il processo di addestramento. Il risultato di questo processo è il modello di apprendimento automatico. Nella seconda fase, questo modello di apprendimento automatico viene applicato all’area di applicazione desiderata. L’idea è che questo modello di apprendimento automatico risolva un problema che vorremmo affrontare. Ad esempio, modelli di apprendimento automatico per prevedere se un paziente ha un cancro, un tumore o un modello di apprendimento automatico, oppure per prevedere come si comporteranno i mercati azionari in futuro. Naturalmente, l’apprendimento automatico presenta alcuni problemi, perché può avere un grave impatto sulla vita delle persone e soprattutto quando si verificano errori nell’apprendimento automatico, che possono verificarsi durante la raccolta dei dati, la loro preparazione o durante il processo di addestramento. Inoltre, si possono verificare problemi quando si interpretano in modo errato i risultati del processo di apprendimento automatico. A livello sociale, un grande pericolo è rappresentato dal fatto che i dati utilizzati per il processo di formazione per l’apprendimento automatico sono considerati perfetti. Ma sappiamo che i set di dati perfetti richiederebbero tutti i possibili fattori che costituiscono o influenzano la situazione che stiamo affrontando. Ciò significa che è molto difficile addestrare un algoritmo che utilizza tutti i dati della società complessa. E come risultato di questi dati imperfetti che vengono poi applicati all’algoritmo di apprendimento automatico, può accadere che i risultati siano troppo semplificati e che una situazione che si sta affrontando abbia solo un numero limitato di fattori presi in considerazione. Ne consegue che l’apprendimento automatico può portare a previsioni distorte, soprattutto per i gruppi svantaggiati della società che non sono molto presenti nei dati o nella società nel suo complesso e sono meno rappresentati nell’insieme dei dati. Nel caso dei pregiudizi nell’apprendimento automatico, ciò significa che i dati distorti daranno luogo a previsioni distorte. Questo è il caso dei fenomeni rari o dei contesti sociali difficili da quantificare. Ciò significa che dobbiamo essere molto consapevoli di quelle specificità della società che non vengono viste o incluse nei risultati dell’apprendimento automatico. Perché l’apprendimento automatico opera in realtà sulla base di modelli. E se questi schemi non si verificano o sono di scarsa qualità, possiamo ottenere risultati molto distorti e scadenti.

 

Quiz question 1/8

Vero o falso? A differenza delle operazioni umane, nel Machine learning non ci sono errori.




Quiz question 1/8

Vero o falso? Nel Machine learning si può commettere un errore durante la raccolta e la preparazione dei dati.




Quiz question 1/8

Vero o falso? Nel Machine learning non ci possono essere interpretazioni errate dei risultati.




Quiz question 1/8

Vero o falso? È molto difficile addestrare un algoritmo che utilizza un'enorme quantità di dati provenienti dalla società




Quiz question 1/8

Vero o falso? Uno dei problemi del Machine learning è l'eccessiva semplificazione dei risultati.




Quiz question 1/8

Vero o falso? Con il Machine learning si evita di discriminare una parte della popolazione che non è spesso inclusa nei database.




Quiz question 1/8

Vero o falso? I risultati distorti sono la conseguenza di modelli troncati nella società.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Quindi, come evitare o come affrontare questi pregiudizi, questi problemi etici con l’apprendimento automatico e l’intelligenza artificiale a livello internazionale, ma anche a livello di Paesi e Stati nazionali. È in corso un enorme dibattito su come stabilire un sistema che governi e regoli l’uso dell’intelligenza artificiale nella società e, naturalmente, l’impatto che questa tecnologia ha sulla società. La domanda principale è: chi è responsabile se succede qualcosa con l’intelligenza artificiale? Se ci sono errori, qualcosa va storto. Chi è responsabile dei risultati dell’uso dell’intelligenza artificiale, come comportarsi in caso di incidente, di diagnosi errata o di disconnessione di qualcuno a causa dell’intelligenza artificiale? L’UNESCO, l’agenzia delle Nazioni Unite, sta lavorando molto attivamente alla proposta di politiche per la gestione dell’intelligenza artificiale. Hanno fornito una serie di proposte politiche che riguardano diversi aspetti della gestione degli agenti artificiali. Ora presenterò brevemente quegli aspetti che ritengo molto importanti e che possono essere utilizzati come linee guida per capire cosa la società e gli individui devono sapere quando pensano all’impatto dell’intelligenza artificiale sulla società. Innanzitutto, il primo aspetto importante è che l’intelligenza artificiale promuove la diversità e l’inclusione. Ciò significa che l’intelligenza artificiale deve funzionare in termini di lotta alla cultura e alle tipologie sociali. E le disuguaglianze sono importanti per questi pregiudizi quando i modelli di apprendimento automatico, nel caso in cui si basino su dati scarsi, possono spesso discriminare e possono anche imporre la resistenza agli stereotipi. È il caso, ad esempio, dei sistemi artificiali di riconoscimento facciale che, come è già stato scientificamente dimostrato, sono più spesso orientati verso i volti colorati che verso quelli bianchi. Il secondo aspetto importante è l’impatto dell’intelligenza artificiale sull’economia e sull’occupazione. Ci sono diverse interpretazioni su come le applicazioni dell’intelligenza artificiale contribuiranno alla perdita di particolari posti di lavoro. Ci saranno molti lavori che non saranno più necessari e questo avrà un impatto sui diversi gruppi di lavoro. E l’intelligenza artificiale, in particolare l’economia ad alto potenziale, dovrebbe tenere conto di misure di riqualificazione e riqualificazione che permettano ai lavoratori o ai dipendenti che saranno colpiti negativamente dall’intelligenza artificiale di continuare a far parte del mercato del lavoro. La terza cosa importante è affrontare l’impatto sociale ed economico dell’intelligenza artificiale. Ciò significa che l’intelligenza artificiale non dovrebbe generare monopoli in termini di ricerca, conoscenza, dati o mercato, e che non saranno alcuni specifici stakeholder o Paesi o regioni a beneficiare di questa tecnologia, ma l’umanità nel suo complesso. Inoltre, una visione logica è anche l’impatto sulla cultura e sull’ambiente. Cioè che l’intelligenza artificiale non abbia un effetto negativo sulla cultura, sulla diversità, sul patrimonio di sviluppo e anche sull’ambiente. E poi c’è un insieme di quattro o cinque punti di vista che riguardano tutti l’etica dell’intelligenza artificiale. L’etica dell’intelligenza artificiale è molto importante in termini di creazione di uno sfondo basato sui valori su cui sviluppare l’intelligenza artificiale. Ci sono poi aspetti dell’etica che riguardano l’educazione e la consapevolezza, ovvero che l’intelligenza artificiale dovrebbe essere insegnata nelle scuole e nelle università, in modo che gli studenti e gli scolari possano familiarizzare con la tecnologia dell’intelligenza artificiale. E qual è il rapporto tra il dominio tecnologico e quello sociale. Molto importante è anche il punto di vista sull’etica della ricerca sull’intelligenza artificiale, nel senso che c’è una ricerca, soprattutto nel settore privato, finanziata da fondi privati che tiene conto della responsabilità sociale. Anche i benefici della ricerca in termini di umanità, non solo il mercato e l’interesse per il profitto, quindi è anche un aspetto importante dell’uso etico dell’IA. Nello sviluppo, nel senso che lo sviluppo artificiale dovrebbe sforzarsi di fornire piattaforme che consentano la cooperazione internazionale sullo sviluppo dell’IA. Ciò significa che lo sviluppo dell’IA non è solo per i Paesi ricchi, ma anche che tali sviluppi sono applicati anche nei Paesi più poveri che non sono così ricchi. Da questo aspetto molto importante deriva la creazione di una sorta di cooperazione internazionale sull’etica dell’Intelligenza Artificiale. Per esempio, il forum dell’UNESCO è un ottimo esempio di questo, quando diversi Paesi con diverse parti interessate discutono del futuro dell’intelligenza artificiale e di come governarla in termini di etica e di valore per lo sviluppo della società. E da qui è molto importante che ci sia anche una sorta di meccanismo governativo che supervisiona lo sviluppo dell’intelligenza artificiale a livello globale in termini di inclusione, trasparenza, controllo e bilanciamento. Questi aspetti sono molto importanti e anche la cooperazione multilaterale. Questi meccanismi governativi si riferiscono all’ecosistema digitale per l’Intelligenza artificiale, che comprende infrastrutture, tecnologie digitali, opzioni di condivisione delle conoscenze e soprattutto la cooperazione con le diverse parti interessate che hanno voce e possono condividere le loro considerazioni e preoccupazioni su come sviluppare l’Intelligenza artificiale per il futuro.

 

Quiz question 1/8

No
 

L'istituzione di principi per regolare l'uso dell'IA è una delle soluzioni proposte per evitare le possibili conseguenze negative dell'IA?


È vero che in caso di errore dell'IA il problema principale è definire chi ne è responsabile?


L'UNESCO è responsabile della regolamentazione dell'intelligenza artificiale?


L'integrazione dei principi di diversità e inclusione nell'IA aumenterebbe ulteriormente la discriminazione e la disuguaglianza all'interno della società?


Seguendo la proposta dell'UNESCO per la diversità e l'inclusività nell'IA, evitiamo gli errori causati da dati insufficienti?


Il principio economico dell'UNESCO si riferisce principalmente alle questioni occupazionali come conseguenza dell'IA?


L'IA può avere un impatto negativo su cultura, diversità, sviluppo, patrimonio e ambiente?


I concetti di IA dovrebbero essere insegnati nelle scuole e nelle università per aumentare la consapevolezza del rapporto tra IA e società?


Le piattaforme di cooperazione internazionale avvicinano la possibilità di sviluppo dell'IA ai paesi più poveri?


I meccanismi di governance potrebbero regolamentare lo sviluppo dell'IA, in termini di inclusione, trasparenza e cooperazione multilaterale a livello globale?



Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Il mio ultimo punto di vista sull’intelligenza artificiale riguarda il ruolo delle organizzazioni della società civile, in particolare il ruolo delle organizzazioni non governative. Penso che il ruolo della mentalizzazione non governativa nell’applicazione dell’intelligenza artificiale sia molto importante dal punto di vista di spiegare ai cittadini, agli utenti, alla gente comune come questa tecnologia stia influenzando le loro vite, soprattutto in termini di fiducia nell’intelligenza artificiale. Anche per aiutarli a capire le applicazioni e l’impatto sulla vita quotidiana dei cittadini, perché ci sono diverse interpretazioni e paure, forse infondate e negative, del loro rapporto con le intelligenze artificiali, che devono essere discusse, apprese ed educate in ambienti affidabili e le organizzazioni non governative con i loro membri, con le loro attività di volontariato, sono spesso un collegamento tra la ricerca high tech e la gente comune, perché hanno fiducia, perché la gente ha fiducia nelle organizzazioni non governative. E grazie alle loro informazioni, alle loro attività educative, possono aiutare i cittadini a capire quali sono gli effetti negativi e positivi dell’intelligenza artificiale. Questo è un ruolo delle ONG. Il secondo ruolo delle ONG è quello di fungere da cani da guardia. Agiscono non proprio come un organo di controllo, ma come qualcuno che presta attenzione alla possibile discriminazione, alla violazione dei diritti umani o all’uso negativo dell’intelligenza artificiale, che può portare alla discriminazione, che può portare a condizioni peggiori, per i gruppi di immigrati, per gruppi sociali specifici come gli immigrati o le donne o i gruppi socialmente vulnerabili che non sono rappresentati nella società come altri gruppi sociali. E le ONG devono assumere il ruolo di salvaguardare i loro diritti e combattere per i diritti umani quando vedono che l’intelligenza artificiale sta per superare questi standard. Credo che queste siano le due regole principali delle ONG in relazione all’intelligenza artificiale. Ci sono due ruoli minori. Uno è quello delle ONG come utenti abituali dell’intelligenza artificiale, in particolare quelle ONG che generano grandi quantità di dati sulla società e che possono poi utilizzare l’apprendimento automatico e gli strumenti per fornire conclusioni, risolvere problemi, creare visualizzazioni su diversi aspetti della società. In secondo luogo, questo ruolo è importante anche perché gli stakeholder agiscono come attori politici, ovvero partecipano a forum, coalizioni, discussioni con altri stakeholder dell’economia, della politica, della ricerca. E così, in quei forum e in quelle discussioni, essi sottolineano le questioni della responsabilità, della riservatezza, dell’affidabilità del sistema artificiale, cioè lavorano come difensori della società e degli esseri umani e si adoperano per un uso dell’intelligenza artificiale orientato all’uomo. Questo è il mio punto di vista, breve ma non brevissimo, sull’intelligenza artificiale e la società.

 

Quiz question 1/8

Perché le organizzazioni non governative (ONG) sono importanti per l'IA?





Quiz question 1/8

Nel caso dell'IA, a cosa prestano attenzione le organizzazioni non governative (ONG)?





Quiz question 1/8

Come utilizzano l'IA le organizzazioni non governative (ONG)?





Quiz question 1/8

In che modo le organizzazioni non governative (ONG) agiscono come attori politici?





Quiz question 1/1

You have completed the Quiz!

Loading...

The learning unit has not been completed

You have successfully completed the learning unit.

IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 5

Apprendimento automatico e interazione uomo-macchina

I frammenti di intervista che seguono sono stati rilasciati da Jurij Krpan e riguardano l’importanza dell’IA e in particolare aspetti rilevanti, opportunità e rischi dell’apprendimento automatico, nonché le sfide e le minacce dell’interazione uomo-macchina.

transcript

My name is Jurij Krpan. I am a curator at Galerija Kapelica, which is a part of the Kersnikova Institute,  which is an art platform. Its purpose is to give artists access to laboratories, where they can carry out  their art projects. Galerija Kapelica has been in existence for 26 years and specialises in the field of  contemporary art research, where artists thematise, a society permeated by high technology, not only  electronics, but also biotechnology, telecommunication, robotics, and so on.

Quiz question 1/8

L’intervistato, Jurij Krpan, lavora all’interno del Kersnikova Institute, che è una piattaforma artistica. Il suo scopo è quello di dare agli artisti l’accesso a laboratori, dove possono realizzare i loro progetti. L’istituto è specializzato nel campo dell’ arte contemporanea di ricerca, dove gli artisti tematizzano il rapporto tra società, tecnologia, telecomunicazioni e robotica.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

What is machine learning and how does it work? Machine learning is very simply said a written  algorithm that can process a huge amount of data. We must enable the accessibility of the data, then  there are different ways to extract the materials from this entry in the database. The material is later  changed into more or less meaningful sentences or when working with images, more or less  meaningful insights, which are a result of machine learning. Machine learning is called artificial  intelligence in a more affectionate way, since it’s not really about some intelligence but because the  machines are really capable, and their ability fascinates us in the same way as the ability of highly  intelligent people who are capable of quickly processing huge amounts of data and then communicate  it. Here I could list different types of machine learning but taking into consideration that it is in a big  swing, many new concepts are also being developed so I don’t think it makes any particular sense to  list the forms of the machine learning.

Quiz question 1/8

Che cos'è il Machine learning?





Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

What is the main difference between machine learning and ordinary programming? There are not  many differences, but at the same time they are important. With ordinary programming, we already  have a fairly accurate idea of what is programmed and how things will look. With machine learning we  have a thesis that offers itself as a possible answer through machine learning. Some of these possible  answers are more accurate, they are more elaborated, and some are more like guessing. In fact, it is  all about more or less accurate guessing.

Quiz question 1/8

Vero o falso? L'Machine learning e la programmazione classica sono fondamentalmente la stessa cosa.




Quiz question 1/8

Vero o falso? Con la programmazione classica sappiamo praticamente come sarà il risultato finale.




Quiz question 1/8

Vero o falso? Il risultato della programmazione classica può essere un risultato accurato o una speculazione.




Quiz question 1/8

Vero o falso? L'Machine learning propone diversi output durante l'elaborazione dei dati.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Can you present some concrete examples of machine learning to make it easier to imagine it? For  example, with the purpose of making it easier for people to imagine what we are dealing with, we have  used one form of machine learning, which is based on the algorithm GPT-2. It is an open AI, the second  generation, which we have included in the design of our newsletter. It is published once per month at  our institute because we have a huge variety of activities. We publish what we are going to be doing  this month, for example some exhibition, workshops, performances, where we are hosting, we also  publish similar events run by our partners around the world. In short, there is quite a lot of data and  at the beginning of this newsletter I wrote an introduction which should have motivated the recipient  to go through our quite long newsletter. I was constantly late with these introductions and our PR  constantly reminded me about it. Together we came up with the idea of algorithm writing the  introduction. Now all the published texts are put through the algorithm, which later transforms it into  a short text. It creates a short metaphor for what was put into the algorithm. The database is rather  small, since the basis is our newsletter, but it manages to summarise the texts more or less  appropriately. Some words are used in a strange way, especially because the algorithm is meant for  English and not Slovene language. Then it searches the web in all the Slavic languages for language and  letter specifics. Texts are usually formed from Polish, Czech, Russian. Every time you press the submit  button, the second suggestion appears. It takes a little bit of effort and pressing the submit button.  Later, human intelligence and judgment take place. The person who creates the newsletter chooses  the appropriate introduction of the newsletter by himself. It is now more efficient. We have delegated  one function to the algorithm. Usually more witty introductions are chosen, by which we point to the  capacity on the ability of this machine learning. Recipients of our newsletter can get a little sense of  what it means to create an introduction with the help of the algorithm.

Quiz question 1/8

Per quale scopo è stato utilizzato il Machine learning presso l'Istituto Kersnikova?





Quiz question 1/8

Che cosa hanno evitato i creatori della rivista dell'Istituto Kersnikova utilizzando il Machine learning?





Quiz question 1/8

Qual è la sequenza dei processi di applicazione del Machine learning presso l'Istituto Kersnikova?





Quiz question 1/8

Quali possono essere i problemi dei testi generati dagli algoritmi?





Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

It is about the cooperation with artificial intelligence and human interaction with a machine. Can you  tell us more about the human-machine interaction? Yes, I’m increasingly convinced that artificial  intelligence is not about some kind of intelligence that is in any way similar to human intelligence, but  that these algorithms are really so capable that they become our dialogue partners. As if when I am  sitting around the table with my colleagues we debate sometimes about the program, sometimes  finance, sometimes about politics and so on, we have another chair where this machine is sitting. It  offers us an echo of our thoughts. We have not yet in such a way implemented the artificial  intelligence, but we intend to, because we are developing an interface which will help the innovators  innovate. We would like to see that one of the innovators is a kind of AI. Perhaps it can contribute an  inspiration in a brainstorming session or a talk with humour or uncanny way of folding things together.  Especially if there is a group of experts around the table who are more egocentric and emotionally  exhausting. On the other hand we have a machine, which creates approximation and suggestions that  release the tension in these conversations. At the beginning I have mention that this machine iterates  what is said or put in by the humans. In artistic circles we are dealing with the idea in which these  machines can emancipate through conversation among themselves, machine to the machine. They  develop some lexicon, some level of communication which is incomprehensible to us humans. But can  be meaningful and through this communication we can better understand the way the algorithms  work. We have art projects where data is taken from sensors which are attached to plants or some  environments in which the animals move and act which are equipped with sensors. Then suddenly you  don’t get any more human-human dialogue (excluding that a person is already included, since he has  written the algorithm), but communication between extracted human in algorithm, the animals, or  plants. Art projects that we do encourage interactivity that is not just responsiveness, for example you  press a button, and something jumps, but true interaction, meaning you press, something happens,  and it influences you back that you press again. It creates a communication loop. We have a situation  of intercognition between more forms of liveliness, machine, and plants. Through this communication  which can be very different from that of a human – plant, we are exploring our own prejudices as to  what the plant is and what the machine is. It acts as a bioindicator and so on. The artists are using  these tools in very innovative ways, so we can better understand these tools on one hand and to better  understand the nature or the environment in which we live on the other hand. The amount of data is  so big that sometimes it is bigger than the average human brain can process and because of that it  makes sense to develop algorithms.

Quiz question 1/8

Vero o falso? L'intelligenza artificiale può produrre nuove idee ed è utile per il brainstorming.




Quiz question 1/8

Vero o falso? Uno degli scopi degli algoritmi nell'IA è una migliore comprensione della tecnologia e dell'ambiente in cui viviamo.




Quiz question 1/8

Vero o falso? Non è necessario l'intervento umano per far funzionare i sistemi di intelligenza artificiale.




Quiz question 1/8

Vero o falso? L'intelligenza artificiale può essere una buona fonte di comunicazione oggettiva.




Quiz question 1/8

Vero o falso? Secondo l'esperto, l'intelligenza umana può essere equiparata all'intelligenza artificiale.




Quiz question 1/8

Vero o falso? L'intelligenza artificiale può essere un mediatore interattivo per il circolo comunicativo con esseri non umani, ad esempio animali e piante.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

What are the threats and challenges when working with AI? Challenges are the same as in every  technology we use in our lives. A user without knowledge and sensibility risks that the machine will  use him and not the opposite. We see this already in very simple consumer situations. Our phones  have taken a large part of our attention. We do see that technology enters our intimate lives, as well  it affects the society. Sometimes, say at the beginning of mobile telephony, it was easier for the few  who had the phones and they had a certain advantage in the organization of the work. Today it is so  that if you do not have a mobile phone and if you are not always accessible it is already a disadvantage  and it is already a certain psychological pressure on the people. You must know how and when to  unplug yourself, and also protect your right for privacy. Here I see the need for people to develop their  digital literacy and computer literacy. Simply, as every man develops a certain financial literacy, e.g.  when he goes to the shop he knows that he will not pay a thousand euros for the bread. Similarly, we  have to develop digital and computer literacy.

Quiz question 1/8

No
 

Secondo l'esperto, è vero che l'autocontrollo umano e la definizione dei limiti non influiscono sull'uso ottimale della tecnologia


L'alfabetizzazione digitale è importante per un migliore controllo della tecnologia?


È vero che la tecnologia non influisce sulla società nel suo complesso?



Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Quiz question 1/8

Secondo l’esperto è importante capire e percepire l’IA attraverso opere d’arte, perché gli artisti usano gli algoritmi per mostrare la posizione dell’uomo nella società di oggi e quindi ci permettono di guardare noi stessi da una prospettiva esterna. Le opere d’arte interattive forniscono una più profonda comprensione e l’identificazione di miti sull’intelligenza artificiale. La comprensione e l’uso corretto della tecnologia possono portare a un miglioramento della qualità della vita e a una migliore comprensione dell’ambiente in cui viviamo.


Quiz question 1/1

You have completed the Quiz!

Loading...

The learning unit has not been completed

You have successfully completed the learning unit.

IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 4

Percezione dell’IA – IA e sfide sociali

I frammenti di intervista che seguono sono stati rilasciati da Bambos Papacharalambous, riguardano la percezione dell’IA e le sfide sociali e, in particolare, forniscono un approccio agli algoritmi e ai pregiudizi nell’IA.

transcript

Mi chiamo Bambos Papacharalambous. Per la maggior parte della mia carriera, diciamo quasi 30 anni, mi sono occupato principalmente della parte telecomunicazioni del settore IT. Sono coinvolto in un’ampia gamma di progetti legati all’IT in generale. Sono l’amministratore delegato e il fondatore di Novum. Novum è un’azienda che si occupa di sviluppo software e consulenza ICT.

 

Quiz question 1/8

L’intervistato, Bambos Papacharalambous, è stato principalmente coinvolto in un’ampia gamma di progetti legati alle tecnologie dell’informazione e della comunicazione, le cosiddette ICT. È il fondatore e l’amministratore delegato di Novun, una piccola azienda che si occupa di sviluppo di software e consulenza in ambito ICT.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Potrebbe parlarci delle basi dell’intelligenza artificiale, degli algoritmi e dei bias cognitivi? Sì, ok. AI sta diventando un’altra parola d’ordine dei tempi. Se cerchiamo di capire cosa significhi realmente AI e cosa stia a significare, A sta per artificiale, I sta per intelligenza. Artificiale significa una macchina, qualcosa che non è un essere umano o un altro animale vivente. Intelligenza, ovvero il processo di pensiero che ci permette di capire il linguaggio, di comprendere il discorso, di capire l’ambiente che ci circonda e di prendere decisioni. Ora, una delle idee di base dell’intelligenza è che consideriamo intelligente qualcosa che ha la capacità di acquisire conoscenza, cioè di imparare qualcosa, e poi di applicare ciò che ha imparato per prendere decisioni accademiche. Ci possono essere diverse definizioni di cosa sia l’intelligenza, ma supponiamo che ciò che definiamo come intelligenza sia la capacità di apprendere qualcosa e poi applicare quell’apprendimento in una qualche forma di decisione. L’intelligenza, diciamo, nel mondo accademico, è meglio compresa e studiata da psicologi o sociologi o altre discipline accademiche. Ma l’intelligenza artificiale è meglio compresa da informatici, analisti di dati e matematici, almeno oggi. Il motivo è che disponiamo di vaste discipline scientifiche per cercare di costruire macchine che in qualche modo applichino questo significato di base dell’intelligenza. Così come noi esseri umani impariamo leggendo o elaborando le nostre esperienze passate, un sistema di intelligenza artificiale dovrebbe essere in grado di imparare analizzando gli insiemi di dati esistenti e cercando di eseguire compiti di intelligenza. Ora, bisogna essere consapevoli che gli algoritmi di IA, come tutti gli altri, sono sviluppati da esseri umani e quindi potrebbero avere gli stessi pregiudizi e limiti del pensiero umano, giusto? Quindi, allo stesso modo in cui il pensiero delle persone potrebbe essere influenzato da pregiudizi cognitivi, anche l’IA alfa potrebbe prendere le stesse decisioni distorte. Quindi, se prendiamo alcuni esempi di pregiudizi aziendali attualmente identificati dal mondo della psicologia, diciamo, accademica, e prendiamo, per esempio, una partita di calcio, la nostra squadra vincerà sicuramente stasera, giusto? Abbiamo battuto l’avversario di stasera negli ultimi 20 anni, quindi è impossibile che perdiamo la partita di stasera. Si tratta di un pregiudizio cognitivo che può verificarsi durante il pensiero logico di un essere umano. Ma lo stesso pregiudizio cognitivo potrebbe verificarsi anche con un algoritmo di intelligenza artificiale. Se le uniche informazioni che forniamo ai nostri algoritmi di IA sono quelle che il nostro avversario ha perso contro di noi negli ultimi 20 anni, è probabile che l’algoritmo di IA giunga alle stesse conclusioni dell’uomo. Quindi, qualsiasi informazione diamo all’algoritmo dell’AIA, questo algoritmo cercherà di arrivare a una risposta e si baserà, ma solo sulle informazioni che noi acquistiamo. Quindi, se ora cerchiamo di insegnare al nostro algoritmo di intelligenza artificiale a identificare, diciamo, le persone intelligenti analizzando le loro caratteristiche facciali, va bene, e diamo in pasto a questo algoritmo immagini di giovani maschi bianchi, e diciamo a questo algoritmo, ok, ora vai a studiare queste immagini. E poi quando glielo chiediamo, quando gli diamo un’altra immagine, ci dice se questa persona è intelligente o no. Potrebbe essere intelligente o meno. È probabile che se alimentiamo l’algoritmo solo con immagini di giovani maschi bianchi, è probabile che se diamo all’algoritmo un’immagine di una donna nera matura, l’algoritmo di intelligenza artificiale avrà lo stesso pregiudizio e ci dirà che questa donna non può essere intelligente. È quindi importante comprendere questo aspetto. E non importa quanto magicamente pensiamo che l’algoritmo si comporterà. In pratica, l’algoritmo arriva a una risposta in base alla dimensione e alla qualità dei dati che forniamo. Questa è la mia risposta, diciamo così, alla domanda su quanto i pregiudizi possano influenzare l’IA, e quanto possano portare a risultati distorti.

 

Quiz question 1/8

Che cosa significa esattamente artificiale nel termine IA?





Quiz question 1/8

Che cosa significa esattamente intelligenza nel termine IA?





Quiz question 1/8

Finora l'IA è stata studiata soprattutto da:





Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Potrebbe ora soffermarsi sull’uso etico dell’intelligenza artificiale? Ci sono applicazioni dell’intelligenza artificiale con implicazioni etiche? Ok. Poiché al giorno d’oggi un numero sempre maggiore di macchine svolge compiti sempre più complessi, la mente delle persone si orienta immediatamente verso l’uso delle macchine in sostituzione del lavoro umano. È la prima cosa che viene in mente alle persone, ed è una preoccupazione valida. Sono le stesse preoccupazioni che venivano sollevate durante la Rivoluzione industriale e che oggi si ripresentano come attuali. È difficile permettere alle macchine di raccogliere il grano invece di affidarsi alle mani delle persone? È difficile permettere ai robot di sostituire gli operai umani nelle catene di montaggio delle automobili? Quindi, queste stesse domande di base si ripresentano, ma ora in un ambiente più, diciamo, complesso, dato che le macchine si sono sviluppate e svolgono compiti più complessi. Quindi, se le persone dovessero adattarsi al nuovo ambiente creato dalle macchine nella forza lavoro, dovrebbero affrontare molto presto un altro processo di riadattamento. Per esempio, dove troverebbero lavoro gli autisti di camion se ora i camion si guidano da soli? Giusto. Dove troverebbero lavoro gli autisti di autobus se gli autobus sono guidati da software AI? Dove troverebbe lavoro un pilota d’aereo se gli aerei volassero da soli? Quindi, più i compiti complessi vengono sviluppati e gestiti dalle macchine, più questi tipi di lavoro sono minacciati. E non si tratta più solo di lavori pesanti. Voglio dire, perché mai qualcuno dovrebbe diventare medico se un robot può eseguire la stessa operazione meglio di qualsiasi umano, giusto? Quindi, queste preoccupazioni sono valide. E naturalmente ci sono altri esempi che sollevano questioni etiche nell’uso dell’IA nella nostra vita. Non si tratta solo della forza lavoro. Non dovremmo forse preoccuparci dell’uso di macchine che vengono utilizzate per la nostra sicurezza? In primo luogo, possiamo essere sicuri che il software di intelligenza artificiale che alimenta una telecamera di sicurezza in un aeroporto abbia preso la decisione corretta nell’identificare i terroristi? Possiamo essere sicuri che il sistema di sicurezza di un centro commerciale stia seguendo il vero ladro fino alla sua auto e non qualche altro passante innocente? Quindi, questi problemi sono validi. Ci sono molte preoccupazioni etiche nell’ambito dell’IA, non solo in settori come l’impiego o la sicurezza, ma anche nell’uso di armi militari. Non dovremmo essere preoccupati, per esempio, dal fatto che i droni armati oggi combattono per noi? Siamo sicuri che il robot soldato autonomo di domani sarà in grado di distinguere il nemico dall’amico? Si tratta quindi di clienti molto validi. E ogni volta che accade qualcosa di grande, si verifica un cambiamento all’interno delle industrie in generale. Ogni volta che accade qualcosa di magico, c’è anche la possibilità di implicazioni negative legate al suo utilizzo. L’industria deve quindi trovare un modo per utilizzare l’IA per il bene della società in cui viviamo.

 

Quiz question 1/8

Vero o falso? Un sistema di IA impara analizzando insiemi di dati e cercando di eseguire compiti intelligenti, allo stesso modo degli esseri umani.




Quiz question 1/8

Vero o falso? Poiché gli algoritmi di IA sono sviluppati dagli esseri umani, potrebbero avere gli stessi bias e limiti.




Quiz question 1/8

Vero o falso? Non è importante conoscere i bias cognitivi.




Quiz question 1/8

Vero o falso? I bias degli algoritmi di intelligenza artificiale dipendono dalla quantità, dal tipo e dalla qualità dei dati immessi nel sistema.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Lei ha già parlato dell’impatto sull’intelligenza artificiale, sull’occupazione, sulla sicurezza, sul welfare, sul servizio militare, e anche delle nuove leggi sulla robotica in altri campi oltre a quello stradale che ha citato. Già, la questione delle regole e delle leggi per la robotica. Non è un problema facile da risolvere. Siamo in un territorio non ancora definito quando si tratta di un insieme di regole ampiamente accettate che dovrebbero definire il quadro etico di come i robot dovrebbero lavorare, anche in aree diverse da quella militare, ma anche nello spazio della sicurezza, nello spazio del benessere degli anziani, diciamo lo spazio della sicurezza personale. A casa, vedremo robot che inizieranno a prendere decisioni al posto nostro. Come ho detto prima, si tratta di un’area molto nuova e anche se ci sono gruppi sia nel mondo accademico, sia nell’industria, sia nei governi, che cercano di toccare queste regole, al momento si è in una fase molto, molto iniziale. Al momento si discute di ciò che il robot dovrebbe o non dovrebbe fare. Per esempio, un robot non dovrebbe fare del male a un altro essere umano. Questa potrebbe essere una direttiva primaria, diciamo, per una macchina. Ma allo stesso tempo, un robot dovrebbe obbedire al suo proprietario e al suo creatore. Questa è un’altra direttiva, una direttiva primaria per un robot. Ma cosa succede se il proprietario del robot gli dà istruzioni che esulano dalla sua direttiva principale? E se al robot viene chiesto di fare del male a un altro essere umano? Giusto, ma dovremmo limitare l’ambito del danneggiamento a un essere umano? E se al robot viene chiesto di fare del male a un animale? O se al robot viene chiesto di fare del male a un altro robot? E se il robot dovesse danneggiare un umano per proteggere un altro umano? Si tratta quindi di domande etiche a cui non è facile rispondere. E non sono facili nemmeno se si risponde. Non è così facile inserirle in un algoritmo. Quindi non dimenticate che alla fine tutte queste regole del quadro di riferimento devono essere tradotte in un’equazione, diciamo, matematica. Giusto? Quindi è una cosa piuttosto difficile da fare. Anche se sarebbe meglio per l’umanità definire queste regole prima e non dopo, non credo che sia un compito facile. Le aziende lottano per il dominio dei prodotti a livello globale. I Paesi stanno lottando per il dominio militare sempre a livello globale. Sarebbe quindi difficile stabilire regole che possano essere concordate da tutti e poi applicate da tutti, proprio per il modo in cui funzionano la società e l’umanità. Uno scenario più probabile è che questo insieme di regole accettabili venga definito e fatto rispettare almeno a posteriori. Voglio dire, dopo aver visto che la guerra chimica durante la prima guerra mondiale era immorale, abbiamo progettato il quadro di riferimento intorno ad essa. Subito dopo aver sganciato la bomba nucleare, abbiamo capito che era necessario controllarla. Quindi potremmo aver bisogno di sperimentare il primo, diciamo, disastro per essere costretti a definire le regole che governerebbero il comportamento del robot. Speriamo solo che l’esperienza del primo disastro non sia una mossa sbagliata. Personalmente, però, vedo che anche se si cerca di stabilire queste regole fin dall’inizio, credo che si tratti di un compito poco pratico da risolvere.

 

transcript

Se noi, se noi facciamo un passo indietro e vediamo che cos’è un algoritmo, va bene? E cerchiamo di vedere, di distinguere tra ciò che un algoritmo può fare per le persone, ma anche ciò che le persone possono fare con l’uso degli algoritmi. Quindi, con un normale alchimista, questi due, diciamo, compiti sono abbastanza distinti. Ciò che l’algoritmo può fare per le persone è una cosa. Quello che le persone possono fare con questo algoritmo è una cosa separata. Quindi, se un informatico scrive un algoritmo, vi chiederà anche le regole a cui volete che l’algoritmo obbedisca, giusto? Quindi, diciamo che volete un algoritmo che, quando vi viene dato il volume in capi, vi restituisca il volume in galloni. Ok? Quindi lo sviluppatore del software chiederà la regola che governa questa relazione tra leader e galloni. E userà questa regola per scrivere l’algoritmo in modo che tutti sappiano quale sarà il risultato, a condizione che l’algoritmo sia conforme a queste regole e funzioni correttamente. Ok? Questo è ciò che definirei un algoritmo regolare. Se ora l’uso di questo algoritmo può mettere le persone nei guai, allora non è l’algoritmo a essere difettoso, ma è l’uso dell’algoritmo a essere difettoso. Supponiamo, per esempio, che questo software che abbiamo scritto venga utilizzato in un aereo e che ci sia un interruttore nell’aereo che dice: “Ok, quando accendi l’interruttore, posso visualizzare il carburante in galloni. Quando si abbassa l’interruttore, posso visualizzare il carburante che l’aereo ha nel serbatoio in litri. Supponiamo che l’interruttore sia nella posizione sbagliata e che il pilota chieda i galloni invece dei litri e decolli. È probabile che debba effettuare un atterraggio di emergenza in un altro luogo prima della destinazione originaria. Quindi cosa fare? In questo caso? Avete un algoritmo che funziona correttamente, ma il suo utilizzo lo ha reso una funzione. Quindi, in questo caso, l’autorità di regolamentazione interviene, l’industria interviene e addestra i piloti in modo corretto. Ci si assicura che il pilota controlli se l’aereo ha abbastanza carburante prima del decollo. Si mettono in atto regolamenti per obbligare il servizio di rifornimento a terra ad assicurarsi che l’aereo abbia abbastanza carburante da raggiungere, in modo da sapere come gestire, diciamo, tutti i problemi normativi che dobbiamo gestire in un normale codice alchimista senza virgolette. Ora, cosa succede con l’algoritmo di intelligenza artificiale? Prendiamo ad esempio un algoritmo di apprendimento automatico. In questo caso, si progetta l’algoritmo con alcuni parametri di base e si dice all’algoritmo quali dati si hanno. Si inserisce nell’algoritmo un gruppo di dati e poi lo si esegue. La differenza con questo tipo di algoritmo è che il sistema si modifica da solo in base ai parametri e ai dati forniti. Non è quindi possibile prevedere il risultato degli algoritmi. Se un essere umano avesse abbastanza tempo per analizzare i dati forniti, analizzare i parametri ed eseguire i calcoli riga per riga su un foglio di carta, allora sì, potremmo prevedere, diciamo che faremmo le stesse previsioni che ha fatto l’algoritmo. Ma è impossibile per un essere umano analizzare una tale mole di dati con i parametri forniti all’algoritmo. Quindi, alla fine, il risultato di un algoritmo di IA potrebbe essere considerato imprevedibile. Potremmo avere un risultato che non ci aspettavamo. Ed è qui che deve entrare in gioco l’etica dei risultati. Immaginate di essere il Ministero della Salute di un Paese e di chiedere a un’azienda di IA di produrre un risultato che esamini i dati demografici della popolazione e il numero di donatori di organi disponibili. Vogliamo che l’algoritmo suggerisca chi riceverà un trapianto di cuore, per esempio, e chi non lo riceverà. Quindi si inseriscono elementi come l’età, la probabilità di avere, diciamo, un’alta probabilità di accettare questo piano fiduciario, e si inseriscono una serie di parametri, e poi si forniscono tutti i dati demografici del Paese a questo algoritmo e lo si lascia funzionare. Le domande etiche ora devono essere risolte da chi ha scritto l’algoritmo e non da chi lo usa e basta. Mentre in un normale algoritmo, possiamo dare la responsabilità di prendere la decisione alle persone che usano il software. La versione AI dell’algoritmo di apprendimento automatico è stata introdotta. In pratica, l’algoritmo prende le decisioni al posto nostro. Ecco perché dobbiamo iniziare a pensare di inserire le regole etiche negli algoritmi stessi. E come abbiamo detto prima, questa è una cosa facile da fare, perché come si fa a decodificare tutte queste risposte etiche in un’equazione matematica? Questo termine e spazio algoritmico è uno spazio nuovo. È oggetto di ricerca a livello accademico. Sta raggiungendo, toccando un po’ l’industria, ma non è ancora arrivato. Quindi ha ancora bisogno di tempo. Sì, è vero. Grazie mille per questo contributo sulla rilevanza dell’algoritmica.

 

transcript

Passiamo ora a domande specifiche sull’intelligenza artificiale e sulle sfide sociali. Può dirci qualcosa di più sull’intelligenza assistita, aumentata e autonoma? Si. Ok, beh, come abbiamo detto prima, se prendiamo ad esempio un robot che svolge un lavoro specifico, il robot che lavora alla catena di montaggio delle auto non è considerato un robot con un algoritmo di intelligenza artificiale al suo interno. Abbiamo visto questi robot lavorare nell’industria per molti anni prima che questa nuova ondata di metodi di IA diventasse popolare. Quindi cosa succede in quello spazio? Si tratta di un compito ripetibile, facilmente ricreabile e accettato dall’industria come un’apparecchiatura innocua. Ora, il vantaggio di avere una macchina di questo tipo è che, beh, togliamo all’uomo questa attività lavorativa ad alta intensità e lasciamo che siano le macchine a svolgere i compiti più noiosi e malsani, consentendo all’uomo di lavorare in ambienti più produttivi e sicuri. Ora, lo svantaggio è che, ovviamente, il robot che abbiamo in quella catena di montaggio ha fondamentalmente preso il sopravvento sulle persone che sono in grado di svolgere questi compiti. Quindi le cose sono, diciamo, accettate per quanto riguarda l’uso di una macchina che svolge un compito ripetitivo di lavoro manuale all’interno di un settore specifico. Ora, il problema diventa più complicato quando si ha un robot o una macchina che prende autonomamente decisioni e funziona in modo più, diciamo, codificato e intelligente. Immaginiamo quindi di non avere una catena di montaggio e di avere un robot che ha l’intelligenza necessaria per svolgere i compiti che oggi svolge un normale robot, ma che decide anche che il design dell’auto deve cambiare. Supponiamo che il robot sia in grado di progettare l’auto in modo più aerodinamico e che decida autonomamente che la forma dell’auto deve essere modificata. E naturalmente il robot avrà la capacità di apportare la modifica al progetto e allo stesso tempo di costruire l’auto. Ok, il vantaggio sarebbe che forse si può arrivare a un design migliore e offrire una migliore efficienza del carburante o altro. Ma lo svantaggio è che, prima di tutto, abbiamo tolto altri posti di lavoro alla forza lavoro. Forse abbiamo eliminato il progettista, ma allo stesso tempo non siamo sicuri che i cambiamenti suggeriti da questo nuovo robot siano effettivamente sicuri. Quindi, sì, potremmo avere una migliore efficienza, un maggiore risparmio di carburante, ma sarà più sicuro o altrettanto sicuro per il conducente e i passeggeri? Quindi, ancora una volta, tutto deve avere un equilibrio. Ci sono vantaggi, ci sono svantaggi e per questo ci sono rischi, minacce e sfide. Ma allo stesso tempo ci sono anche delle opportunità.

 

transcript

Lei ha già menzionato alcune opportunità e alcuni rischi e minacce. Secondo lei, quali sono le preoccupazioni sociali più rilevanti? Personalmente, quello che mi preoccupa di più sono le cose che riguardano la sicurezza delle persone. Quindi cose come il mercato del lavoro e l’occupazione. Penso che alla fine l’umanità troverà la sua strada e, se saremo abbastanza attenti, potremo trovare risposte a questi problemi perché la tecnologia sarà sempre presente. Ci siamo già passati e spero che in un modo o nell’altro troveremo una risposta a queste domande. Quando si tratta di cose come la sicurezza, la sicurezza delle persone è uno dei problemi più difficili da risolvere. Ed è a questo che credo dovremmo prestare maggiore attenzione. Per esempio, cosa succede se abbiamo un virus in un’auto e quell’auto ora guida mia madre ogni giorno fino al supermercato? Cosa succede se quel software viene preso da un’organizzazione terroristica? Cosa succede se il software è a terra per progettazione, non è stato testato correttamente? E poi succede qualcosa durante questo viaggio di mia madre verso il negozio di alimentari e si verifica un crash. Lo stesso tipo di problema che riguarda la sicurezza delle persone. Naturalmente, il problema si moltiplica per mille quando si parla dell’uso delle macchine in guerra. Oggi abbiamo droni che sono guidati da una pila di joystick che si trova dall’altra parte del mondo. E questo drone viene pilotato da un pilota. E il pilota decide dove far cadere i suoi titoli. Cosa succede ora quando questo drone ha l’autorizzazione a decidere da solo? Come si fa a trasmettere queste questioni etiche al software del drone? Sono gli stessi problemi che si pongono alla guerra ogni volta che un nuovo telefono web diventa disponibile per le masse. Quindi, questi tipi di decisioni che riguardano la sicurezza e il benessere delle persone, credo che siano le aree principali che devono essere esaminate. E probabilmente sono le aree più calde che possiamo finanziare.

 

transcript

Lei ha già presentato alcuni esempi in diverse aree. Potrebbe farci qualche altro esempio relativo al riconoscimento facciale, alla giustizia e alle sfide dei social network? Sì, il riconoscimento facciale è un problema che è stato riscontrato e sollevato ripetutamente negli ultimi anni. Si potrebbe dire che è iniziato direttamente con l’esigenza di individuare soluzioni nel settore della sicurezza, ma si è scoperto che ora è presente in tutti i diversi settori, intorno alla tecnologia. Diciamo industria. Supponiamo, ad esempio, di addestrare un sistema a utilizzare una telecamera posta all’ingresso di un centro commerciale e di voler vedere se la persona che sta entrando nel centro commerciale ha un COVID o meno, giusto? Quindi il COVID 19 è un problema molto attuale. Supponiamo di avere un qualche tipo di sistema che osservi il volto e che, se troviamo gli algoritmi che posso identificare insieme ad altri sensori e dati, possa identificare se questa persona potrebbe avere un caffè. Supponiamo quindi di identificare una persona che beve caffè. Un buon passo successivo sarebbe: ok, vediamo, usiamo il riconoscimento facciale dell’intelligenza artificiale e scopriamo chi è questa persona. Andiamo su Facebook, su qualsiasi altra piattaforma sociale, identifichiamo questa persona e poi vediamo le foto che questa persona ha pubblicato sulle diverse piattaforme di social media e vediamo chi sono i suoi amici. E forse dobbiamo contattarli per vedere se si sono riuniti, e potrebbe essere così. Ora sono sospettati di essere risultati positivi al test COVID-19. Quindi, dove possiamo fermare tutto questo? Giusto? Dove mettiamo fine a tutto questo? Se abbiamo regole che hanno a che fare con i dati personali e la sicurezza dei dati, beh, forse queste regole devono essere messe da parte a causa di una pandemia. Quindi lasciamo che gli algoritmi facciano tutto questo lavoro per noi senza alcun controllo, offrendo aiuto? Ma il fatto che gli algoritmi possano prendere decisioni da soli ci crea questa incertezza. Ed è per questo che le persone sono giustamente scettiche al riguardo.

 

transcript

Potrebbe ora parlarci un po’ di più dello status e della prospettiva di alcuni regolamenti? Per esempio, OCSE o UE UNESCO GPAI. Sì, come ho detto, ci sono iniziative e persone, persone intelligenti, che stanno dedicando tempo a creare un quadro di riferimento per l’uso dell’IA. Si sta anche facendo ricerca in aree etiche che non vengono affrontate dalle agenzie governative. Ma, come abbiamo detto prima, sono in una fase molto iniziale e ho la sensazione che l’industria sarà ancora una volta più avanti delle autorità di regolamentazione. Se date un’occhiata alle ricerche attualmente in corso presso le aziende nei settori della robotica, otterrete la stessa reazione di stupore quando vedrete come si comportano oggi i robot. Ho la sensazione che l’industria sia già in anticipo rispetto al quadro normativo e molto probabilmente si ripeterà un altro scenario in cui dovrà accadere qualcosa di negativo perché tutti reagiscano positivamente. Per come si stanno muovendo le cose, non vedo perché l’IA dovrebbe essere trattata in modo diverso. Penso che il settore si muoverà a ritmi incredibilmente veloci e che le autorità di regolamentazione e i governi saranno un passo indietro. Credo che questa sia la tendenza attuale e non vedo alcun fattore di cambiamento. Grazie mille. C’è qualcosa che vorrebbe aggiungere su questo tema? No, credo che la questione dell’etica nell’ambito dell’IA sia piuttosto importante. Si potrebbe dire che è una domanda valida. È una questione che viene sollevata dalle società di tutto il mondo. Credo anche che l’industria andrà avanti e progetterà e implementerà ciò che pensa sia meglio per i suoi creatori. Non credo che ci sarà modo di impedire che ciò accada. Spero solo che alla fine i risultati di queste iniziative sull’IA siano vantaggiosi per l’umanità e non creino tutti quei problemi che abbiamo paura di creare. Alla fine il genere umano e l’umanità troveranno la loro strada, ma credo che sarà un percorso accidentato.

 

The learning unit has not been completed

You have successfully completed the learning unit.

IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 2

IA e apprendimento automatico

I seguenti frammenti di intervista sono stati rilasciati dal Dr. Sebastian Lapuschkin e trattano il tema dell’IA e dell’apprendimento automatico, forniscono un approccio all’automazione e menzionano poi ulteriori esempi di apprendimento automatico.

transcript

Mi chiamo Dr. Sabasana. Sono il responsabile dell’IA sperimentale a casa mia, a Berlino, e il mio compito è quello di condurre ricerche sulla spendibilità dell’intelligenza artificiale.

 

Quiz question 1/8

L’intervistato, il dottor Sebastian Lapuschkin, è il responsabile del gruppo Explainable Artificial Intelligence presso il Fraunhofer HHI di Berlino. È incaricato di condurre ricerca verso la spiegabilità dell’intelligenza artificiale.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Che cos’è il machine learning e come funziona? L’apprendimento automatico è essenzialmente un modo per trovare soluzioni di automazione, soluzioni di automazione basate sui dati, quando l’obiettivo dell’automazione non può essere raggiunto in modo esplicito, ad esempio utilizzando o programmando algoritmi. Nello specifico, l’idea alla base dell’apprendimento automatico è quella di utilizzare i dati che rappresentano l’insieme dei problemi o che li descrivono e quindi utilizzare gli algoritmi di apprendimento automatico per consentire loro di trovare una soluzione a tali problemi. Questo approccio si chiama “data driven”. Può dirci in che modo l’apprendimento automatico è legato all’intelligenza artificiale e ai big data? Sì, certo. All’inizio l’intelligenza artificiale è più o meno solo un termine di marketing che descrive l’apprendimento automatico. Oppure si potrebbe anche dire che l’intelligenza artificiale è un sottocampo attuale dell’apprendimento automatico. Per capirlo bisogna sapere che tutto ciò che avviene nelle intenzioni artificiali utilizza l’apprendimento automatico. E per quanto riguarda la questione dei termini di marketing, è successo che il termine intenzioni artificiali è riapparso all’inizio del 2000 e con l’immersione dell’hype del deep learning. Le tre emergenze sono all’altezza del deep learning in questo momento ed è stato coniato per la prima volta negli anni ’60 o ’50 con l’emergere del primo machine learning big data descrive l’approccio allo stato di Londra per raccogliere e organizzare un sacco di dati. Giusto? E per condurre l’apprendimento automatico in modo efficiente è necessario disporre di dati che descrivano sufficientemente il problema e che siano rappresentativi del problema stesso. Detto questo, però, se avete molti dati non significa che siano buoni, che descrivano un problema. Potreste anche introdurre alcune caratteristiche confondenti, ossia informazioni che si correlano con gli obiettivi prefissati, ma che alla fine fanno sì che il vostro modello si rivolga a un altro obiettivo perché non riesce a capire cosa volete dai dati nello specifico. Giusto? Credo che la descrizione sia un po’ contorta. Il problema è che si usa l’apprendimento automatico per risolvere un problema che si può descrivere solo attraverso i dati e se i dati non descrivono la soluzione che si vuole ottenere, l’algoritmo di apprendimento automatico probabilmente non troverà la soluzione desiderata, ma qualche altra soluzione che funziona ugualmente. Ma questo potrebbe essere utile.

 

Quiz question 1/8

Vero o falso? Il Machine learning mira a trovare soluzioni di automazione basate sui dati quando l'obiettivo dell'automazione non può essere raggiunto in modo esplicito.




Quiz question 1/8

Vero o falso? L'Machine learning mira a trovare soluzioni manuali a problemi umani basati sui dati.




Quiz question 1/8

Vero o falso? L'Machine learning è un approccio guidato dai dati per trovare soluzioni umane ai problemi causati dalle macchine.




Quiz question 1/8

Vero o falso? Big Data descrive l'approccio alla raccolta e all'organizzazione di dati complessi e di grandi dimensioni provenienti da varie.fonti




Quiz question 1/8

Vero o falso? Per condurre il Machine learning in modo efficiente, è necessario disporre di dati rappresentativi che descrivano sufficientemente il problema.




Quiz question 1/8

Vero o falso? Avere molti dati significa che i dati sono automaticamente buoni e in grado di descrivere il problema.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Potrebbe dirci qualcosa di più sul deep learning e qual è la differenza tra machine learning e deep learning? Sì, il deep learning è un sottotitolo del machine learning e descrive l’uso e l’addestramento di algoritmi di machine learning che hanno una rappresentazione profonda delle informazioni. Di solito si tratta di reti neurali profonde. La profondità dell’apprendimento profondo nelle reti neurali profonde consiste nell’impilare più strati di possibili rappresentazioni dei dati. Si possono immaginare come strati di operazioni matematiche che vengono apprese durante l’addestramento. Quindi si dà la forma della rete e la funzione della rete viene appresa in un processo di addestramento iterativo fornendo un esempio di dati e il termine deep e learning. L’approccio deriva dalla profondità della rete. E qual è la differenza tra l’apprendimento automatico, il deep learning e la programmazione tradizionale? Ok, come ho detto, il deep learning fa parte dell’apprendimento automatico. La differenza tra l’apprendimento automatico e la programmazione tradizionale è la seguente: considerate che avete dei dati e conoscete le regole per elaborarli, giusto? Poi potete implementare le vostre soluzioni. Questo è un approccio tipico della programmazione. Si hanno i dati, si sa come elaborarli, si implementano i programmi e i risultati e si risponde. L’approccio all’apprendimento automatico è quindi quello di avere molti dati e di conoscere le risposte a questi dati, ma di non avere alcuna idea di come realizzarle. In pratica, non avete le regole, giusto? Il compito dell’apprendimento automatico è quello di addestrare la macchina ad apprendere le regole che consentono di collegare i dati e produrre le risposte attese. Una volta ottenuto questo, si ha un modello di apprendimento automatico addestrato che può ricevere nuovi dati, dati che non ha mai visto prima perché ha imparato le regole e non deve imparare i dati a memoria, e può quindi produrre risposte. Quindi, nella velocità dell’apprendimento automatico, diciamo che il modello deve generalizzare, il che significa che deve aver appreso regole generali su come gestire i dati inseriti per fornire le risposte corrette. Una volta che si dispone di un modello di questo tipo, è possibile inserirlo come un insieme di regole nel compito di programmazione. Ad esempio, se l’insieme di regole fosse così complesso da non poter essere esplicitamente in grado di COVIDERE scrivendo il codice manualmente.

 

transcript

E può fornire uno o più esempi di utilizzo popolare dell’apprendimento automatico? Penso che un esempio che viene usato abbastanza spesso sia il riconoscimento ottico dei caratteri, cioè le macchine e l’ufficio postale che leggono l’indirizzo della lettera che scrivete, di solito non è fatto da esseri umani ma è solo una macchina sensoriale. La macchina decifra la vostra calligrafia, poi digitalizza l’indirizzo e inserisce tutte queste informazioni in un database e quindi la lettera viene indirizzata all’indirizzo desiderato. Un altro approccio potrebbe essere il riconoscimento facciale, ad esempio. Ad esempio nelle videocamere digitali, nelle webcam e nei sistemi di riconoscimento facciale. Lo spettro di applicazioni dell’apprendimento automatico è quindi molto utile. Ad esempio, nel nostro laboratorio utilizziamo l’apprendimento automatico per la prevenzione dei disastri naturali, dove abbiamo a disposizione, ad esempio, dati sul clima o sull’inquinamento atmosferico degli ultimi anni, mesi e così via. E poi addestriamo un modello che dovrebbe essere in grado di prevedere il comportamento dell’arrivo della temperatura e così via. Considerando i numerosi fattori che cucinano negli ultimi giorni, potrebbe fornire uno o pochi esempi di utilizzo popolare del deep learning? Praticamente tutto ciò che è abbastanza complesso e che era apparentemente irrisolvibile, circa dieci anni fa abbiamo concesso la licenza per il deep learning e cioè il riconoscimento delle immagini, per esempio, utilizza il deep learning perché utilizzando la fase delle reti profonde questa architettura profonda permette al modello di imparare come una cascata di diverse fasi di elaborazione delle caratteristiche. Giusto? In effetti, le reti neurali profonde sono in qualche modo motivate dalla corteccia visiva del cervello umano, che elabora le informazioni in diverse fasi, a partire dalla semplice ricezione delle informazioni sui colori fino all’attivazione dei neuroni su forme semplici, come bordi e forme rotonde, e così via, le reti neurali fanno cose abbastanza simili. E passando dalle caratteristiche più atomiche a quelle più complesse, ad esempio, dai gradienti di colore dei bordi ai neuroni che sono lì o hanno imparato a riconoscere le teste delle lucertole, ad esempio, queste informazioni complesse dell’immagine possono essere elaborate in modo efficiente e abbastanza veloce. E questo porta gli attuali modelli di apprendimento automatico nel riconoscimento delle immagini a superare gli esseri umani, soprattutto se si tiene conto del tempo.

 

Quiz question 1/8

Il Machine learning è utilizzato nel riconoscimento dei volti, ad esempio nelle videocamere digitali, nelle webcam e nei sistemi di sorveglianza. Il campo di applicazione del Machine learning è molto ampio. Nei laboratori degli intervistati si usa il Machine learning per prevenzione dei disastri naturali, in cui si tiene traccia dei dati climatici e dell’inquinamento atmosferico degli anni precedenti e si addestra un modello che dovrebbe essere in grado di prevedere i fattori climatici e meteorologici. Il Deep learning viene utilizzato in molti processi complessi come riconoscimento di immagini.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Quali sono le opportunità e gli aspetti positivi dell’apprendimento automatico per la società? Innanzitutto, la possibilità di raggiungere uno stato di automazione che elimina i compiti ad alta intensità di lavoro, ma noiosi e che nessuno dovrebbe svolgere perché possono essere automatizzati in modo ottimale. Questo, ovviamente, aumenta l’efficienza. Riduce gli errori perché la macchina non si stanca mai. In ambito medico, ad esempio, le macchine potrebbero essere utilizzate per migliorare le decisioni dei tirocinanti. Il signor patologo, ad esempio. Il signor patologo è un dominio particolarmente interessante perché è noto che uno storico ha il suo massimo valore quando sta per andare in pensione, perché ha alle spalle un periodo di apprendimento di base che dura tutta la vita. E questi quasi pensionati sono molto più veloci dei nuovi arrivati che devono imparare il mestiere, giusto? E per più veloci intendo dire che guardano intuitivamente uno di quei vetrini di istopatologia e capiscono immediatamente cosa sta succedendo, perché il novellino deve scansionare meticolosamente ogni pezzo dei vetrini e prendersi del tempo, eccetera eccetera. C’è anche un gruppo in classe che agisce da Andreas Holzinger. Sta addestrando metodi di apprendimento automatico basati sulle annotazioni dei dati fatte da un esperto, il signor Patologo, con l’obiettivo di incapsulare la sua esperienza di vita nella sua topologia in un modello di apprendimento automatico. Quindi, potenzialmente, può essere utilizzato come compagno di addestramento per i principianti in questo settore.

 

transcript

E quali sono i rischi più rilevanti legati all’etica, ad esempio, secondo lei? Uno, ovviamente, è il caso d’uso previsto per l’apprendimento automatico. Ad esempio, volete usarlo per il bene generale? Si vuole migliorare la società? Si vuole migliorare l’ambiente? O volete inserirlo in un missile da crociera? Questa è la differenza fondamentale. E poi questi sono gli estremi dello spettro. E poi c’è una pletora di questioni sociali nel mezzo. Ad esempio, è possibile automatizzare la stima del merito di credito di una persona e utilizzare l’apprendimento automatico per questo? E poi c’è la domanda: quali dati avete usato per addestrare questo modello? E avete forse modellato o addestrato correlazioni indesiderate tra alcune caratteristiche e dati e il risultato? Per esempio, abbiamo imparato che alcune etnie, per qualsiasi motivo, per esempio il colore della pelle, l’etnia, come ho detto, non dovrebbero ricevere, non so, aiuti finanziari per questo motivo, giusto? La domanda è sempre: quali dati inserire? Quali dati volete che qualcuno usi? Esiste il principio della spacity dei dati, che significa utilizzare solo i dati necessari per risolvere il compito, perché i dati aggiuntivi potrebbero creare un comportamento conflittuale nel modello. E questo è naturalmente uno dei grandi problemi attuali con l’automazione in corso. Con l’apprendimento automatico. D’altra parte, c’è sempre un problema se si utilizzano dati reali per addestrare i modelli di apprendimento automatico e non si apprezza ciò che il modello sta facendo, perché il modello stesso è oggettivo, il trust può imparare dai dati forniti. I dati sono l’unica realtà del modello. Significa che non vi piace quello che fa il modello? O non vi piace la realtà? Giusto. E penso che non sia sempre il modo giusto di correggere e curare i dati per eliminare certi comportamenti del modello. Lo vedrei come un indicatore del cambiamento necessario nella società che produce questo.

 

transcript

Una domanda sull’intelligenza artificiale estendibile X-A-Y: può spiegarci com’è? Si. L’obiettivo dell’Intelligenza Artificiale Estendibile è quello di fare ombra alla scatola nera dell’apprendimento automatico. Attualmente l’apprendimento automatico è molto complesso, il che significa che l’osservatore esterno, anche lo sviluppatore, non ha la possibilità di capire cosa il modello stia effettivamente imparando. Con l’accessibilità o l’X AI, invece, vogliamo recuperare un po’ di trasparenza su ciò che il modello sta facendo. Sì, questo può essere fatto in diversi modi. Quello che abbiamo fatto nel nostro laboratorio è stato lo sviluppo di un metodo di retrospettiva modificato, il che significa che se si immettono alcuni punti di dati nel modello, il modello viene trasformato strato per strato nella rete o nel modello. In pratica, il modello viene attraversato e il risultato finale è la risposta del modello. Giusto. Possiamo invertire questo processo, ad esempio, se il modello riceve un’immagine e mi dice che è un gatto, posso partire dall’output del gatto e dire: “Sì, ma perché? E poi posso smontare le decisioni parziali dei modelli, strato per strato, fino a raggiungere di nuovo l’input e ottenere così una mappa di calore. In pratica, si tratta di un mascheramento nello spazio di input dove si trovano più informazioni e si può fare questo per qualsiasi risultato potenziale. Ad esempio, se il modello ha come output un cane, si può eseguire lo stesso processo con l’output del cane e si può ottenere la risposta al perché il modello pensa che non ci sia un cane nell’immagine o perché le informazioni sul cane non sono corrette. Questo è un modo per collegare l’utilizzo delle informazioni fornite dai punti dati da parte del modello all’output del modello stesso. Sì, l’espandibilità è un campo piuttosto giovane: direi che i primi passi seri e i primi modelli più complessi sono stati fatti nel 2010 e da allora l’evoluzione è stata piuttosto rapida. Quindi c’è molto lavoro in corso. Stiamo lavorando per fornire spiegazioni che vadano oltre le semplici visualizzazioni delle mappe di calore, che a volte richiedono un’interpretazione, soprattutto se i dati sono difficili da capire e da riconoscere. Ma il nostro obiettivo finale è quello di creare un modello che, in base al trattamento di una migliore sfruttabilità su cui state attualmente lavorando, dovrebbe essere più o meno autoesplicativo, senza dire: “Guardate questa parte dell’immagine, c’è un’informazione che, a mio avviso, come modello parla da sola”. Ma il modello dovrebbe informare l’utente. Per esempio, che penso che ci sia un gatto perché vedo questo e quello e quello e quello. Caratteristiche simili a quelle di un gatto che il modello ha appreso, ad esempio, come caratteristiche da utilizzare per fare previsioni. Grazie mille. E cosa rende possibile l’IA spiegabile? Che cosa si può ottenere? Per esempio, si può capire cosa sta facendo il modello e si può ottenere una comprensione su base campionaria per campione, il che significa che in questo caso per ogni punto di dati inserito nel modello si riceve un feedback sul ragionamento del modello basato su questi dati. Naturalmente, è possibile utilizzare questi dati per verificare il modello. Ma in alcuni casi si potrebbe anche ottenere l’informazione che il modello sta producendo l’output giusto per le ragioni sbagliate. Per esempio. E questo potrebbe indicare errori nei dati di addestramento, dove sono state introdotte informazioni confondenti, caratteristiche confondenti che il modello collega all’output dei gatti, ma che non sono assolutamente Cadillac solo perché è più facile per il modello. E poi abbiamo di nuovo il problema che la porta di addestramento del modello è l’unica realtà del modello. Basta dargli un paio di migliaia di immagini di gatti e il modello impara a passare da questa fonte di dati al gatto. E se queste immagini, per esempio, sono state raccolte da Flicker e hanno tutte una filigrana di copyright perché sono immagini di stock o altro, il modello potrebbe capire che le immagini di stock sono gatti. Giusto? Questo è il problema che possiamo identificare con l’esternalità e che ci permette di migliorare il modello, la fonte dei dati e così via, in modo da essere sviluppatori di apprendimento automatico molto più informati di prima.

 

The learning unit has not been completed

You have successfully completed the learning unit.

IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 1

Applicazioni dell’IA, apprendimento automatico, interazione uomo-macchina

I seguenti frammenti di intervista sono state rilasciati da Pierre Lison e coprono vari argomenti, si consiederino le principali applicazioni dell’IA nella nostra società, l’apprendimento automatico e le sue relazioni con l’IA e i big data, l’apprendimento profondo, l’interazione uomo-macchina e i suoi obiettivi, nonché le tendenze e le sfide dell’interazione uomo-macchina.

transcript

Mi chiamo Kelly Zone. Sono una ricercatrice senior presso il Norwegian Computing Center, un istituto di ricerca che si occupa di IA e di modellazione statistica e in generale di informatica. Il mio campo di ricerca è l’IA e, in particolare, tutto ciò che ha a che fare con il linguaggio, le cosiddette tecnologie linguistiche o l’elaborazione del linguaggio naturale.

 

Quiz question 1/8

L’intervistato, Pierre Lison, è un senior ricercatore presso un centro di calcolo norvegese, che è un istituto di ricerca. Si occupa di intelligenza artificiale (IA), modellazione statistica e in generale di scienze informatiche. Il campo di ricerca dell’intervistato è l’IA, tecnologie del linguaggio e l’elaborazione del linguaggio naturale.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Grazie mille. Quali sono le principali tecnologie di IA e le principali applicazioni dell’IA fino ad oggi? L’IA è già utilizzata nella nostra vita quotidiana. Se si pensa ai motori di ricerca, a Google o alla computer vision utilizzata per riconoscere gli oggetti o le barre dei codici sul cellulare, o al riconoscimento vocale, tutto ciò che ha a che fare con problemi complessi che richiedono un certo livello di intelligenza per essere risolti. E che dire del riconoscimento di oggetti e del riconoscimento vocale? Si può parlare di riconoscimento facciale e vocale? Sì. Quindi tutto ciò che ha a che fare con il riconoscimento Quindi tutto ciò che ha a che fare con il riconoscimento di oggetti su immagini o flussi video fa parte di questo grande campo chiamato computer vision. È possibile riconoscere oggetti, nel qual caso si definiscono gli oggetti che si desidera riconoscere. Ad esempio, si vogliono riconoscere divani o diversi tipi di mobili o Lego o altro per definire le categorie da riconoscere. In genere, si dispone di un sistema che addestra un modello per riconoscere questo tipo di oggetti. Per il riconoscimento dei volti è la stessa cosa, solo che al posto degli oggetti fisici si lavora con i volti umani. Anche in questo caso, è necessario un sistema che addestri un modello in grado di riconoscere diversi tipi di persone in base al loro volto. E per il riconoscimento vocale è essenzialmente la stessa cosa, tranne che, ovviamente, non si tratta di un input visivo, ma di un input audio. Ma l’idea è la stessa: si riconoscono alcuni schemi nell’audio, nei dati audio che definiscono diversi tipi di suoni e, mettendo insieme i suoni, si ottengono parole, frasi, e quindi si può riconoscere ciò che viene detto e trascriverlo. Può dirci quali sono le tendenze emergenti di oggi? L’intelligenza artificiale è già un campo molto vasto e sta crescendo a un ritmo piuttosto veloce. Ma alcune delle tendenze più importanti, ovviamente, sono la disponibilità diffusa di grandi quantità di dati di addestramento. Una delle tendenze più importanti è quella di scalare la tecnologia in modo da poter elaborare grandi quantità di dati, in pratica tutto ciò che si può trovare sul Web. Questo vale sia per la tecnologia linguistica e quindi per il testo, sia per la computer vision, perché ci sono miliardi di immagini sul web. La scalabilità della tecnologia è quindi una tendenza importante. D’altra parte, una tendenza importante che trovo molto interessante è il fatto che sempre più ricercatori si occupano delle questioni etiche che stanno dietro alla tecnologia. In parte perché, ad esempio, stiamo utilizzando praticamente tutto ciò che si trova sul Web senza chiedere il consenso di persone umane a cui vengono mostrate le immagini per l’utilizzo di questi modelli di grandi dimensioni, ma anche perché ci rendiamo conto che l’IA ha davvero un’influenza sulla nostra vita quotidiana. Dovremmo quindi pensare se, ad esempio, l’IA può diventare parziale, esprimere stereotipi o diventare odiosa, a volte anche perché viene addestrata su dati che si trovano ovunque sul Web. E sappiamo che il Web è un posto strano, a volte. Quindi, pensando a come l’IA apprende i dati che cerca sul Web, come possiamo assicurarci che soddisfino le nostre aspettative? E, naturalmente, le normative in materia di non discriminazione. Per esempio.

 

Quiz question 1/8

Vero o falso? Secondo l'esperto, le applicazioni dell'IA sono già ampiamente utilizzate nella nostra società e nella nostra vita quotidiana.




Quiz question 1/8

Vero o falso? I motori di ricerca, Google, la computer vision, il riconoscimento vocale, il riconoscimento di oggetti e volti, la tecnologia del linguaggio sono esempi di tecnologie e applicazioni di IA. amples of AI technologies and AI applications.




Quiz question 1/8

Vero o falso? Il riconoscimento di oggetti in immagini e schermi video non fa parte di questo vasto campo chiamato computer vision.




Quiz question 1/8

Vero o falso? La computer vision consiste nell'addestramento di un modello per il riconoscimento di modelli come oggetti fisici, voce e volti umani, input visivi, audio o video.




Quiz question 1/8

Vero o falso? Secondo l'esperto l'IA non si sta evolvendo a un ritmo veloce.




Quiz question 1/8

Vero o falso? L'analisi dei Big Data è una delle tendenze tecnologiche emergenti che consente di elaborare una quantità molto elevata di dati




Quiz question 1/8

Vero o falso? I ricercatori non considerano importanti le questioni etiche alla base delle tecnologie di IA.




Quiz question 1/8

Vero o falso? Secondo gli esperti, l'IA non ha alcuna influenza sulla nostra routine quotidiana, né sulla nostra società.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Ora parleremo un po’ di più dell’apprendimento automatico. Potrebbe dirci cos’è l’apprendimento automatico e come funziona? L’apprendimento automatico è un ramo dell’IA, ma è diventato il ramo dominante dell’intelligenza artificiale. Si tratta di costruire modelli per un compito particolare in cui le cose non sono preprogrammate, ma vengono apprese dai dati. Quindi, invece di scrivere, specificare regole dettagliate su ciò che il sistema dovrebbe fare in ogni situazione, si forniscono alcuni dati, dati di addestramento, perché si sta cercando di far apprendere il sistema da questi. Il sistema identificherà automaticamente alcuni schemi utili per il compito da svolgere e li utilizzerà automaticamente su nuovi dati una volta appresi. Può dirci in che modo l’apprendimento automatico è legato all’intelligenza artificiale e ai big data? Si. Per quanto riguarda il rapporto con l’intelligenza artificiale, è diventato il metodo dominante per risolvere compiti complessi di intelligenza artificiale. L’apprendimento automatico consiste nel fare questo su grandi insiemi di addestramento, e questo è il modo in cui si relaziona con i big data, nel senso che si sta apprendendo il modello per svolgere compiti diversi utilizzando grandi insiemi di dati. Quindi è anche direttamente collegato ai big data.

 

Quiz question 1/8

Il Machine learning è:





Quiz question 1/8

Il Machine learning si occupa di:






Quiz question 1/8

Il Machine learning:





Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Qual è la differenza tra machine learning e deep learning? Il deep learning è un tipo particolare di tecnologia per l’apprendimento automatico. Non è l’unica, ma è diventata molto popolare per alcuni tipi di problemi. Il punto di forza del deep learning è l’apprendimento delle cosiddette reti neurali con molti strati di elaborazione. Si tratta quindi di un modello matematico piuttosto complesso, composto da piccoli nodi di calcolo che ricevono informazioni e le inoltrano ad altri neuroni o ad altri nodi di calcolo che hanno proprietà matematiche specifiche. E anche se questi piccoli nodi sono abbastanza semplici isolatamente, il fatto di combinarli insieme e collegarli in grandi reti con milioni di note di questo tipo, un po’ come avviene nel cervello dove i neuroni sono collegati tra loro, può far sì che i sistemi imparino a svolgere compiti complicati. Per esempio, le reti neurali profonde. L’apprendimento profondo è stato utilizzato per la traduzione automatica. Quindi la traduzione automatica, come quella di Google Translate, sappiamo che è un compito complicato: la traduzione automatica deve comprendere il contesto della frase. È necessario comprendere le proprietà linguistiche sia della lingua di ingresso che della lingua di destinazione. Bisogna capire come le parole si combinano l’una con l’altra, in modo che se due parole vengono messe insieme, si crea una costruzione che viene tradotta in modo diverso. Si tratta quindi di compiti davvero complessi e sappiamo che utilizzando l’apprendimento automatico tradizionale Latif ha ottenuto fino al 2010 risultati che nella maggior parte dei casi andavano bene, ma con gravi errori e problemi di comprensione dei fattori contestuali, ad esempio, mentre queste reti di apprendimento profondo hanno dimostrato di poter trovare traduzioni di alta qualità. Detto questo, il problema è tutt’altro che aperto e ci sono ancora molti problemi con la traduzione automatica, ma è stato dimostrato che erano più bravi a capire come tradurre. Qual è la differenza tra apprendimento automatico, apprendimento profondo e programmazione tradizionale? L’apprendimento automatico è un termine che racchiude tutto ciò che nell’IA viene addestrato a partire dai dati. Quindi è davvero molto vasto. Include il deep learning ma anche altre tecniche, alcune delle quali risalgono agli anni Settanta. Il deep learning è un tipo specifico di tecnologia basata sulle reti neurali che funziona in molti casi, ma ci sono molte altre tecniche che funzionano bene e hanno altre proprietà interessanti. Forse posso dire che una delle principali carenze delle reti neurali. Prima di tutto, richiede grandi quantità di dati e per alcuni problemi si dispone di grandi volumi di dati di base, che sono ben lontani dal caso di tutto ciò che si traduce. Per esempio, la traduzione automatica di una lingua per la quale non si dispone di molte risorse, sarà difficile utilizzare il deep learning. Un altro problema è che si tratta di scatole nere complete. Ciò significa che non si capisce cosa il sistema abbia imparato e a volte va bene così. Non è sempre necessario capire tutto. Ma se, ad esempio, si sta costruendo un sistema per decidere se concedere un prestito a una persona. E avete un sistema che può basarsi sullo stipendio della persona, sul luogo in cui vive, sul fatto che sia sposata o meno, eccetera eccetera. Diversi tipi di fattori demografici. E si ha un sistema che può dare una buona previsione sul fatto che una persona abbia diritto a no, no. Ma non è in grado di spiegare le motivazioni alla base della sua decisione. Sarà molto problematico, perché è necessario un sistema che non solo dia una risposta, ma che spieghi perché si è arrivati a quella particolare risposta. Questa è un’importante lacuna delle reti neurali. Ed è per questo che a volte i sistemi di apprendimento automatico possono avere prestazioni leggermente inferiori su alcuni aspetti, ma sono in grado di spiegare i passaggi, le fasi di elaborazione che stanno dietro alla loro decisione, a volte molto meglio. Non esiste quindi un unico modo per valutare questi modelli. Ci sono diversi tipi di pro e contro dietro diversi tipi di tecnologie. Sì, e la programmazione tradizionale è semplicemente ciò che si fa quando non si impara il modello, dove si pre-programmano tutte le regole in anticipo.

 

Quiz question 1/8

No
 

Il Deep learning è l'unica tecnologia di Machine learning


L'obiettivo del Deep learning è addestrare reti neurali con molti strati di elaborazione.


I sistemi possono imparare a svolgere compiti complicati grazie a questi molti nodi combinati e collegati in una grande rete di tali nodi.


Il Deep learning è stato utilizzato nella traduzione automatica.


Nella traduzione automatica, come quella di Google Translate, non è necessario comprendere il contesto delle frasi, le proprietà linguistiche di entrambe le lingue o il modo in cui le parole possono combinarsi tra loro.


La traduzione automatica neurale profonda funziona meglio ed è di qualità superiore rispetto alla traduzione automatica tradizionale, ma deve ancora migliorare molto.


Il Machine learning è un termine molto generico per indicare tutto ciò che nell'IA viene addestrato a partire dai dati.


Il Machine learning non include l'apprendimento profondo.


Il Deep learning è una tecnologia molto specifica basata sulle reti neurali.


La programmazione tradizionale è quella che si fa quando si pre-programmano le regole in anticipo e non si addestrano i modelli.



Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Lei ha già parlato di traduzione automatica. Può fornire uno o più esempi di utilizzo popolare dell’apprendimento automatico? Si. L’apprendimento automatico per la ricerca, come nella ricerca di Google, nei motori di ricerca, nella computer vision, nel riconoscimento vocale. Viene utilizzato fondamentalmente per qualsiasi tipo di classificazione o previsione. E la maggior parte delle aziende oggi ha un qualche tipo di sistema. In questo modo si automatizzano alcune decisioni o previsioni. La robotica è sempre stata il primo campo in cui si utilizzano modelli di apprendimento automatico per aiutare i robot a decidere cosa fare e come farlo. Nel settore, l’apprendimento automatico e l’apprendimento profondo sono molto utilizzati. Prima si trattava di modelli statistici e di apprendimento automatico per lo sviluppo di questo settore. Lei ha già menzionato alcuni vantaggi e opportunità dell’apprendimento automatico per la società. Può citarne altri? Uno dei vantaggi principali è probabilmente quello dell’automazione. È l’automazione di compiti che possono essere ripetitivi e interessanti, e forse ho dimenticato di menzionarlo. Ma anche tutto ciò che si fa con le auto autonome e semi-autonome. È anche un altro esempio in cui gran parte della guida è ripetitiva, di routine. Si tratta di cercare degli schemi, fondamentalmente. I computer sono molto bravi a riconoscere gli schemi e a farlo sistematicamente, 24 ore su 24, 7 giorni su 7, mentre i conducenti umani sono notoriamente incapaci di tenere traccia di ciò che accade sulla strada per ore e ore. Questo è un altro caso in cui l’automazione di un processo che nella maggior parte dei casi è più o meno di routine e ripetitivo può essere molto vantaggiosa. Naturalmente, si tratta di un buon caso perché gran parte di ciò che accade in viaggio è ripetitivo. Ma a volte si verificano situazioni complesse, si verifica qualcosa di inaspettato sulla strada. L’apprendimento automatico si basa su dati storici. Impara da ciò che è stato visto in passato e cerca di generalizzare. Ma la capacità di generalizzare è molto più debole di quella che abbiamo come individui umani. Quindi, mentre noi siamo in grado di capire rapidamente una nuova situazione che si presenta, per il computer è molto più difficile.

 

1/3: Dove viene utilizzato oggi il Machine learning?

Provare prima a rispondere alla domanda e poi fare clic su "next" per vedere la nostra.

1/3: Dove viene utilizzato oggi il Machine learning?

Nella traduzione automatica, nei motori di ricerca come google search, nella computer vision, nel riconoscimento vocale, nel processo decisionale automatizzato, nelle classificazioni e nelle previsioni, nella robotica, nelle automobili autonome.

2/3: Qual è il principale vantaggio del Machine learning per la società?

Provare prima a rispondere alla domanda e poi fare clic su "next" per vedere la nostra.

2/3: Qual è il principale vantaggio del Machine learning per la società?

L'automazione di compiti e processi ripetitivi e monotoni.

3/3: Su cosa si basa il Machine learning?

Provare prima a rispondere alla domanda e poi fare clic su "next" per vedere la nostra.

3/3: Su cosa si basa il Machine learning?

Sui dati storici nel Machine learning supervisionato, imparando da ciò che si è visto in passato e generalizzando da esso.

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Ora passiamo all’interazione uomo-macchina. Quali sono gli obiettivi dell’interazione uomo-macchina, secondo lei? L’obiettivo dell’interazione uomo-macchina è semplicemente quello di creare buone interfacce tra un individuo umano che desidera svolgere un determinato compito e una macchina che lo supporta. Un’interfaccia grafica ne è un esempio molto semplice. Ma naturalmente tutto ciò che ha a che fare con l’interazione e la tecnologia rientra in questo ambito. Ho lavorato sui robot parlanti, per esempio, e questo è un altro tipo di interazione che è molto diversa da una finestra sullo schermo, ma è anche un’interfaccia nel senso che in questo caso si usa il linguaggio parlato per fornire istruzioni e ricevere feedback su ciò che sta accadendo nell’esecuzione del compito. La domanda è sempre quella di come si possa avere una comunicazione fluida, in cui la persona capisca cosa sta succedendo e possa trasmettere facilmente ciò che deve essere fatto. E come si possono controllare i dispositivi? Dipende dalla tecnologia. Per una finestra di un computer è piuttosto semplice, a patto che si capisca che una piccola croce significa che si sta chiudendo la finestra. Per gli strumenti più sofisticati, invece, è un po’ più difficile, perché bisogna trovare qualcosa che sia abbastanza intuitivo, ma anche abbastanza potente da consentire la gamma di possibilità per il dispositivo in questione. Nel caso di un robot, per esempio, l’insieme delle cose possibili che il robot può dire e fare nel mondo è piuttosto ampio. Per questo motivo è necessaria una sorta di trasparenza, che è uno dei principi fondamentali dell’interazione uomo-robot. Ciò significa che il sistema dovrebbe fornire il più possibile segnali molto espliciti su ciò che il sistema ha capito, su ciò che non ha capito, sul punto in cui si trova nell’esecuzione del compito, in modo che l’utente abbia il più possibile il controllo, perché senza informazioni non c’è controllo.

 

1/3: Qual è l'obiettivo principale dell'interazione uomo-macchina?

Provare prima a rispondere alla domanda e poi fare clic su "next" per vedere la nostra.

1/3: Qual è l'obiettivo principale dell'interazione uomo-macchina?

Creare buone interfacce tra un essere umano che desidera svolgere un determinato compito e una macchina in grado di eseguirlo.  

2/3: Quali sono gli esempi di interazione uomo-macchina?

Provare prima a rispondere alla domanda e poi fare clic su "next" per vedere la nostra.

2/3: Quali sono gli esempi di interazione uomo-macchina?

Un'interfaccia grafica utente, robot parlanti, interazione con le tecnologie.

3/3: Che qualità devono avere gli strumenti/dispositivi/sistemi/macchine?

Provare prima a rispondere alla domanda e poi fare clic su "next" per vedere la nostra.

3/3: Che qualità devono avere gli strumenti/dispositivi/sistemi/macchine?

sufficientemente intuitivi e trasparenti  

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Quale sarà l’evoluzione dell’interazione uomo-macchina e quali sono le tendenze emergenti? Beh, una tendenza importante è che la prima interazione uomo-macchina riguardava proprio l’adattamento dell’uomo ai vincoli dell’interfaccia con cui aveva a che fare. Negli anni ’70 c’erano macchine molto complete con un sacco di pulsanti e il punto era che l’uomo doveva imparare a usare l’interfaccia e l’interfaccia stessa non aveva alcun adattamento. Oggi la tendenza è quella di avere un’interfaccia che cerchi di adattarsi all’utente umano e di parlare la sua lingua. Ciò che mi interessa come ricerca sulla tecnologia del linguaggio è avere macchine che parlino una lingua e che siano in grado di interagire con il mezzo di comunicazione più intuitivo per noi esseri umani, ovvero il linguaggio naturale parlato, perché è quello che abbiamo passato per la maggior parte della nostra vita a parlare e ad ascoltare gli altri nel linguaggio parlato. È il più potente, perché possiamo esprimere idee e pensieri e fondamentalmente qualsiasi cosa in un modo completamente privo di sforzo, come sarebbe impossibile con un’interfaccia rigida in cui si deve cliccare su dei pulsanti. Ma naturalmente è anche difficile, perché il linguaggio naturale è ambiguo, vago, a volte contraddittorio e incerto. C’è sempre un sacco di interpretazione da fare per capirsi. Ma è tutto interessante perché avere una macchina che capisce il linguaggio parlato significa che è una macchina per la quale non è necessario alcun addestramento. Si sa come parlare la propria lingua madre ed è molto utile e facile da usare. E in alcuni casi, se si pensa ad esempio alla guida di un’auto o alla cucina, quando le mani sono nel bel mezzo della preparazione, è anche uno degli unici modi per avere un’interazione concreta con la macchina, perché non ci si può aspettare che l’utente di un’auto anonima passi il tempo a guardare lo schermo e a toccare i pulsanti. In molti casi, quindi, il futuro dell’interazione uomo-robot-macchina consiste nell’avere sistemi in grado di interagire con noi in un modo che ci è familiare, attraverso il linguaggio o un linguaggio visivo di facile comprensione. E come ultima domanda, lei ha già menzionato alcune delle opportunità e delle sfide. Può pensare ad altri effetti positivi e anche ad alcune sfide dell’interazione uomo-missione per la società? Beh, c’è sempre il pensiero specifico della tecnologia linguistica. C’è la sfida dell’accesso disuguale e delle risorse disuguali e questo va oltre l’interazione uomo-macchina. Ma un problema importante per molte delle tecnologie linguistiche odierne è, per esempio, che le lingue non hanno lo stesso grado di supporto, e questo fa una grande differenza se si parla l’inglese americano o se si parla una lingua africana remota che non ha accesso. Dove Google Translate non funziona, non si ha la possibilità di utilizzare la tecnologia in alcun modo. A volte non si ha nemmeno una tastiera sul cellulare per esprimersi nella propria lingua madre. E questa, in futuro, è una sfida importante. Per non parlare, ovviamente, dell’accesso alla tecnologia. Se non si ha un telefono, l’accesso è ancora più limitato. Ma tutto questo, come garantire che la tecnologia sia effettivamente in grado di fornire e utilizzare come un equalizzatore invece di creare disuguaglianze nel mondo, è una sfida importante.

 

Quiz question 1/8

Un’importante tendenza emergente del Machine learning è quella di avere macchine in grado di adattarsi agli utenti umani, parlando la loro lingua. Gli esseri umani passano la maggior parte del loro tempo a parlare e ad ascoltarsi in linguaggio parlato. Il futuro dell’interazione uomo-macchina consiste nell’avere sistemi in grado di interagire con noi in un modo familiare, attraverso il linguaggio o gli effetti visivi. La sfida della tecnologia linguistica è rappresentata dal diverso accesso alle tecnologie a seconda del paese e della lingua.


Quiz question 1/1

You have completed the Quiz!

Loading...

The learning unit has not been completed

You have successfully completed the learning unit.