IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 8

Tecnologie IA – IA ed etica

I frammenti di intervista che seguono sono stati rilasciati da Emanuela Girardi e riguardano lo sviluppo delle tecnologie di IA a diverse scale, le preoccupazioni della società e l’uso etico dell’IA, nonché le norme e i regolamenti della stessa.

transcript

Buongiorno. Oggi siamo in presenza della dottoressa Emanuela Girardi nella nostra intervista. Emanuela Girardi è la fondatrice di Pop-AI (Popular Artificial Intelligence), ed è membro del gruppo di esperti di Intelligenza Artificiale del Ministero per lo Sviluppo Economico,  che ha scritto la Strategia italiana per l’Intelligenza artificiale. E’ altresì  membro del direttivo della Associazione Italiana per Intelligenza Artificiale e dell’Industry Task Force di CLEAR (Confederation of Laboratories in AI Research in Europe), di cui è coordinatrice della task force su Intelligenza Artificiale e Covid 19. È anche membro del Board della AI Data and Robotics (ADRA), che è la nuova associazione europea che lavorerà con la Commissione europea per realizzare il programma Horizon 2020. E’ quindi una persona di estrema rilevanza ed estrema competenza che ci guiderà in questa mezz’oretta di intrattenimento su alcune cose interessanti nel campo dell’AI. La ringrazio ancora e passerei a farle alcune domande.

 

Quiz question 1/8

L’intervistata, Emanuela Girardi, è la fondatrice di Pop Ai, che significa Popular Artificial Intelligence e che fa parte del gruppo di esperti di IA del Ministero dello Sviluppo Economico. È anche coordinatrice della task force su IA e Covid19 e membro del board su IA, dati e robotica.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Cominciamo con la domanda più di base. Vista la tua esperienza Emanuela, quali sono a tua conoscenza le strategie globali nel settore dell’intelligenza artificiale? Qual è il contesto? Quali sono i modelli internazionali? Sento parlare in particolare in America. Qual è Il contesto internazionale?

Sì, grazie Fulvio e buongiorno a tutti. Sicuramente in questo momento diciamo che le tecnologie di intelligenza artificiale sono considerate un pò come una tecnologia strategica per lo sviluppo delle società del futuro. E vari Stati sono un pò partiti alla rincorsa dell’intelligenza artificiale e quindi hanno investito tantissime risorse e soprattutto hanno sviluppato una strategia nazionale per l’intelligenza artificiale. Al momento ci sono circa 50 strategie nazionali di intelligenza artificiale in tutto il mondo e qualcuna è in via di sviluppo, quindi verrà pubblicata nei prossimi anni o comunque quest’anno. Qquindi tutti gli Stati, appunto, hanno considerato queste tecnologie come veramente strategiche per l’aspetto dirompente che ha sulla società, già oggi, sulla nostra vita di tutti i giorni e che avrà sempre più sulla nostra vita del futuro. In particolare, però, diciamo che nonostante ci siano 50 strategie diverse già a livello mondiale, oggi si può parlare fondamentalmente di due-tre modelli di sviluppo per l’intelligenza artificiale a livello globale, che sono il modello americano, il modello cinese e in mezzo si è inserito di recente il modello europeo. Per quanto riguarda i modelli americano e cinese, a una prima analisi sembrano molto diversi, ma restano delle grandi similitudini perché in entrambi i modelli, in realtà lo sviluppo delle tecnologie e l’indirizzo dello sviluppo delle tecnologie di intelligenza artificiale è guidato da grandi gruppi privati, che sono tra l’altro presenti in in tutto il mondo, quindi non solo in Cina, Stati Uniti ma in tutto il mondo. Le due grandi differenze tra questi gruppi sono che mentre in Cina abbiamo una tendenza a un controllo governo centrico di queste tecnologie, negli Stati Uniti c’è una sorta di tendenza invece verso la deregulation, quindi una sorta di mancanza di regolamentazione di queste tecnologie. L’Europa è partita un po in ritardo per quanto riguarda gli investimenti nello sviluppo e nell’adozione di queste tecnologie e in particolare è partita nel 2016 con un accordo nel 2018 sposato con un accordo di cooperazione tra tutti gli Stati membri per lo sviluppo di un piano coordinato per lo sviluppo delle tecnologie di intelligenza artificiale. Partendo un po in ritardo, ha deciso però di focalizzarsi sulla visione etica e quindi su, in primis, la definizione di linee guida etiche per lo sviluppo delle tecnologie di intelligenza artificiale. E da questo gruppo di ricerca che hanno convocato per la Commissione europea è nata quella che è la visione europea dell’intelligenza artificiale, che è una visione che viene definita umano-centrica, cioè che mette al centro l’uomo che promuove l’utilizzo di tecnologie di intelligenza artificiale per migliorare la vita delle persone. Il secondo aspetto, invece, è che promuove l’utilizzo di tecnologie Trustworthy, cioè affidabili. Ma perché ‘affidabili’? Questo è un pò il cuore della visione europea. Affidabili perché se noi pensiamo a una definizione molto semplificata di tecnologie di intelligenza artificiale, dove e con le quali si possono identificare dei sistemi che analizzano l’ambiente circostante, cioè raccolgono dei dati per raggiungere un determinato obiettivo, questo lo fanno in modo autonomo e manifestando un comportamento che, se fosse svolto da un essere umano, noi potremmo definire come un comportamento intelligente. Ora, affinché, quando raggiungono questo obiettivo, cioè compiere una qualche azione che viene definita dell’essere umano, l’essere umano accetti l’esito di questa azione o di questa decisione che viene presa da un sistema autonomo e quindi si fidi sia di utilizzare questi sistemi e sia delle azioni o delle decisioni che vengono prese da questi sistemi, questi devono essere affidabili. E cosa vuol dire affidabili? Diciamo che per quanto riguarda la versione e la definizione europea di tecnologie affidabili vuol dire tre cose. Fondamentalmente vuol dire che (i) devono rispettare le leggi europee e (ii) devono rispettare quelli che sono i valori etici che sono compresi nella Carta europea dei diritti e poi (iii) devono essere sicure da un punto di vista della robustezza tecnica, non devono nuocere alle persone. Quindi, se questi sistemi soddisfano i tre requisiti che vengono richiesti,allora la Commissione europea dice che si possono utilizzare e che possono essere sviluppati e utilizzati all’interno della Comunità Europea. Poi la Commissione europea è andata avanti e ha sviluppato una serie di documenti importanti, un libro bianco, una strategia europea per i dati, ma in realtà il documento al momento più controverso ma anche più importante è quello che è stato presentato ad aprile 2021 ed è il cosiddetto AI Act , cioè un insieme di documenti che sono la prima proposta al mondo per regolamentare l’utilizzo dei sistemi di intelligenza artificiale. E questo documento è molto importante perché innanzitutto utilizza un approccio basato sui rischi, cioè divide tutti i sistemi di intelligenza artificiale in quattro categorie in base al rischio. Il primo rischio è considerato quello inaccettabile, quindi sono i sistemi che vengono proibiti all’interno della Comunità europea. Poi ci sono dei sistemi ad alto rischio, medio rischio o basso rischio. Per quanto riguarda i sistemi ad alto e medio rischio, vengono definite tutta una serie di requisiti, le cosiddette assessment list, cioè delle una serie di requisiti o di certificazioni che questi sistemi dovranno avere per poter essere utilizzati all’interno del mercato unico della Comunità Europea. Quindi questi aspetti sono molto importanti, e al momento c’è molto dibattito su questa proposta di regolamentazione, perché da una parte si dice che l’obiettivo della Commissione Europea è di favorire lo sviluppo e l’utilizzo delle tecnologie di intelligenza artificiale, che in un qualche modo e sicuramente tutelino le persone /  cittadini europei, ma allo stesso tempo che ci sia una sorta di certezza di diritto per le aziende per poter sviluppare questi sistemi in un ambiente sicuro dal punto di vista anche legislativo, e per non avere quindi rischi nel momento in cui introducono delle tecnologie di intelligenza artificiale nei loro prodotti e servizi, nella loro offerta di mercato. Chiaramente il limite maggiore che in questo momento viene discusso è quello che un eccesso di regolamentazione potrebbe in qualche modo limitare l’innovazione. E questo soprattutto se consideriamo i due sistemi di cui abbiamo parlato prima, quello cinese e quello americano, dove in realtà c’è molta meno regolamentazione, soprattutto quello americano, rispetto al mercato europeo che stiamo cercando di creare. E quindi è molto difficile, da una parte bilanciare la necessità di regolamentare questi sistemi che se vengono utilizzati in modo malevolo possono effettivamente causare dei danni, e dall’altra però cercare anche di favorire lo sviluppo dell’innovazione europea e di far sì che ci sia anche uno sviluppo vero e proprio di tecnologie di intelligenza artificiale — ma non solo di intelligenza artificiale, anche in realtà di tutte le tecnologie a supporto. Quindi penso a blockchain, penso a tecnologie di cloud, penso ai performance computing perché in realtà è molto importante che anche a livello europeo si possano sviluppare queste tecnologie e che quindi si realizzi quella che viene definita nel piano coordinato la sovranità tecnologica europea. Pensiamo anche, per esempio, al progetto Gaia X, che mira anche allo stesso obiettivo, e quindi quello proprio di realizzare una sorta di sovranità tecnologica europea.

Quiz question 1/8

No
 

Le tecnologie IA sono strategiche per lo sviluppo della società in futuro.


Solo poche risorse sono state investite nel campo dell'IA.


Al momento esistono circa 150 strategie nazionali di IA in tutto il mondo.


Tutti i paesi considerano le tecnologie dell'IA come strategiche e significative per la società odierna e che diventeranno ancora più rilevanti in futuro.


A livello globale, possiamo dire che esistono due o tre modelli per lo sviluppo delle tecnologie di IA: il modello americano, il modello cinese e, in mezzo, il modello europeo.


Il modello americano di IA e quello cinese sono molto diversi tra loro.


Per quanto riguarda gli investimenti nello sviluppo delle tecnologie IA, l'Europa è molto avanti rispetto al resto del mondo.



Quiz question 1/1

You have completed the Quiz!

Loading...

Quiz question 1/8

  1. Su cosa si sono accordati tutti gli Stati membri dell’UE nel 2018? Un piano coordinato per lo sviluppo delle tecnologie IA.
  2. Su cosa ha deciso di concentrarsi l’Europa? Su una visione etica dell’IA.
  3. Su cosa si basa e si concentra la visione europea? Sugli esseri umani.
  4. Cosa significa una tecnologia di IA affidabile da un punto di vista etico? Deve rispettare le leggi europee, rispettare i valori etici europei ed essere affidabile, ad esempio sicura dal punto di vista tecnico.
  5. Quali documenti ha pubblicato la Commissione europea sulla regolamentazione dell’IA? Un libro bianco, una strategia europea sui dati.
  6. Qual è il documento più importante e controverso proposto nell’aprile 2021 dalla Commissione europea per regolamentare l’uso dei sistemi di IA? La legge sull’IA
  7. A cosa devono conformarsi i sistemi di IA ad alto e medio rischio per poter essere utilizzati all’interno della comunità europea? a una serie di requisiti e certificazioni.
  8. A cosa potrebbe portare un eccesso di regolamenti? Limitare l’innovazione
  9. Tra il mercato americano e quello europeo, quale è più regolamentato? Quello europeo.

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Quindi se capisco bene, al di là del modello americano e di quello cinese, che con aspetti diversi comunque vanno in una direzione un pò diversa da quella nostra, che è più appunto umano-centrica, parlo della Commissione europea, e “trustworthy”, come hai detto. Poi dopo parleremo magari anche di cosa accade in Italia, se capisco sempre bene il AI Act di cui parli, quello del 21 Aprile, ha messo vari livelli di rischi. C’è qualcosa che ci vuoi dire in fretta, diciamo quali sono i punti rilevanti oltre al discorso della classificazione di  rischio della proposta europea, ci sono degli aspetti? Ho sentito parlare di 32 casi in cui si può intervenire soggetti al fatto che ci fossero degli ordini di cattura. Allora c’è tutto un discorso, cioè c’è qualcosa che si può dire in fretta su quali sono i punti essenziali della proposta europea?

Sì, in realtà quello che posso dirvi per quanto riguarda i rischi sono gli aspetti considerati dei sistemi di intelligenza artificiale il cui rischio è considerato inaccettabile, per esempio il social scoring, il controllo biometrico a distanza delle masse o i sistemi che possono in qualche modo influenzare o manipolare il comportamento delle persone, soprattutto delle persone vulnerabili. Questi sono considerati inaccettabili e quindi sono proibiti al momento all’interno dell Comunità europea. Per quanto riguarda invece i sistemi ad alto rischio, secondo me al momento ci sono degli aspetti ancora da chiarire perché si parla di conformity assessment, quindi con questa lista di tutta una serie di criteri che dovranno essere soddisfatti per poter essere introdotti e utilizzati all’interno della Comunità europea. Ma il il problema è che si parla anche di una certificazione europea, ma in questo momento non è molto chiaro. Dobbiamo tra l’altro tener presente che la catena del valore dei sistemi di intelligenza artificiale è estremamente complessa. Perché va, per esempio, se pensiamo allo sviluppo di un algoritmo di intelligenza artificiale, da chi raccoglie i dati, da chi fa l’addestramento, da chi sviluppa l’algoritmo, da chi poi lo utilizza nei propri sistemi all’interno della propria azienda, lo immette nel mercato e poi magari viene cambiato il dataset, è necessario un riaggiornamento e quindi potrebbe cambiare il sistema e in questo caso bisogna monitorare tutto attraverso l’uso. Si parla proprio di Life cicle, dell’intero ciclo di vita del sistema di intelligenza artificiale, e quindi fa sì che tutti i vari attori della filiera rimangano costantemente collegati e che costantemente monitorino l’utilizzo del sistema di intelligenza artificiale che hanno sviluppato, addestrato e immesso nel mercato. Quindi questi aspetti ancora non sono ben chiariti perché proprio c’è un aspetto secondo me di filiera che è molto complesso.

Un altro aspetto complesso riguarda il fatto che al momento i sistemi ad alto rischio sono definiti non in modo chiarissimo, anche se sono comunque definiti nell’annex 3. Però un’altro aspetto riguarda il fatto che la Commissione europea al momento si è, diciamo, attribuita al diritto di poter cambiare questa lista e quindi aggiungendo dei nuovi sistemi, cosa che è abbastanza controversa perché normalmente ci dovrebbe sempre essere una divisione tra il potere legislativo e il potere esecutivo, quindi in realtà ci sono già tante discussioni a tale proposito, dicendo che non è la Commissione europea che ha il potere di cambiare un annesso ad una legge. E quindi questi aspetti sono sono abbastanza controversi, per esempio leggevo l’altro giorno che le i vari CEN, CENELEC e tutti diciamo gli Standardizatation Body hanno chiesto perché.

C’è anche un aspetto molto interessante per quanto riguarda proprio la definizione degli standard di AI, che al momento mancano ancora a livello europeo e quindi tutti i vari standardization Body ci stanno lavorando. È uno dei feedback che hanno richiesto perché in questi giorni tutti stanno scrivendo dei feedback alla Commissione europea. Il 6 agosto 2021 era il giorno ultimo per poter sottomettere dei feedback. Una proposta di regolamentazione è uno dei feedback, che è proprio quello di cancellare l’articolo 41, cioè il fatto che la Commissione europea possa variare, diciamo più o meno a suo piacimento, non è esattamente così, ma possa variare discrezionalmente questa lista di di sistemi. Quindi questi sono alcuni dei diciamo elementi più contrastanti.

Un altro elemento molto contrastante riguarda la definizione AI, perchè è una definizione molto molto ampia perché in realtà dovrebbe essere, diciamo, orientata al futuro e future proof. Però dall’altro punto di vista al momento vengono considerati come AI systems anche dei sistemi che insomma non lo sono, tipo I sistemi di statistica avanzata, di regressione lineare, … che quindi rendono diciamo molto più complesso l’utilizzo di questi sistemi che probabilmente, a oggi, non sono di intelligenza artificiale, quindi ci sono tantissimi aspetti di discussione. Io credo che che ci vorranno due o tre anni prima che venga applicato questo regolamento in tutti gli Stati membri.

Quiz question 1/8

  1. Quali sono i rischi inaccettabili legati ai sistemi di IA all’interno della comunità europea? la marcatura sociale, il controllo della massa, il controllo per influenzare e manipolare il comportamento degli europei
  2. Per quanto riguarda i sistemi di IA ad alto rischio, come vengono definiti i requisiti e i criteri da valutare? Valutazioni di conformità
  3. Com’è la catena del valore dei sistemi di IA? Estremamente complessa.
  4. A cosa si riferisce il monitoraggio dei sistemi di IA? Al ciclo di vita dei sistemi di IA.

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Grazie per le tue considerazioni che in gran parte coincidono anche con alcuni dubbi che avevo io. Mi sembra di capire comunque che la cosa essenziale che noi abbiamo più di altri è proprio il concetto dell’umano-centrico, giusto? Il famoso “human in the loop”, che molti dicono “on the loop”, giustamente, cioè alla fine ci deve essere un “umano”, e io sono molto preoccupato personalmente di quello che la Commissione europea ha detto esplicitamente che non può trattare, che sono i discorsi militari, e lì entriamo in discorsi che che già trattiamo in altri interviste e molto preoccupanti, perché lì non c’è l’Human In the loop. Però questo è un discorso che non c’entra con le nostre cose, è solo una riflessione tra tra noi che ci occupiamo di queste cose.

Benissimo, quindi abbiamo visto un pò il mondo e l’Europa. E l’Italia a che punto sta? Tra l’altro in Italia, come anche nel resto d’Europa, ma da noi in particolare, ultimamente c’è anche il termine della “sostenibilità”, di cui ormai parliamo sempre. Ecco, qual è in Italia, qual è l’approccio, la strategia italiana e il nostro approccio, diciamo alla Sostenibilità e all’importanza di usare l’intelligenza artificiale e di investire in sistemi intelligenza artificiale?

Allora l’Italia ha Sviluppato diverse strategie. Al momento io ho partecipato ai lavori che hanno portato allo sviluppo della strategia di intelligenza artificiale promosso dal Ministero dello Sviluppo Economico (MISE). In realtà poi ci sono state altre due iniziative, quindi in realtà abbiamo sviluppato tante strategie, ma al momento non ne abbiamo ancora pubblicata neanche una. Adesso la notizia degli ultimi giorni, senza nessuna polemica, però, è che un gruppo composto da tre ministeri ha creato una nuova Task force che deve rianalizzare il documento che abbiamo scritto noi al MISE e spero, questa volta veramente, di proporre la fase invece di execution, cioè di realizzare veramente la strategia, di portarla in esecuzione che è  la cosa fondamentale. Quindi speriamo veramente che questa sia la la svolta anche per l’Italia, è un peccato perché in Italia abbiamo tantissime eccellenze, secondo me, soprattutto per quanto riguarda diciamo la la ricerca e lo sviluppo dell’intelligenza artificiale, però purtroppo manca il momento un pò di visione strategica, di quelle che potrebbero essere le applicazioni e gli utilizzi, gli sviluppi dell’intelligenza Artificiale applicata nei vari campi della società.

Per quanto riguarda invece la proposta di strategia italiana che abbiamo fatto è fondata su tre pilastri, diciamo. Il primo era l’AI per l’essere umano, quindi assolutamente in linea con questa visione europea umano-centrica, la seconda è l’AI per uno sviluppo produttivo sostenibile e di eccellenza, e questa è molto nella visione del documento europeo, il White Paper, il Libro bianco sull’intelligenza artificiale che è stato presentato a Febbraio 2021 e che promuove proprio la creazione di un sistema di eccellenza e di fiducia a livello europeo per promuovere lo sviluppo delle tecnologie di intelligenza artificiale e quindi investire in educazione per portare le tecnologie intelligenza artificiale nelle aziende, nelle scuole, nella società. E l’ultimo punto, invece, è il punto che secondo me il più importante ed è anche il più innovativo per quanto riguarda la strategia italiana di intelligenza artificiale, ed è l’AI per la sostenibilità, cioè quello che abbiamo proposto noi è che serve proprio un cambio di paradigma, nel senso che abbiamo detto non è più sufficiente mettere solo al centro l’uomo perché l’uomo, in realtà, vive nel pianeta e all’interno dell’ecosistema. E quindi dire che utilizziamo le tecnologie solo per migliorare la vita dell’uomo non basta più e abbiamo quindi proposto l’utilizzo delle tecnologie di intelligenza artificiale per realizzare quelli che sono gli obiettivi di sviluppo sostenibile dell’Agenda 2030 delle Nazioni Unite. E quindi proprio proponendo di cambiare un pò il paradigma e proponendo questo aspetto di AI per la sostenibilità, questo approccio, diciamo chiamiamolo “pianeta-centrico” se vuoi, e quindi questa visione è molto innovativa al momento. In realtà è stata adottata poi anche dall’OECD, dalle Nazioni Unite e credo sia anche stata inserita in realtà nell’ultimo piano coordinato della Commissione europea, e credo che sia probabilmente l’unica visione possibile, anche perché se ci sono 156 Stati che hanno deciso che l’Agenda 2030 delle Nazioni Unite è  la Agenda, come sono gli obiettivi che, anche se pensiamo che 2030 è praticamente domani, sono gli obiettivi maggiormente condivisi che ci sono oggi a livello europeo, allora a questo punto, secondo me, cioè definiti gli obiettivi, come dicevamo prima, la definizione di intelligenza artificiale sono dei sistemi che in qualche modo autonomo ci permettono di raggiungere alcuni obiettivi.

Se noi abbiamo ben chiari gli obiettivi che vogliamo raggiungere, a questo punto, anche se sono obiettivi complessi, possiamo utilizzare queste tecnologie per raggiungerli. E quindi noi abbiamo analizzato poi per alcuni SDG (Sustainable Development Goals) come utilizzare le tecnologie per raggiungerli. In particolare già oggi un aspetto diciamo molto importante, abbiamo cercato di dedicarlo a quello di cercare di aumentare l’inclusione e l’accessibilità delle persone con disabilità. E proprio questo grazie all’utilizzo delle tecnologie di intelligenza artificiale, e quindi questi aspetti sono molto importanti, ma sono anche molto importanti per poi aiutarci a contrastare quelli che sono i cambiamenti climatici o come migliorare quelli che sono gli impatti sull’ambiente. Per esempio, a tale proposito c’è un progetto molto interessante che è appena stato promosso dalla Commissione europea che si chiama “Destination Earth”, e che ha creato un gemello digitale della terra e che permette proprio di monitorare e valutare quelli che sono i cambiamenti climatici, gli effetti dei cambiamenti climatici e di poter testare, diciamo, su questo gemello digitale della terra, le nuove politiche ambientali che si vogliono sviluppare utilizzando chiaramente anche le tecnologie di intelligenza artificiale. Questo anche per promuovere una ottimizzazione e razionalizzazione delle risorse scarse che ci sono sulla terra.

Quiz question 1/8

L’Italia sta sviluppando diverse strategie relative alla diffusione delle tecnologie di IA, ma non sono ancora state pubblicate. La proposta italiana di strategie si basa su tre pilastri: IA per l’essere umano, che fa riferimento alla visione europea incentrata sull’uomo, IA per lo sviluppo produttivo e sostenibile (ad esempio nelle aziende, nelle scuole, nell’istruzione e nella società) e IA per la sostenibilità. La Commissione europea ha recentemente promosso un progetto molto interessante chiamato “Destination Earth”, in cui è stata creata una simulazione digitale della Terra con un digital twin che verrà utilizzato per comprendere, monitorare e valutare meglio gli effetti del cambiamento climatico e dei disastri ambientali e per testare le nuove politiche ambientali su questo gemello digitale utilizzando le tecnologie di IA.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Ottimo, ottimo e senza senza parlare del neonato Istituto per intelligenza artificiale a Torino e che comunque ha avuto un primo finanziamento, mi sbaglio?

No, no, purtroppo ti sbagli. In realtà è andata un pò diversamente, nel senso che si, doveva esseredestinato a Torino ma è un pò incerto, dato che in realtà purtroppo questa decisione che era stata presa dal governo precedente non ha poi avuto seguito e quindi, dopo varie discussioni, quello che si è deciso di fare è un centro per la ricerca e lo sviluppo dell’automotive che avrà sede a Torino e che utilizzerà anche le tecnologie di intelligenza artificiale, con un finanziamento, se mi ricordo bene, di 20 milioni. Quindi, in questa fase è stato messo, diciamo on hold l’Istituto italiano per l’intelligenza artificiale, cosa che secondo me è un gran peccato perché perché quello avrebbe permesso anche all’Italia di partecipare ai vari tavoli internazionali, diciamo con un cappello istituzionale perché oggi purtroppo l’Italia ha tanti tavoli internazionali, è rappresentata solo dai singoli che sono le eccellenze, ma non a livello diciamo istituzionale, quindi, diciamo, è un’occasione mancata questa.

Speriamo che questa nuova task force riesca a riproporlo. .

Diciamo che è una vittoria a metà, vediamola in positivo. E allora,abbiamo visto Mondo Europa, Italia. Adesso  quindi, per finire, c’è molto bisogno di formazione, ovviamente, perché tutti parlano di intelligenza artificiale, quella cosa che non si capisce mai bene cos’è se uno non ci entra un pò in dettaglio, quindi credo che siamo d’accordo che la formazione è determinante per capire cosa siano queste tecnologie e come utilizzarle in modo sicuro. C’è il rischio che senza una formazione adeguata – parlo a questo punto proprio di noi sistema Italia, visto che siamo nell’ambito di questo progetto di formazione per gli adulti all’intelligenza artificiale – ci sia una sorta di digital divide, come dire, nel settore delle AI rispetto agli altri? Ecco come la vedi tu, qual è l’importanza e cosa vedi le cose importanti che andrebbero fatte appunto per insegnare bene e meglio le potenzialità, pro e contro, rischi e quant’altro, dell’intelligenza artificiale?

Allora, secondo me questo è l’aspetto chiave e più importante. Pensa che all’inizio parlavamo di oltre 50 paesi che hanno già definito la loro strategia nazionale di intelligenza artificiale. Pensa che ci sono paesi come la Finlandia che hanno messo come priorità numero 1 della loro strategia di intelligenza artificiale la formazione, l’educazione dei propri cittadini alle tecnologie di intelligenza artificiale, quindi è veramente un aspetto chiave. E tra l’altro anche la Cina sta investendo tantissimo proprio in formazione dei propri cittadini, perché ha capito che questa, diciamo, è la chiave per poter partecipare poi attivamente alla società del futuro. Quindi secondo me è proprio l’aspetto fondamentale. È questo perché se noi pensiamo, per esempio, diciamo a noi come lavoratori o come cittadini o come studenti, allora se ci mettiamo il cappello dei lavoratori, i lavori del futuro richiederanno sicuramente la capacità di utilizzare le tecnologie di intelligenza artificiale e quindi questo aspetto è fondamentale, quindi è necessaria un’attività di formazione di  training, o diciamo di Up Skilling, quindi per imparare diciamo le nuove mansioni oppure di re-training, cioè reskilling, quindi imparare proprio i nuovi lavori. E questo è, secondo me è un aspetto chiave, perché se noi pensiamo a un’azienda che sta introducendo, in questo momento, magari dei sistemi di automazione robotica dei processi e che quindi libera in qualche modo delle risorse perché erano delle attività che venivano delle mansioni che venivano svolte dalle persone che adesso vengono svolte da sistemi automatici e quindi questo tempo che viene liberato, queste risorse liberate dovrebbero, a mio avviso, essere assolutamente reinvestite per fare formazione per i dipendenti. Questo aspetto è anche importante dal punto di vista economico, perché significa anche un ridistribuire quelli che sono i benefici anche economici dell’introduzione di sistemi di automazione nelle aziende e quindi è anche una redistribuzione, diciamo di quelli che sono gli effetti benefici tra i vari stakeholders e quindi investire nella formazione che dovrebbe a mio avviso diventare proprio un diritto di di tutti i lavoratori.

L’altro aspetto invece è che su queste cose qui è importante veramente apprendere quelle che sono, diciamo, le skill digitali non solo più di base, ma avanzate, per poter conoscere cosa sono le tecnologie intelligenza artificiale e per poterle utilizzare per il proprio lavoro, perché tutti i lavori comunque utilizzeranno anche questetecnologie. A tale proposito molto interessante è per esempio un approccio che riguarda più, diciamo, la formazione, cioè l’educazione, quindi la scuola, un progetto molto bello che hanno sviluppato al MIT di Boston assieme a un progetto finanziato da Schwartzman, che è il private equity fondato proprio dal signor Schwartzman, e ha finanziato questo college che si chiama lo Schwartzman College, che è una sorta di scuola bilingue, cioè qualsiasi cosa si decida di studiare, non so, filosofia, antropologia, medicina, legge, … si studia insieme a scienze computazionali e a intelligenza artificiale, e questo perché l’idea è che tutti in futuro avranno bisogno comunque di una solida base di Scienze computazionali e di capacità di utilizzare le tecnologie di intelligenza artificiale. Dovrebbe essere inserito anche proprio nella nostra scuola, quindi veramente fin da quando siamo bambini, cioè la scuola elementare, dovrebbero essere inserite come obbligatorie queste materie che in teoria ci sono già, in realtà purtroppo non vengono fatte in modo così, diciamo, approfondito. E quindi fondamentale, forse la cosa ancora più importante, è la formazione dei formatori, quindi anche il progetto che state portando avanti voi secondo me è molto importante perché serve prima a fare la formazione dei formatori in modo che poi possano chiaramente andare a insegnare queste materie. Quindi nelle scuole è importantissimo, perché se noi pensiamo, non so, ai medici che sono oggi per esempio negli ospedali e non sono in grado probabilmente di utilizzare quelli che sono i nuovi sistemi di intelligenza artificiale e neanche quando usciranno, cioè scusa i medici che sono oggi, diciamo all’università, che non stanno studiando queste tecnologie, quando andranno a lavorare negli ospedali non saranno in grado di utilizzarle e noi abbiamo visto quanto sono state utili queste tecnologie durante la pandemia da Covid 19. Quindi, se riuscissimo a formarli veramente per poter utilizzare queste tecnologie, potrebbe essere veramente uno strumento molto utile allo svolgimento del loro lavoro. E poi c’è l’altro aspetto da considerare, che i lavori del futuro saranno diversi, cioè il medico di oggi sarà molto diverso dal medico di domani e quindi devono proprio cambiare anche proprio l’approccio sia a imparare a usare queste tecnologie sia avere una mentalità, una forma mentis più fluida, più aperta per poter affrontare anche nuovi lavori che oggi probabilmente non ci sono ancora e che cambieranno moltissimo nei loro contenuti.

Quiz question 1/8

Vero o falso? In Italia l'istruzione e la formazione in materia di tecnologie IA sono la priorità assoluta.




Quiz question 1/8

Vero o falso? 2) Le risorse liberate grazie ai sistemi di IA dovrebbero essere reinvestite e ridistribuite nella formazione, nell'aggiornamento e nella riqualificazione dei lavoratori, degli studenti e dei cittadini.




Quiz question 1/8

Vero o falso? Tutti i lavoratori dovrebbero avere il diritto di trarre profitto dalla ridistribuzione delle risorse risparmiate grazie all'IA.




Quiz question 1/8

Vero o falso? In futuro i lavoratori non dovranno essere in grado di comprendere e utilizzare le tecnologie di IA.




Quiz question 1/8

Vero o falso? A Boston è stato realizzato un progetto molto interessante: Si chiama "MIT Schwarzman College of Computing" ed è un college bilingue in cui gli studenti studiano due materie: una a scelta (come medicina, legge ecc.) e le scienze informatiche e l'IA, perché tutti avranno bisogno di queste conoscenze in futuro.




Quiz question 1/8

Vero o falso? Le scienze informatiche e l'IA dovrebbero essere integrate anche a scuola.




Quiz question 1/1

You have completed the Quiz!

Loading...

The learning unit has not been completed

You have successfully completed the learning unit.