IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 6

IA e sfide sociali

I seguenti frammenti di intervista sono stati rilasciati da Simon Delakorda e riguardano l’impatto sociale dell’IA con esempi di vita quotidiana, le sfide sociali dell’apprendimento automatico e il ruolo delle istituzioni nel campo delle normative sull’IA.

transcript

Salve a tutti. Mi chiamo Simon Delakorda. Sono il direttore dell’Istituto per la partecipazione elettronica di Lubiana, Slovenia. L’Istituto per la partecipazione elettronica è un’organizzazione non governativa che opera nel campo della società dell’informazione, dello sviluppo e della digitalizzazione. Ci occupiamo anche di questioni legate all’intelligenza artificiale. Ad esempio, l’anno scorso abbiamo realizzato un dialogo con i cittadini che ha riguardato anche le questioni attuali legate allo sviluppo dell’intelligenza artificiale. Il modo in cui questa tecnologia si rapporta alla vita quotidiana dei cittadini.

Quiz question 1/8

L’intervistato, Simon Delakorda, è il direttore dell’Istituto per la partecipazione elettronica di Lubiana, un’organizzazione no-profit che si occupa dello sviluppo della società dell’informazione. All’Istituto lavorano anche nel campo della digitalizzazione e si occupano del problema di intelligenza artificiale.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Allora, partendo dalla mia prima domanda, cos’è l’intelligenza artificiale e come si relaziona con la società? Di solito l’intelligenza artificiale viene descritta come una tecnica che permette a un sistema computazionale di imitare qualsiasi tipo di intelligenza. Forse suona un po’ tecnico, ma fondamentalmente significa che una macchina è in grado di risolvere un problema specifico. Alcuni si riferiscono all’intelligenza artificiale come a un approccio tecnico, altri la definiscono come una combinazione di software, hardware e dati. In ogni caso, l’intelligenza artificiale è un compromesso tra vari strumenti e metodi. Per questo motivo è anche molto difficile identificare l’intelligenza artificiale. Al momento abbiamo queste definizioni ampiamente accettate perché, francamente, non sappiamo ancora cosa sia effettivamente l’intelligenza umana e come definirla correttamente. Potete quindi immaginare che abbiamo questo problema anche con l’intelligenza artificiale. Ma per passare direttamente alla nostra esperienza senza applicazioni di intelligenza artificiale nella vita di tutti i giorni, possiamo vedere già oggi che esiste un gran numero di applicazioni diverse che offrono un enorme supporto e contribuiscono a rendere la nostra vita più facile. Ad esempio, gli esempi più tipici di utilizzo dell’intelligenza artificiale nella società sono il riconoscimento vocale. Molti di voi probabilmente conoscono la teoria di Apple o Alexa di Amazon, che includono sistemi intelligenti e sono in realtà sistemi di intelligenza artificiale che riconoscono gli input vocali e, sulla base di questi input vocali, forniscono diversi servizi o commenti per implementare diverse attività. Il prossimo esempio di utilizzo dell’intelligenza artificiale nella società, oggi piuttosto comune, è la personalizzazione. Ad esempio, quando navighiamo su piattaforme di social media o servizi online, come Netflix o Amazon, questi servizi web utilizzano sistemi di intelligenza artificiale in background che personalizzano i contenuti e li presentano in base alle nostre abitudini o esigenze di navigazione. Ad esempio, se si sta cercando un particolare contenuto o un prodotto, in base alla cronologia o al comportamento di ricerca dell’utente, queste applicazioni forniscono il contenuto più adatto ai suoi interessi e glielo consigliano. Il terzo esempio di utilizzo dell’intelligenza artificiale nella vita quotidiana, anch’esso molto utile per me, è il filtraggio delle e-mail. Sappiamo tutti che ci sono molte e-mail di spam che arrivano nella nostra casella di posta elettronica principale e possiamo usare programmi di intelligenza artificiale in grado di distinguere tra le e-mail reali e quelle pertinenti e le e-mail di spam nelle vostre cartelle di posta elettronica. Inoltre, un’applicazione dell’intelligenza artificiale che viene spesso utilizzata oggi è anche nel settore sanitario, ad esempio nella diagnostica clinica. In medicina l’intelligenza artificiale è sempre più utilizzata per supportare il lavoro dei medici nella diagnosi. In questi casi, però, stiamo parlando di un’intelligenza artificiale ristretta, perché si tratta di casi in grado di risolvere problemi molto ben definiti e in qualche modo ristretti, problemi pratici. Ma anche quando parliamo di intelligenza artificiale. Possiamo anche parlare di intelligenza artificiale generale, che si riferisce al sistema in grado di eseguire qualsiasi compito intelligente che l’uomo sarà in grado di eseguire. Naturalmente, questo non è ancora una realtà. Ci sono alcune previsioni per il futuro secondo cui forse anche l’intelligenza artificiale sarà in grado di risolvere compiti più complessi e più grandi che al momento sono legati solo all’intelligenza di tipo umano. Per concludere questa introduzione iniziale sull’intelligenza artificiale nella società, possiamo vedere che ci sono molte applicazioni dell’intelligenza artificiale. Alcune di esse sono incredibilmente positive, hanno un impatto sulla società, sugli individui e sulla società e portano anche grandi opportunità. Tuttavia, dobbiamo anche essere consapevoli che l’intelligenza artificiale può anche discriminare e svantaggiare alcuni gruppi di persone. Per questo motivo è molto importante capire il rapporto tra intelligenza artificiale e società, soprattutto in termini di responsabilità, trasparenza di parte, qualità dei dati e altri problemi etici derivanti dall’uso dell’intelligenza artificiale.

 

Quiz question 1/8

  1. Cosa può fare una macchina dotata di intelligenza artificiale? Risolvere un problema specifico.
  2. Conosciamo la definizione esatta di IA? No, non la conosciamo.
  3. Che tipo di risultati otteniamo con l’aiuto dell’IA quando usiamo un browser? Personalizzati.
  4. Cosa fa l’IA con le e-mail rilevanti e di spam nei servizi di posta elettronica online? Le filtra.
  5. Quali tipi di problemi risolve l’IA ristretta? Problemi molto ben definiti.
  6. Che tipo di compito può svolgere un’IA generale? Compiti di intelligenza umana.
  7. In futuro l’IA potrebbe risolvere problemi più complessi di quelli che può risolvere un essere umano? Sì.
  8. Quali possono essere le conseguenze negative dell’IA nella società? La discriminazione nei casi in cui i pregiudizi umani vengono trasferiti negli algoritmi di un sistema di IA.

Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Il prossimo punto di vista o problema relativo all’intelligenza artificiale su cui vorrei concentrarmi è quello delle sfide sociali dell’apprendimento automatico. Prima di tutto, cos’è l’apprendimento automatico? L’apprendimento automatico si riferisce ad algoritmi e tecniche che imparano da soli, confrontandosi con dati, osservazioni e interazioni con il mondo circostante. Fondamentalmente, l’apprendimento automatico riguarda gli algoritmi. Si basa sugli algoritmi e gli algoritmi sono semplicemente delle istruzioni su come risolvere dei compiti. Ora, quando si mettono in relazione gli algoritmi con l’apprendimento automatico significa che un particolare tipo di algoritmo può essere appreso, ma non dai programmatori umani, bensì da loro stessi. In altre parole, l’apprendimento automatico è un apprendimento autonomo che si avvale di un approccio statistico. Di solito l’apprendimento automatico si articola in due fasi. La prima fase è quella in cui gli algoritmi di apprendimento automatico vengono addestrati utilizzando i dati, utilizzando il processo di addestramento. Il risultato di questo processo è il modello di apprendimento automatico. Nella seconda fase, questo modello di apprendimento automatico viene applicato all’area di applicazione desiderata. L’idea è che questo modello di apprendimento automatico risolva un problema che vorremmo affrontare. Ad esempio, modelli di apprendimento automatico per prevedere se un paziente ha un cancro, un tumore o un modello di apprendimento automatico, oppure per prevedere come si comporteranno i mercati azionari in futuro. Naturalmente, l’apprendimento automatico presenta alcuni problemi, perché può avere un grave impatto sulla vita delle persone e soprattutto quando si verificano errori nell’apprendimento automatico, che possono verificarsi durante la raccolta dei dati, la loro preparazione o durante il processo di addestramento. Inoltre, si possono verificare problemi quando si interpretano in modo errato i risultati del processo di apprendimento automatico. A livello sociale, un grande pericolo è rappresentato dal fatto che i dati utilizzati per il processo di formazione per l’apprendimento automatico sono considerati perfetti. Ma sappiamo che i set di dati perfetti richiederebbero tutti i possibili fattori che costituiscono o influenzano la situazione che stiamo affrontando. Ciò significa che è molto difficile addestrare un algoritmo che utilizza tutti i dati della società complessa. E come risultato di questi dati imperfetti che vengono poi applicati all’algoritmo di apprendimento automatico, può accadere che i risultati siano troppo semplificati e che una situazione che si sta affrontando abbia solo un numero limitato di fattori presi in considerazione. Ne consegue che l’apprendimento automatico può portare a previsioni distorte, soprattutto per i gruppi svantaggiati della società che non sono molto presenti nei dati o nella società nel suo complesso e sono meno rappresentati nell’insieme dei dati. Nel caso dei pregiudizi nell’apprendimento automatico, ciò significa che i dati distorti daranno luogo a previsioni distorte. Questo è il caso dei fenomeni rari o dei contesti sociali difficili da quantificare. Ciò significa che dobbiamo essere molto consapevoli di quelle specificità della società che non vengono viste o incluse nei risultati dell’apprendimento automatico. Perché l’apprendimento automatico opera in realtà sulla base di modelli. E se questi schemi non si verificano o sono di scarsa qualità, possiamo ottenere risultati molto distorti e scadenti.

 

Quiz question 1/8

Vero o falso? A differenza delle operazioni umane, nel Machine learning non ci sono errori.




Quiz question 1/8

Vero o falso? Nel Machine learning si può commettere un errore durante la raccolta e la preparazione dei dati.




Quiz question 1/8

Vero o falso? Nel Machine learning non ci possono essere interpretazioni errate dei risultati.




Quiz question 1/8

Vero o falso? È molto difficile addestrare un algoritmo che utilizza un'enorme quantità di dati provenienti dalla società




Quiz question 1/8

Vero o falso? Uno dei problemi del Machine learning è l'eccessiva semplificazione dei risultati.




Quiz question 1/8

Vero o falso? Con il Machine learning si evita di discriminare una parte della popolazione che non è spesso inclusa nei database.




Quiz question 1/8

Vero o falso? I risultati distorti sono la conseguenza di modelli troncati nella società.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Quindi, come evitare o come affrontare questi pregiudizi, questi problemi etici con l’apprendimento automatico e l’intelligenza artificiale a livello internazionale, ma anche a livello di Paesi e Stati nazionali. È in corso un enorme dibattito su come stabilire un sistema che governi e regoli l’uso dell’intelligenza artificiale nella società e, naturalmente, l’impatto che questa tecnologia ha sulla società. La domanda principale è: chi è responsabile se succede qualcosa con l’intelligenza artificiale? Se ci sono errori, qualcosa va storto. Chi è responsabile dei risultati dell’uso dell’intelligenza artificiale, come comportarsi in caso di incidente, di diagnosi errata o di disconnessione di qualcuno a causa dell’intelligenza artificiale? L’UNESCO, l’agenzia delle Nazioni Unite, sta lavorando molto attivamente alla proposta di politiche per la gestione dell’intelligenza artificiale. Hanno fornito una serie di proposte politiche che riguardano diversi aspetti della gestione degli agenti artificiali. Ora presenterò brevemente quegli aspetti che ritengo molto importanti e che possono essere utilizzati come linee guida per capire cosa la società e gli individui devono sapere quando pensano all’impatto dell’intelligenza artificiale sulla società. Innanzitutto, il primo aspetto importante è che l’intelligenza artificiale promuove la diversità e l’inclusione. Ciò significa che l’intelligenza artificiale deve funzionare in termini di lotta alla cultura e alle tipologie sociali. E le disuguaglianze sono importanti per questi pregiudizi quando i modelli di apprendimento automatico, nel caso in cui si basino su dati scarsi, possono spesso discriminare e possono anche imporre la resistenza agli stereotipi. È il caso, ad esempio, dei sistemi artificiali di riconoscimento facciale che, come è già stato scientificamente dimostrato, sono più spesso orientati verso i volti colorati che verso quelli bianchi. Il secondo aspetto importante è l’impatto dell’intelligenza artificiale sull’economia e sull’occupazione. Ci sono diverse interpretazioni su come le applicazioni dell’intelligenza artificiale contribuiranno alla perdita di particolari posti di lavoro. Ci saranno molti lavori che non saranno più necessari e questo avrà un impatto sui diversi gruppi di lavoro. E l’intelligenza artificiale, in particolare l’economia ad alto potenziale, dovrebbe tenere conto di misure di riqualificazione e riqualificazione che permettano ai lavoratori o ai dipendenti che saranno colpiti negativamente dall’intelligenza artificiale di continuare a far parte del mercato del lavoro. La terza cosa importante è affrontare l’impatto sociale ed economico dell’intelligenza artificiale. Ciò significa che l’intelligenza artificiale non dovrebbe generare monopoli in termini di ricerca, conoscenza, dati o mercato, e che non saranno alcuni specifici stakeholder o Paesi o regioni a beneficiare di questa tecnologia, ma l’umanità nel suo complesso. Inoltre, una visione logica è anche l’impatto sulla cultura e sull’ambiente. Cioè che l’intelligenza artificiale non abbia un effetto negativo sulla cultura, sulla diversità, sul patrimonio di sviluppo e anche sull’ambiente. E poi c’è un insieme di quattro o cinque punti di vista che riguardano tutti l’etica dell’intelligenza artificiale. L’etica dell’intelligenza artificiale è molto importante in termini di creazione di uno sfondo basato sui valori su cui sviluppare l’intelligenza artificiale. Ci sono poi aspetti dell’etica che riguardano l’educazione e la consapevolezza, ovvero che l’intelligenza artificiale dovrebbe essere insegnata nelle scuole e nelle università, in modo che gli studenti e gli scolari possano familiarizzare con la tecnologia dell’intelligenza artificiale. E qual è il rapporto tra il dominio tecnologico e quello sociale. Molto importante è anche il punto di vista sull’etica della ricerca sull’intelligenza artificiale, nel senso che c’è una ricerca, soprattutto nel settore privato, finanziata da fondi privati che tiene conto della responsabilità sociale. Anche i benefici della ricerca in termini di umanità, non solo il mercato e l’interesse per il profitto, quindi è anche un aspetto importante dell’uso etico dell’IA. Nello sviluppo, nel senso che lo sviluppo artificiale dovrebbe sforzarsi di fornire piattaforme che consentano la cooperazione internazionale sullo sviluppo dell’IA. Ciò significa che lo sviluppo dell’IA non è solo per i Paesi ricchi, ma anche che tali sviluppi sono applicati anche nei Paesi più poveri che non sono così ricchi. Da questo aspetto molto importante deriva la creazione di una sorta di cooperazione internazionale sull’etica dell’Intelligenza Artificiale. Per esempio, il forum dell’UNESCO è un ottimo esempio di questo, quando diversi Paesi con diverse parti interessate discutono del futuro dell’intelligenza artificiale e di come governarla in termini di etica e di valore per lo sviluppo della società. E da qui è molto importante che ci sia anche una sorta di meccanismo governativo che supervisiona lo sviluppo dell’intelligenza artificiale a livello globale in termini di inclusione, trasparenza, controllo e bilanciamento. Questi aspetti sono molto importanti e anche la cooperazione multilaterale. Questi meccanismi governativi si riferiscono all’ecosistema digitale per l’Intelligenza artificiale, che comprende infrastrutture, tecnologie digitali, opzioni di condivisione delle conoscenze e soprattutto la cooperazione con le diverse parti interessate che hanno voce e possono condividere le loro considerazioni e preoccupazioni su come sviluppare l’Intelligenza artificiale per il futuro.

 

Quiz question 1/8

No
 

L'istituzione di principi per regolare l'uso dell'IA è una delle soluzioni proposte per evitare le possibili conseguenze negative dell'IA?


È vero che in caso di errore dell'IA il problema principale è definire chi ne è responsabile?


L'UNESCO è responsabile della regolamentazione dell'intelligenza artificiale?


L'integrazione dei principi di diversità e inclusione nell'IA aumenterebbe ulteriormente la discriminazione e la disuguaglianza all'interno della società?


Seguendo la proposta dell'UNESCO per la diversità e l'inclusività nell'IA, evitiamo gli errori causati da dati insufficienti?


Il principio economico dell'UNESCO si riferisce principalmente alle questioni occupazionali come conseguenza dell'IA?


L'IA può avere un impatto negativo su cultura, diversità, sviluppo, patrimonio e ambiente?


I concetti di IA dovrebbero essere insegnati nelle scuole e nelle università per aumentare la consapevolezza del rapporto tra IA e società?


Le piattaforme di cooperazione internazionale avvicinano la possibilità di sviluppo dell'IA ai paesi più poveri?


I meccanismi di governance potrebbero regolamentare lo sviluppo dell'IA, in termini di inclusione, trasparenza e cooperazione multilaterale a livello globale?



Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Il mio ultimo punto di vista sull’intelligenza artificiale riguarda il ruolo delle organizzazioni della società civile, in particolare il ruolo delle organizzazioni non governative. Penso che il ruolo della mentalizzazione non governativa nell’applicazione dell’intelligenza artificiale sia molto importante dal punto di vista di spiegare ai cittadini, agli utenti, alla gente comune come questa tecnologia stia influenzando le loro vite, soprattutto in termini di fiducia nell’intelligenza artificiale. Anche per aiutarli a capire le applicazioni e l’impatto sulla vita quotidiana dei cittadini, perché ci sono diverse interpretazioni e paure, forse infondate e negative, del loro rapporto con le intelligenze artificiali, che devono essere discusse, apprese ed educate in ambienti affidabili e le organizzazioni non governative con i loro membri, con le loro attività di volontariato, sono spesso un collegamento tra la ricerca high tech e la gente comune, perché hanno fiducia, perché la gente ha fiducia nelle organizzazioni non governative. E grazie alle loro informazioni, alle loro attività educative, possono aiutare i cittadini a capire quali sono gli effetti negativi e positivi dell’intelligenza artificiale. Questo è un ruolo delle ONG. Il secondo ruolo delle ONG è quello di fungere da cani da guardia. Agiscono non proprio come un organo di controllo, ma come qualcuno che presta attenzione alla possibile discriminazione, alla violazione dei diritti umani o all’uso negativo dell’intelligenza artificiale, che può portare alla discriminazione, che può portare a condizioni peggiori, per i gruppi di immigrati, per gruppi sociali specifici come gli immigrati o le donne o i gruppi socialmente vulnerabili che non sono rappresentati nella società come altri gruppi sociali. E le ONG devono assumere il ruolo di salvaguardare i loro diritti e combattere per i diritti umani quando vedono che l’intelligenza artificiale sta per superare questi standard. Credo che queste siano le due regole principali delle ONG in relazione all’intelligenza artificiale. Ci sono due ruoli minori. Uno è quello delle ONG come utenti abituali dell’intelligenza artificiale, in particolare quelle ONG che generano grandi quantità di dati sulla società e che possono poi utilizzare l’apprendimento automatico e gli strumenti per fornire conclusioni, risolvere problemi, creare visualizzazioni su diversi aspetti della società. In secondo luogo, questo ruolo è importante anche perché gli stakeholder agiscono come attori politici, ovvero partecipano a forum, coalizioni, discussioni con altri stakeholder dell’economia, della politica, della ricerca. E così, in quei forum e in quelle discussioni, essi sottolineano le questioni della responsabilità, della riservatezza, dell’affidabilità del sistema artificiale, cioè lavorano come difensori della società e degli esseri umani e si adoperano per un uso dell’intelligenza artificiale orientato all’uomo. Questo è il mio punto di vista, breve ma non brevissimo, sull’intelligenza artificiale e la società.

 

Quiz question 1/8

Perché le organizzazioni non governative (ONG) sono importanti per l'IA?





Quiz question 1/8

Nel caso dell'IA, a cosa prestano attenzione le organizzazioni non governative (ONG)?





Quiz question 1/8

Come utilizzano l'IA le organizzazioni non governative (ONG)?





Quiz question 1/8

In che modo le organizzazioni non governative (ONG) agiscono come attori politici?





Quiz question 1/1

You have completed the Quiz!

Loading...

The learning unit has not been completed

You have successfully completed the learning unit.