IT / EN / DE / SL / EL 

AIAE » E-LEARNING » INTERVIEW 4

Percezione dell’IA – IA e sfide sociali

I frammenti di intervista che seguono sono stati rilasciati da Bambos Papacharalambous, riguardano la percezione dell’IA e le sfide sociali e, in particolare, forniscono un approccio agli algoritmi e ai pregiudizi nell’IA.

transcript

Mi chiamo Bambos Papacharalambous. Per la maggior parte della mia carriera, diciamo quasi 30 anni, mi sono occupato principalmente della parte telecomunicazioni del settore IT. Sono coinvolto in un’ampia gamma di progetti legati all’IT in generale. Sono l’amministratore delegato e il fondatore di Novum. Novum è un’azienda che si occupa di sviluppo software e consulenza ICT.

 

Quiz question 1/8

L’intervistato, Bambos Papacharalambous, è stato principalmente coinvolto in un’ampia gamma di progetti legati alle tecnologie dell’informazione e della comunicazione, le cosiddette ICT. È il fondatore e l’amministratore delegato di Novun, una piccola azienda che si occupa di sviluppo di software e consulenza in ambito ICT.


Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Potrebbe parlarci delle basi dell’intelligenza artificiale, degli algoritmi e dei bias cognitivi? Sì, ok. AI sta diventando un’altra parola d’ordine dei tempi. Se cerchiamo di capire cosa significhi realmente AI e cosa stia a significare, A sta per artificiale, I sta per intelligenza. Artificiale significa una macchina, qualcosa che non è un essere umano o un altro animale vivente. Intelligenza, ovvero il processo di pensiero che ci permette di capire il linguaggio, di comprendere il discorso, di capire l’ambiente che ci circonda e di prendere decisioni. Ora, una delle idee di base dell’intelligenza è che consideriamo intelligente qualcosa che ha la capacità di acquisire conoscenza, cioè di imparare qualcosa, e poi di applicare ciò che ha imparato per prendere decisioni accademiche. Ci possono essere diverse definizioni di cosa sia l’intelligenza, ma supponiamo che ciò che definiamo come intelligenza sia la capacità di apprendere qualcosa e poi applicare quell’apprendimento in una qualche forma di decisione. L’intelligenza, diciamo, nel mondo accademico, è meglio compresa e studiata da psicologi o sociologi o altre discipline accademiche. Ma l’intelligenza artificiale è meglio compresa da informatici, analisti di dati e matematici, almeno oggi. Il motivo è che disponiamo di vaste discipline scientifiche per cercare di costruire macchine che in qualche modo applichino questo significato di base dell’intelligenza. Così come noi esseri umani impariamo leggendo o elaborando le nostre esperienze passate, un sistema di intelligenza artificiale dovrebbe essere in grado di imparare analizzando gli insiemi di dati esistenti e cercando di eseguire compiti di intelligenza. Ora, bisogna essere consapevoli che gli algoritmi di IA, come tutti gli altri, sono sviluppati da esseri umani e quindi potrebbero avere gli stessi pregiudizi e limiti del pensiero umano, giusto? Quindi, allo stesso modo in cui il pensiero delle persone potrebbe essere influenzato da pregiudizi cognitivi, anche l’IA alfa potrebbe prendere le stesse decisioni distorte. Quindi, se prendiamo alcuni esempi di pregiudizi aziendali attualmente identificati dal mondo della psicologia, diciamo, accademica, e prendiamo, per esempio, una partita di calcio, la nostra squadra vincerà sicuramente stasera, giusto? Abbiamo battuto l’avversario di stasera negli ultimi 20 anni, quindi è impossibile che perdiamo la partita di stasera. Si tratta di un pregiudizio cognitivo che può verificarsi durante il pensiero logico di un essere umano. Ma lo stesso pregiudizio cognitivo potrebbe verificarsi anche con un algoritmo di intelligenza artificiale. Se le uniche informazioni che forniamo ai nostri algoritmi di IA sono quelle che il nostro avversario ha perso contro di noi negli ultimi 20 anni, è probabile che l’algoritmo di IA giunga alle stesse conclusioni dell’uomo. Quindi, qualsiasi informazione diamo all’algoritmo dell’AIA, questo algoritmo cercherà di arrivare a una risposta e si baserà, ma solo sulle informazioni che noi acquistiamo. Quindi, se ora cerchiamo di insegnare al nostro algoritmo di intelligenza artificiale a identificare, diciamo, le persone intelligenti analizzando le loro caratteristiche facciali, va bene, e diamo in pasto a questo algoritmo immagini di giovani maschi bianchi, e diciamo a questo algoritmo, ok, ora vai a studiare queste immagini. E poi quando glielo chiediamo, quando gli diamo un’altra immagine, ci dice se questa persona è intelligente o no. Potrebbe essere intelligente o meno. È probabile che se alimentiamo l’algoritmo solo con immagini di giovani maschi bianchi, è probabile che se diamo all’algoritmo un’immagine di una donna nera matura, l’algoritmo di intelligenza artificiale avrà lo stesso pregiudizio e ci dirà che questa donna non può essere intelligente. È quindi importante comprendere questo aspetto. E non importa quanto magicamente pensiamo che l’algoritmo si comporterà. In pratica, l’algoritmo arriva a una risposta in base alla dimensione e alla qualità dei dati che forniamo. Questa è la mia risposta, diciamo così, alla domanda su quanto i pregiudizi possano influenzare l’IA, e quanto possano portare a risultati distorti.

 

Quiz question 1/8

Che cosa significa esattamente artificiale nel termine IA?





Quiz question 1/8

Che cosa significa esattamente intelligenza nel termine IA?





Quiz question 1/8

Finora l'IA è stata studiata soprattutto da:





Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Potrebbe ora soffermarsi sull’uso etico dell’intelligenza artificiale? Ci sono applicazioni dell’intelligenza artificiale con implicazioni etiche? Ok. Poiché al giorno d’oggi un numero sempre maggiore di macchine svolge compiti sempre più complessi, la mente delle persone si orienta immediatamente verso l’uso delle macchine in sostituzione del lavoro umano. È la prima cosa che viene in mente alle persone, ed è una preoccupazione valida. Sono le stesse preoccupazioni che venivano sollevate durante la Rivoluzione industriale e che oggi si ripresentano come attuali. È difficile permettere alle macchine di raccogliere il grano invece di affidarsi alle mani delle persone? È difficile permettere ai robot di sostituire gli operai umani nelle catene di montaggio delle automobili? Quindi, queste stesse domande di base si ripresentano, ma ora in un ambiente più, diciamo, complesso, dato che le macchine si sono sviluppate e svolgono compiti più complessi. Quindi, se le persone dovessero adattarsi al nuovo ambiente creato dalle macchine nella forza lavoro, dovrebbero affrontare molto presto un altro processo di riadattamento. Per esempio, dove troverebbero lavoro gli autisti di camion se ora i camion si guidano da soli? Giusto. Dove troverebbero lavoro gli autisti di autobus se gli autobus sono guidati da software AI? Dove troverebbe lavoro un pilota d’aereo se gli aerei volassero da soli? Quindi, più i compiti complessi vengono sviluppati e gestiti dalle macchine, più questi tipi di lavoro sono minacciati. E non si tratta più solo di lavori pesanti. Voglio dire, perché mai qualcuno dovrebbe diventare medico se un robot può eseguire la stessa operazione meglio di qualsiasi umano, giusto? Quindi, queste preoccupazioni sono valide. E naturalmente ci sono altri esempi che sollevano questioni etiche nell’uso dell’IA nella nostra vita. Non si tratta solo della forza lavoro. Non dovremmo forse preoccuparci dell’uso di macchine che vengono utilizzate per la nostra sicurezza? In primo luogo, possiamo essere sicuri che il software di intelligenza artificiale che alimenta una telecamera di sicurezza in un aeroporto abbia preso la decisione corretta nell’identificare i terroristi? Possiamo essere sicuri che il sistema di sicurezza di un centro commerciale stia seguendo il vero ladro fino alla sua auto e non qualche altro passante innocente? Quindi, questi problemi sono validi. Ci sono molte preoccupazioni etiche nell’ambito dell’IA, non solo in settori come l’impiego o la sicurezza, ma anche nell’uso di armi militari. Non dovremmo essere preoccupati, per esempio, dal fatto che i droni armati oggi combattono per noi? Siamo sicuri che il robot soldato autonomo di domani sarà in grado di distinguere il nemico dall’amico? Si tratta quindi di clienti molto validi. E ogni volta che accade qualcosa di grande, si verifica un cambiamento all’interno delle industrie in generale. Ogni volta che accade qualcosa di magico, c’è anche la possibilità di implicazioni negative legate al suo utilizzo. L’industria deve quindi trovare un modo per utilizzare l’IA per il bene della società in cui viviamo.

 

Quiz question 1/8

Vero o falso? Un sistema di IA impara analizzando insiemi di dati e cercando di eseguire compiti intelligenti, allo stesso modo degli esseri umani.




Quiz question 1/8

Vero o falso? Poiché gli algoritmi di IA sono sviluppati dagli esseri umani, potrebbero avere gli stessi bias e limiti.




Quiz question 1/8

Vero o falso? Non è importante conoscere i bias cognitivi.




Quiz question 1/8

Vero o falso? I bias degli algoritmi di intelligenza artificiale dipendono dalla quantità, dal tipo e dalla qualità dei dati immessi nel sistema.




Quiz question 1/1

You have completed the Quiz!

Loading...

transcript

Lei ha già parlato dell’impatto sull’intelligenza artificiale, sull’occupazione, sulla sicurezza, sul welfare, sul servizio militare, e anche delle nuove leggi sulla robotica in altri campi oltre a quello stradale che ha citato. Già, la questione delle regole e delle leggi per la robotica. Non è un problema facile da risolvere. Siamo in un territorio non ancora definito quando si tratta di un insieme di regole ampiamente accettate che dovrebbero definire il quadro etico di come i robot dovrebbero lavorare, anche in aree diverse da quella militare, ma anche nello spazio della sicurezza, nello spazio del benessere degli anziani, diciamo lo spazio della sicurezza personale. A casa, vedremo robot che inizieranno a prendere decisioni al posto nostro. Come ho detto prima, si tratta di un’area molto nuova e anche se ci sono gruppi sia nel mondo accademico, sia nell’industria, sia nei governi, che cercano di toccare queste regole, al momento si è in una fase molto, molto iniziale. Al momento si discute di ciò che il robot dovrebbe o non dovrebbe fare. Per esempio, un robot non dovrebbe fare del male a un altro essere umano. Questa potrebbe essere una direttiva primaria, diciamo, per una macchina. Ma allo stesso tempo, un robot dovrebbe obbedire al suo proprietario e al suo creatore. Questa è un’altra direttiva, una direttiva primaria per un robot. Ma cosa succede se il proprietario del robot gli dà istruzioni che esulano dalla sua direttiva principale? E se al robot viene chiesto di fare del male a un altro essere umano? Giusto, ma dovremmo limitare l’ambito del danneggiamento a un essere umano? E se al robot viene chiesto di fare del male a un animale? O se al robot viene chiesto di fare del male a un altro robot? E se il robot dovesse danneggiare un umano per proteggere un altro umano? Si tratta quindi di domande etiche a cui non è facile rispondere. E non sono facili nemmeno se si risponde. Non è così facile inserirle in un algoritmo. Quindi non dimenticate che alla fine tutte queste regole del quadro di riferimento devono essere tradotte in un’equazione, diciamo, matematica. Giusto? Quindi è una cosa piuttosto difficile da fare. Anche se sarebbe meglio per l’umanità definire queste regole prima e non dopo, non credo che sia un compito facile. Le aziende lottano per il dominio dei prodotti a livello globale. I Paesi stanno lottando per il dominio militare sempre a livello globale. Sarebbe quindi difficile stabilire regole che possano essere concordate da tutti e poi applicate da tutti, proprio per il modo in cui funzionano la società e l’umanità. Uno scenario più probabile è che questo insieme di regole accettabili venga definito e fatto rispettare almeno a posteriori. Voglio dire, dopo aver visto che la guerra chimica durante la prima guerra mondiale era immorale, abbiamo progettato il quadro di riferimento intorno ad essa. Subito dopo aver sganciato la bomba nucleare, abbiamo capito che era necessario controllarla. Quindi potremmo aver bisogno di sperimentare il primo, diciamo, disastro per essere costretti a definire le regole che governerebbero il comportamento del robot. Speriamo solo che l’esperienza del primo disastro non sia una mossa sbagliata. Personalmente, però, vedo che anche se si cerca di stabilire queste regole fin dall’inizio, credo che si tratti di un compito poco pratico da risolvere.

 

transcript

Se noi, se noi facciamo un passo indietro e vediamo che cos’è un algoritmo, va bene? E cerchiamo di vedere, di distinguere tra ciò che un algoritmo può fare per le persone, ma anche ciò che le persone possono fare con l’uso degli algoritmi. Quindi, con un normale alchimista, questi due, diciamo, compiti sono abbastanza distinti. Ciò che l’algoritmo può fare per le persone è una cosa. Quello che le persone possono fare con questo algoritmo è una cosa separata. Quindi, se un informatico scrive un algoritmo, vi chiederà anche le regole a cui volete che l’algoritmo obbedisca, giusto? Quindi, diciamo che volete un algoritmo che, quando vi viene dato il volume in capi, vi restituisca il volume in galloni. Ok? Quindi lo sviluppatore del software chiederà la regola che governa questa relazione tra leader e galloni. E userà questa regola per scrivere l’algoritmo in modo che tutti sappiano quale sarà il risultato, a condizione che l’algoritmo sia conforme a queste regole e funzioni correttamente. Ok? Questo è ciò che definirei un algoritmo regolare. Se ora l’uso di questo algoritmo può mettere le persone nei guai, allora non è l’algoritmo a essere difettoso, ma è l’uso dell’algoritmo a essere difettoso. Supponiamo, per esempio, che questo software che abbiamo scritto venga utilizzato in un aereo e che ci sia un interruttore nell’aereo che dice: “Ok, quando accendi l’interruttore, posso visualizzare il carburante in galloni. Quando si abbassa l’interruttore, posso visualizzare il carburante che l’aereo ha nel serbatoio in litri. Supponiamo che l’interruttore sia nella posizione sbagliata e che il pilota chieda i galloni invece dei litri e decolli. È probabile che debba effettuare un atterraggio di emergenza in un altro luogo prima della destinazione originaria. Quindi cosa fare? In questo caso? Avete un algoritmo che funziona correttamente, ma il suo utilizzo lo ha reso una funzione. Quindi, in questo caso, l’autorità di regolamentazione interviene, l’industria interviene e addestra i piloti in modo corretto. Ci si assicura che il pilota controlli se l’aereo ha abbastanza carburante prima del decollo. Si mettono in atto regolamenti per obbligare il servizio di rifornimento a terra ad assicurarsi che l’aereo abbia abbastanza carburante da raggiungere, in modo da sapere come gestire, diciamo, tutti i problemi normativi che dobbiamo gestire in un normale codice alchimista senza virgolette. Ora, cosa succede con l’algoritmo di intelligenza artificiale? Prendiamo ad esempio un algoritmo di apprendimento automatico. In questo caso, si progetta l’algoritmo con alcuni parametri di base e si dice all’algoritmo quali dati si hanno. Si inserisce nell’algoritmo un gruppo di dati e poi lo si esegue. La differenza con questo tipo di algoritmo è che il sistema si modifica da solo in base ai parametri e ai dati forniti. Non è quindi possibile prevedere il risultato degli algoritmi. Se un essere umano avesse abbastanza tempo per analizzare i dati forniti, analizzare i parametri ed eseguire i calcoli riga per riga su un foglio di carta, allora sì, potremmo prevedere, diciamo che faremmo le stesse previsioni che ha fatto l’algoritmo. Ma è impossibile per un essere umano analizzare una tale mole di dati con i parametri forniti all’algoritmo. Quindi, alla fine, il risultato di un algoritmo di IA potrebbe essere considerato imprevedibile. Potremmo avere un risultato che non ci aspettavamo. Ed è qui che deve entrare in gioco l’etica dei risultati. Immaginate di essere il Ministero della Salute di un Paese e di chiedere a un’azienda di IA di produrre un risultato che esamini i dati demografici della popolazione e il numero di donatori di organi disponibili. Vogliamo che l’algoritmo suggerisca chi riceverà un trapianto di cuore, per esempio, e chi non lo riceverà. Quindi si inseriscono elementi come l’età, la probabilità di avere, diciamo, un’alta probabilità di accettare questo piano fiduciario, e si inseriscono una serie di parametri, e poi si forniscono tutti i dati demografici del Paese a questo algoritmo e lo si lascia funzionare. Le domande etiche ora devono essere risolte da chi ha scritto l’algoritmo e non da chi lo usa e basta. Mentre in un normale algoritmo, possiamo dare la responsabilità di prendere la decisione alle persone che usano il software. La versione AI dell’algoritmo di apprendimento automatico è stata introdotta. In pratica, l’algoritmo prende le decisioni al posto nostro. Ecco perché dobbiamo iniziare a pensare di inserire le regole etiche negli algoritmi stessi. E come abbiamo detto prima, questa è una cosa facile da fare, perché come si fa a decodificare tutte queste risposte etiche in un’equazione matematica? Questo termine e spazio algoritmico è uno spazio nuovo. È oggetto di ricerca a livello accademico. Sta raggiungendo, toccando un po’ l’industria, ma non è ancora arrivato. Quindi ha ancora bisogno di tempo. Sì, è vero. Grazie mille per questo contributo sulla rilevanza dell’algoritmica.

 

transcript

Passiamo ora a domande specifiche sull’intelligenza artificiale e sulle sfide sociali. Può dirci qualcosa di più sull’intelligenza assistita, aumentata e autonoma? Si. Ok, beh, come abbiamo detto prima, se prendiamo ad esempio un robot che svolge un lavoro specifico, il robot che lavora alla catena di montaggio delle auto non è considerato un robot con un algoritmo di intelligenza artificiale al suo interno. Abbiamo visto questi robot lavorare nell’industria per molti anni prima che questa nuova ondata di metodi di IA diventasse popolare. Quindi cosa succede in quello spazio? Si tratta di un compito ripetibile, facilmente ricreabile e accettato dall’industria come un’apparecchiatura innocua. Ora, il vantaggio di avere una macchina di questo tipo è che, beh, togliamo all’uomo questa attività lavorativa ad alta intensità e lasciamo che siano le macchine a svolgere i compiti più noiosi e malsani, consentendo all’uomo di lavorare in ambienti più produttivi e sicuri. Ora, lo svantaggio è che, ovviamente, il robot che abbiamo in quella catena di montaggio ha fondamentalmente preso il sopravvento sulle persone che sono in grado di svolgere questi compiti. Quindi le cose sono, diciamo, accettate per quanto riguarda l’uso di una macchina che svolge un compito ripetitivo di lavoro manuale all’interno di un settore specifico. Ora, il problema diventa più complicato quando si ha un robot o una macchina che prende autonomamente decisioni e funziona in modo più, diciamo, codificato e intelligente. Immaginiamo quindi di non avere una catena di montaggio e di avere un robot che ha l’intelligenza necessaria per svolgere i compiti che oggi svolge un normale robot, ma che decide anche che il design dell’auto deve cambiare. Supponiamo che il robot sia in grado di progettare l’auto in modo più aerodinamico e che decida autonomamente che la forma dell’auto deve essere modificata. E naturalmente il robot avrà la capacità di apportare la modifica al progetto e allo stesso tempo di costruire l’auto. Ok, il vantaggio sarebbe che forse si può arrivare a un design migliore e offrire una migliore efficienza del carburante o altro. Ma lo svantaggio è che, prima di tutto, abbiamo tolto altri posti di lavoro alla forza lavoro. Forse abbiamo eliminato il progettista, ma allo stesso tempo non siamo sicuri che i cambiamenti suggeriti da questo nuovo robot siano effettivamente sicuri. Quindi, sì, potremmo avere una migliore efficienza, un maggiore risparmio di carburante, ma sarà più sicuro o altrettanto sicuro per il conducente e i passeggeri? Quindi, ancora una volta, tutto deve avere un equilibrio. Ci sono vantaggi, ci sono svantaggi e per questo ci sono rischi, minacce e sfide. Ma allo stesso tempo ci sono anche delle opportunità.

 

transcript

Lei ha già menzionato alcune opportunità e alcuni rischi e minacce. Secondo lei, quali sono le preoccupazioni sociali più rilevanti? Personalmente, quello che mi preoccupa di più sono le cose che riguardano la sicurezza delle persone. Quindi cose come il mercato del lavoro e l’occupazione. Penso che alla fine l’umanità troverà la sua strada e, se saremo abbastanza attenti, potremo trovare risposte a questi problemi perché la tecnologia sarà sempre presente. Ci siamo già passati e spero che in un modo o nell’altro troveremo una risposta a queste domande. Quando si tratta di cose come la sicurezza, la sicurezza delle persone è uno dei problemi più difficili da risolvere. Ed è a questo che credo dovremmo prestare maggiore attenzione. Per esempio, cosa succede se abbiamo un virus in un’auto e quell’auto ora guida mia madre ogni giorno fino al supermercato? Cosa succede se quel software viene preso da un’organizzazione terroristica? Cosa succede se il software è a terra per progettazione, non è stato testato correttamente? E poi succede qualcosa durante questo viaggio di mia madre verso il negozio di alimentari e si verifica un crash. Lo stesso tipo di problema che riguarda la sicurezza delle persone. Naturalmente, il problema si moltiplica per mille quando si parla dell’uso delle macchine in guerra. Oggi abbiamo droni che sono guidati da una pila di joystick che si trova dall’altra parte del mondo. E questo drone viene pilotato da un pilota. E il pilota decide dove far cadere i suoi titoli. Cosa succede ora quando questo drone ha l’autorizzazione a decidere da solo? Come si fa a trasmettere queste questioni etiche al software del drone? Sono gli stessi problemi che si pongono alla guerra ogni volta che un nuovo telefono web diventa disponibile per le masse. Quindi, questi tipi di decisioni che riguardano la sicurezza e il benessere delle persone, credo che siano le aree principali che devono essere esaminate. E probabilmente sono le aree più calde che possiamo finanziare.

 

transcript

Lei ha già presentato alcuni esempi in diverse aree. Potrebbe farci qualche altro esempio relativo al riconoscimento facciale, alla giustizia e alle sfide dei social network? Sì, il riconoscimento facciale è un problema che è stato riscontrato e sollevato ripetutamente negli ultimi anni. Si potrebbe dire che è iniziato direttamente con l’esigenza di individuare soluzioni nel settore della sicurezza, ma si è scoperto che ora è presente in tutti i diversi settori, intorno alla tecnologia. Diciamo industria. Supponiamo, ad esempio, di addestrare un sistema a utilizzare una telecamera posta all’ingresso di un centro commerciale e di voler vedere se la persona che sta entrando nel centro commerciale ha un COVID o meno, giusto? Quindi il COVID 19 è un problema molto attuale. Supponiamo di avere un qualche tipo di sistema che osservi il volto e che, se troviamo gli algoritmi che posso identificare insieme ad altri sensori e dati, possa identificare se questa persona potrebbe avere un caffè. Supponiamo quindi di identificare una persona che beve caffè. Un buon passo successivo sarebbe: ok, vediamo, usiamo il riconoscimento facciale dell’intelligenza artificiale e scopriamo chi è questa persona. Andiamo su Facebook, su qualsiasi altra piattaforma sociale, identifichiamo questa persona e poi vediamo le foto che questa persona ha pubblicato sulle diverse piattaforme di social media e vediamo chi sono i suoi amici. E forse dobbiamo contattarli per vedere se si sono riuniti, e potrebbe essere così. Ora sono sospettati di essere risultati positivi al test COVID-19. Quindi, dove possiamo fermare tutto questo? Giusto? Dove mettiamo fine a tutto questo? Se abbiamo regole che hanno a che fare con i dati personali e la sicurezza dei dati, beh, forse queste regole devono essere messe da parte a causa di una pandemia. Quindi lasciamo che gli algoritmi facciano tutto questo lavoro per noi senza alcun controllo, offrendo aiuto? Ma il fatto che gli algoritmi possano prendere decisioni da soli ci crea questa incertezza. Ed è per questo che le persone sono giustamente scettiche al riguardo.

 

transcript

Potrebbe ora parlarci un po’ di più dello status e della prospettiva di alcuni regolamenti? Per esempio, OCSE o UE UNESCO GPAI. Sì, come ho detto, ci sono iniziative e persone, persone intelligenti, che stanno dedicando tempo a creare un quadro di riferimento per l’uso dell’IA. Si sta anche facendo ricerca in aree etiche che non vengono affrontate dalle agenzie governative. Ma, come abbiamo detto prima, sono in una fase molto iniziale e ho la sensazione che l’industria sarà ancora una volta più avanti delle autorità di regolamentazione. Se date un’occhiata alle ricerche attualmente in corso presso le aziende nei settori della robotica, otterrete la stessa reazione di stupore quando vedrete come si comportano oggi i robot. Ho la sensazione che l’industria sia già in anticipo rispetto al quadro normativo e molto probabilmente si ripeterà un altro scenario in cui dovrà accadere qualcosa di negativo perché tutti reagiscano positivamente. Per come si stanno muovendo le cose, non vedo perché l’IA dovrebbe essere trattata in modo diverso. Penso che il settore si muoverà a ritmi incredibilmente veloci e che le autorità di regolamentazione e i governi saranno un passo indietro. Credo che questa sia la tendenza attuale e non vedo alcun fattore di cambiamento. Grazie mille. C’è qualcosa che vorrebbe aggiungere su questo tema? No, credo che la questione dell’etica nell’ambito dell’IA sia piuttosto importante. Si potrebbe dire che è una domanda valida. È una questione che viene sollevata dalle società di tutto il mondo. Credo anche che l’industria andrà avanti e progetterà e implementerà ciò che pensa sia meglio per i suoi creatori. Non credo che ci sarà modo di impedire che ciò accada. Spero solo che alla fine i risultati di queste iniziative sull’IA siano vantaggiosi per l’umanità e non creino tutti quei problemi che abbiamo paura di creare. Alla fine il genere umano e l’umanità troveranno la loro strada, ma credo che sarà un percorso accidentato.

 

The learning unit has not been completed

You have successfully completed the learning unit.