EL / EN / DE / IT / SL 

AIAE » e-μάθηση » Συνέντευξη 4

Αντίληψη της ΤΝ – ΤΝ και κοινωνικές προκλήσεις

Τα παρακάτω αποσπάσματα συνέντευξης δόθηκαν από τον Πάμπο Παπαχαραλάμπους και καλύπτουν την αντίληψη της ΤΝ και τις κοινωνικές προκλήσεις και ειδικότερα δίνουν μια προσέγγιση σχετικά με τους αλγόριθμους και την προκατάληψη στην ΤΝ.

Μεταγραφή

Τώρα λοιπόν πώς να αποφύγουμε ή πώς να αντιμετωπίσουμε αυτές τις προκαταλήψεις, αυτά τα  ηθικά ζητήματα με τη μηχανική μάθηση και την τεχνητή νοημοσύνη σε διεθνές επίπεδο, αλλά και σε  επίπεδο εθνικών χωρών, εθνικών κρατών. Γίνεται τεράστια συζήτηση για το πώς θα δημιουργηθεί  ένα σύστημα που θα διέπει, που θα ρυθμίζει τη χρήση της τεχνητής νοημοσύνης στην κοινωνία και  φυσικά για τον αντίκτυπο που έχει αυτή η τεχνολογία στην κοινωνία. Και το κύριο ερώτημα εδώ είναι  ποιος είναι υπεύθυνος αν συμβεί κάτι με την τεχνητή νοημοσύνη; Κάτι πάει στραβά αν υπάρχουν  λάθη. Ποιος είναι λοιπόν υπεύθυνος, υπόλογος για τα αποτελέσματα της χρήσης της τεχνητής  νοημοσύνης, πώς θα αντιμετωπιστεί όταν υπάρχει ατύχημα, αν υπάρχει λάθος διάγνωση ή αν  κάποιος αποσυνδέεται εξαιτίας της τεχνητής νοημοσύνης. Η UNESCO, δηλαδή ο Οργανισμός των  Ηνωμένων Εθνών, εργάζεται πολύ ενεργά πάνω σε προτάσεις πολιτικής για το πώς θα διαμορφωθεί  η διακυβέρνηση της τεχνητής νοημοσύνης. Και παρείχαν ένα σύνολο προτάσεων πολιτικής και  προτάσεων πολιτικής που ασχολούνται με διάφορες πτυχές της διακυβέρνησης των τεχνητών  παραγόντων. Τώρα θα παρουσιάσω εν συντομία αυτές τις πτυχές που θεωρώ ότι είναι πολύ  σημαντικές και μπορούν επίσης να χρησιμοποιηθούν ως κατευθυντήριες γραμμές για την κατανόηση  του τι πρέπει να γνωρίζουμε ως κοινωνία και ως άτομα όταν σκεφτόμαστε τον αντίκτυπο της τεχνητής  νοημοσύνης στην κοινωνία. Πρώτα απ’ όλα, η πρώτη πτυχή που είναι σημαντική είναι ότι η τεχνητή  νοημοσύνη προωθεί την ποικιλομορφία και τη συμμετοχικότητα. Αυτό σημαίνει ότι η τεχνητή  νοημοσύνη πρέπει να λειτουργεί σε σχέση με την καταπολέμηση της κουλτούρας και των κοινωνικών  τύπων δοκιμαστών. Και οι ανισότητες αυτό είναι σημαντικό για αυτές τις προκαταλήψεις όταν τα  πρότυπα μηχανικής μάθησης, σε περίπτωση που βασίζονται στα φτωχά δεδομένα, μπορούν συχνά  να κάνουν διακρίσεις και μπορούν επίσης να επιβάλουν τα αντιστεκόμενα στερεότυπα. Αυτό  συμβαίνει για παράδειγμα με τα τεχνητά συστήματα αναγνώρισης προσώπου, τα οποία έχουν ήδη  αποδειχθεί επιστημονικά ότι μεροληπτούν συχνότερα προς τα πολύχρωμα πρόσωπα παρά προς τα  λευκά πρόσωπα. Στη συνέχεια, η δεύτερη σημαντική πτυχή είναι ο αντίκτυπος της τεχνητής  νοημοσύνης στην οικονομία, στην απασχόληση. Υπάρχουν διαφορετικές ερμηνείες για το πώς οι  εφαρμογές τεχνητής νοημοσύνης θα συμβάλουν στην απώλεια συγκεκριμένων θέσεων εργασίας.  Πολλές θα είναι οι θέσεις εργασίας που δεν θα είναι πλέον απαραίτητες και αυτό θα έχει αντίκτυπο  στις διάφορες ομάδες εργασίας. Και η τεχνητή νοημοσύνη, ειδικά η οικονομία με υψηλά ποσοστά  κίνησης, θα πρέπει να λάβει υπόψη της μέτρα αναβάθμισης και επανεκπαίδευσης που θα  επιτρέψουν στους εργαζόμενους ή τους εργαζόμενους που θα επηρεαστούν αρνητικά από την  τεχνητή νοημοσύνη να παραμείνουν μέρος της αγοράς εργασίας. Στη συνέχεια, το τρίτο σημαντικό  πράγμα είναι η αντιμετώπιση των κοινωνικών και οικονομικών επιπτώσεων της τεχνητής  νοημοσύνης. Αυτό σημαίνει ότι η τεχνητή νοημοσύνη δεν πρέπει να δημιουργεί μονοπώλια όσον  αφορά την έρευνα, τη γνώση, τα δεδομένα ή την αγορά, ότι δεν πρόκειται να επωφεληθούν από αυτή  την τεχνολογία κάποιοι συγκεκριμένοι ενδιαφερόμενοι ή χώρες ή περιοχές, αλλά η ανθρωπότητα στο  σύνολό της. Επίσης, τότε μια λογική άποψη είναι επίσης ο αντίκτυπος στον πολιτισμό και στο  περιβάλλον. Αυτό σημαίνει ότι η τεχνητή νοημοσύνη δεν έχει αρνητικές επιπτώσεις στον πολιτισμό,  την ποικιλομορφία, την αναπτυξιακή κληρονομιά και επίσης στο περιβάλλον. Και στη συνέχεια  υπάρχει ένα σύνολο τεσσάρων ή πέντε απόψεων που στην πραγματικότητα όλες ασχολούνται με την  ηθική της τεχνητής νοημοσύνης. Η ηθική της τεχνητής νοημοσύνης είναι πολύ σημαντική όσον αφορά  τη δημιουργία ενός αξιακού υπόβαθρου στο οποίο αναπτύξαμε την τεχνητή νοημοσύνη. Και  υπάρχουν και εκείνες οι πτυχές της ηθικής που αφορούν την εκπαίδευση και την ευαισθητοποίηση,  που σημαίνει ότι η τεχνητή νοημοσύνη πρέπει να διδάσκεται στα σχολεία και τα πανεπιστήμια, ώστε  οι μαθητές και οι φοιτητές να εξοικειωθούν με την τεχνολογία της τεχνητής νοημοσύνης. Και ποια  είναι αυτή η σχέση μεταξύ του τεχνολογικού και του κοινωνικού τομέα. Και επίσης πολύ σημαντική  είναι η άποψη σχετικά με τη δεοντολογία της έρευνας για την τεχνητή νοημοσύνη, που σημαίνει ότι  υπάρχει έρευνα, ιδίως στον ιδιωτικό τομέα, η οποία χρηματοδοτείται από ιδιωτικά χρήματα που λαμβάνουν υπόψη την κοινωνική ευθύνη. Επίσης, τα οφέλη της έρευνας όσον αφορά την  ανθρωπότητα, όχι μόνο την αγορά και το συμφέρον για το κέρδος, τότε είναι επίσης μια σημαντική  πτυχή της ηθικής χρήσης της τεχνητής νοημοσύνης. Στην ανάπτυξη, που σημαίνει ότι η τεχνητή  ανάπτυξη θα πρέπει να προσπαθήσει να παρέχει πλατφόρμες που επιτρέπουν τη διεθνή συνεργασία  για την ανάπτυξη της τεχνητής νοημοσύνης. Που σημαίνει ότι η ανάπτυξη της τεχνητής νοημοσύνης  δεν αφορά μόνο τις πλούσιες χώρες, αλλά ότι οι εξελίξεις αυτές εφαρμόζονται και στις φτωχότερες  χώρες που δεν είναι τόσο πλούσιες. Και από αυτή την πολύ σημαντική πτυχή είναι να  δημιουργήσουμε ένα είδος διεθνούς συνεργασίας για την ηθική της τεχνητής νοημοσύνης. Για  παράδειγμα, το φόρουμ της UNESCO είναι ένα πολύ καλό παράδειγμα για αυτό, όταν διάφορες χώρες  με διαφορετικούς ενδιαφερόμενους φορείς συζητούν για το μέλλον της τεχνητής νοημοσύνης και για  το πώς θα τη ρυθμίσουν από την άποψη της ηθικής και της αξίας για την ανάπτυξη της κοινωνίας. Και  από αυτό είναι πολύ σημαντικό να υπάρχει επίσης ένα είδος κυβερνητικού μηχανισμού που να  επιβλέπει την ανάπτυξη της τεχνητής νοημοσύνης σε παγκόσμιο επίπεδο με όρους  συμμετοχικότητας, διαφάνειας, ελέγχου και εξισορρόπησης. Αυτά είναι πολύ σημαντικά, καθώς και  η πολυμερής συνεργασία. Αυτοί οι κυβερνητικοί μηχανισμοί αναφέρονται στο ψηφιακό οικοσύστημα  για την τεχνητή νοημοσύνη, το οποίο περιλαμβάνει υποδομές, ψηφιακές τεχνολογίες, επιλογές  ανταλλαγής γνώσεων και κυρίως συνεργασία με διάφορους ενδιαφερόμενους φορείς ώστε να έχουν  φωνή και να μπορούν να μοιράζονται τις σκέψεις και τις ανησυχίες τους για το πώς θα αναπτυχθεί η  τεχνητή νοημοσύνη στο μέλλον.

Quiz question 1/8

Ο συνεντευξιαζόμενος, Πάμπος Παπαχαραλάμπους, έχει συμμετάσχει σε ένα ευρύ φάσμα έργων που σχετίζονται κυρίως με τεχνολογίες πληροφορικής και επικοινωνιών, τις λεγόμενες ΤΠΕ. Είναι ο ιδρυτής και διευθύνων σύμβουλος της Novum International, η οποία είναι μια μικρή εταιρεία στην ανάπτυξη λογισμικού και συμβουλευτικών υπηρεσιών ΤΠΕ.


Quiz question 1/1

You have completed the Quiz!

Loading...

Μεταγραφή

Θα μπορούσατε λοιπόν να μας πείτε περισσότερα για τα βασικά στοιχεία της τεχνητής νοημοσύνης,  των αλγορίθμων και της γνωστικής προκατάληψης; Ναι, εντάξει. Η τεχνητή νοημοσύνη (AI) γίνεται  ένα ακόμη σύνθημα της εποχής. Έτσι, αν προσπαθήσουμε να δούμε τι πραγματικά σημαίνει AI και τι  σημαίνει, a για τεχνητή, I για νοημοσύνη. Τεχνητή σημαίνει μια μηχανή, κάτι που δεν είναι ένας  άνθρωπος ή οποιοδήποτε άλλο ζωντανό. Νοημοσύνη, δηλαδή η διαδικασία σκέψης που μας  επιτρέπει να καταλαβαίνουμε τη γλώσσα, να κατανοούμε την ομιλία, να κατανοούμε το περιβάλλον  γύρω μας και να λαμβάνουμε αποφάσεις. Τώρα, μια από τις βασικές ιδέες της νοημοσύνης είναι ότι  θεωρούμε κάτι ευφυές αν έχει την ικανότητα να αποκτά γνώσεις, δηλαδή να μαθαίνει κάτι, και στη  συνέχεια να είναι σε θέση να εφαρμόζει αυτό που έμαθε προκειμένου να λαμβάνει αποφάσεις  ακαδημαϊκά. Μπορεί να υπάρχουν διαφορετικοί ορισμοί για το τι είναι νοημοσύνη, αλλά ας  υποθέσουμε ότι αυτό που ορίζουμε ως νοημοσύνη είναι η ικανότητα να μαθαίνει κάτι και στη  συνέχεια να εφαρμόζει αυτή τη μάθηση σε κάποια μορφή απόφασης. Η νοημοσύνη στον, ας πούμε,  ακαδημαϊκό κόσμο, είναι καλύτερα κατανοητή και ερευνάται από ψυχολόγους ή κοινωνιολόγους ή  άλλους κλάδους του ακαδημαϊκού χώρου. Αλλά η τεχνητή νοημοσύνη είναι καλύτερα κατανοητή από  τους επιστήμονες υπολογιστών, τους αναλυτές δεδομένων και τους μαθηματικούς, τουλάχιστον  σήμερα. Ο λόγος είναι ότι έχουμε τεράστιους επιστημονικούς κλάδους για να προσπαθήσουμε να  κατασκευάσουμε μηχανές που εφαρμόζουν με κάποιο τρόπο αυτή τη βασική έννοια της νοημοσύνης.  Έτσι, με τον ίδιο τρόπο που εμείς οι άνθρωποι μαθαίνουμε διαβάζοντας ή επεξεργαζόμενοι τις  προηγούμενες εμπειρίες μας, ένα σύστημα τεχνητής νοημοσύνης θα πρέπει να είναι σε θέση να  μαθαίνει αναλύοντας υπάρχοντα σύνολα δεδομένων και να προσπαθεί να εκτελεί εργασίες  νοημοσύνης. Τώρα, πρέπει να γνωρίζετε ότι οι αλγόριθμοι ΤΝ, όπως και κάθε άλλος, φυσικά,  αναπτύσσονται από ανθρώπους και επομένως θα μπορούσαν να φέρουν τις ίδιες προκαταλήψεις και  περιορισμούς που φέρει η ανθρώπινη σκέψη, σωστά; Έτσι, με τον ίδιο τρόπο που η σκέψη των  ανθρώπων μπορεί να στρεβλώνεται από γνωστικές προκαταλήψεις, ο αλγόριθμος AI alpha, μπορεί  επίσης να φτάσει στις ίδιες προκατειλημμένες αποφάσεις. Έτσι, αν πάρουμε μερικά παραδείγματα  εταιρικών προκαταλήψεων που εντοπίζονται σήμερα από τον κόσμο της ψυχολογίας, ας πούμε, της  ακαδημαϊκής κοινότητας, και ας πάρουμε, για παράδειγμα, έναν αγώνα ποδοσφαίρου, η ομάδα μας  θα κερδίσει σίγουρα απόψε, σωστά; Κερδίζουμε τον αποψινό μας αντίπαλο τα τελευταία 20 χρόνια,  οπότε δεν υπάρχει περίπτωση να χάσουμε το αποψινό παιχνίδι. Τώρα, αυτή είναι μια γνωστική  προκατάληψη που μπορεί να συμβεί κατά τη διάρκεια της λογικής σκέψης ενός ανθρώπου. Αλλά η  ίδια γνωστική προκατάληψη μπορεί να συμβεί και με έναν αλγόριθμο τεχνητής νοημοσύνης. Ακριβώς  λόγω του γεγονότος ότι αν οι μόνες πληροφορίες που τροφοδοτούμε τους αλγορίθμους τεχνητής  νοημοσύνης είναι οι πληροφορίες που έχασε ο αντίπαλός μας από εμάς κατά τη διάρκεια των  τελευταίων 20 ετών, οι πιθανότητες είναι ότι ο αλγόριθμος τεχνητής νοημοσύνης, θα καταλήξει στο  ίδιο συμπέρασμα στο οποίο κατέληξε ο άνθρωπος. Έτσι, όποιες πληροφορίες και αν δώσουμε στον  αλγόριθμο ΑΙΑ, ο αλγόριθμος αυτός θα προσπαθήσει να καταλήξει σε κάποια απάντηση και με βάση,  αλλά μόνο με βάση τις πληροφορίες που αγοράζουμε. Έτσι, αν προσπαθήσουμε τώρα να διδάξουμε  τον αλγόριθμο ΑΙΑ να εντοπίζει, ας πούμε, έξυπνους ανθρώπους αναλύοντας τα χαρακτηριστικά του  προσώπου τους, εντάξει, και τροφοδοτούμε αυτόν τον αλγόριθμο με εικόνες νεαρών λευκών ανδρών  και λέμε σε αυτόν τον αλγόριθμο, εντάξει, τώρα πήγαινε να μελετήσεις αυτές τις εικόνες. Και μετά,  όταν σας ρωτήσουμε, όταν σας δώσουμε μια άλλη νέα εικόνα, θα μας πείτε αν αυτό το άτομο είναι  έξυπνο ή όχι. Μπορεί να είναι έξυπνος ή όχι. Λοιπόν, οι πιθανότητες είναι ότι αν τροφοδοτούσαμε  τον αλγόριθμο μόνο με εικόνες νεαρών λευκών ανδρών, οι πιθανότητες είναι ότι αν δώσουμε σε  αυτόν τον αλγόριθμο μια ώριμη μαύρη γυναίκα ως εικόνα, οι πιθανότητες είναι ότι αυτός ο  αλγόριθμος τεχνητής νοημοσύνης θα έχει την ίδια προκατάληψη και θα μας πει λίγο πολύ ότι αυτή η  γυναίκα δεν μπορεί να είναι έξυπνη. Επομένως, είναι σημαντικό να το κατανοήσουμε αυτό. Και δεν  έχει σημασία πόσο μαγικά πιστεύουμε ότι θα αποδώσει ο αλγόριθμος. Βασικά φτάνει σε μια απάντηση με βάση το μέγεθος και την ποιότητα των δεδομένων που δίνουμε. Έτσι, αυτή είναι η δική  μου, ας πούμε, λίγο πολύ η απάντηση στο ερώτημα του πόσο πειστική μπορεί να είναι η  προκατάληψη μπορεί να επηρεάσει την ΤΝ, καθώς και να καταλήξει σε στρεβλά αποτελέσματα.

Quiz question 1/8

Τι σημαίνει ακριβώς ο όρος Τεχνητή Νοημοσύνη;





Quiz question 1/8

Τι ακριβώς σημαίνει νοημοσύνη στον όρο Τεχνητή Νοημοσύνη;





Quiz question 1/8

Μέχρι στιγμής, η τεχνητή νοημοσύνη έχει ερευνηθεί εκτενέστερα από:





Quiz question 1/1

You have completed the Quiz!

Loading...

Μεταγραφή

Και θα μπορούσατε τώρα να επεκταθείτε στην ηθική χρήση της τεχνητής νοημοσύνης; Υπάρχουν κάποιες εφαρμογές τεχνητής νοημοσύνης με ηθικές επιπτώσεις; Εντάξει. Καθώς όλο και περισσότερες μηχανές εκτελούν όλο και πιο πολύπλοκες εργασίες στις μέρες μας, αυτό κατευθύνει αμέσως το μυαλό των ανθρώπων στη χρήση μηχανών σε αντικατάσταση της ανθρώπινης εργασίας. Αυτό είναι το πρώτο πράγμα που έρχεται στο μυαλό των ανθρώπων, και είναι μια εύλογη ανησυχία. Είναι οι ίδιες ανησυχίες που διατυπώθηκαν κατά τη διάρκεια της Βιομηχανικής Επανάστασης, και σήμερα τις βλέπουμε και πάλι ως επίκαιρες. Είναι δύσκολο να επιτρέψουμε σε μηχανές να θερίζουν το σιτάρι αντί να βασιζόμαστε στα χέρια των ανθρώπων; Είναι δύσκολο να επιτρέψουμε στα ρομπότ να αντικαταστήσουν τους ανθρώπινους εργάτες στις γραμμές συναρμολόγησης αυτοκινήτων; Έτσι, αυτά τα βασικά ίδια ερωτήματα τα βλέπουμε να επανέρχονται, αλλά τώρα σε ένα πιο, ας πούμε, σύνθετο περιβάλλον, καθώς οι μηχανές έχουν πλέον αναπτυχθεί, εκτελούν πιο σύνθετες εργασίες. Έτσι, αν οι άνθρωποι έπρεπε να προσαρμοστούν στο νέο περιβάλλον που δημιουργούν οι μηχανές στο εργατικό δυναμικό, θα έπρεπε να περάσουν από μια άλλη διαδικασία αναπροσαρμογής πολύ σύντομα. Για παράδειγμα, πού θα έβρισκαν δουλειά οι οδηγοί φορτηγών, αν τα φορτηγά οδηγούν πλέον μόνα τους; Σωστά. Πού θα έβρισκαν δουλειά οι οδηγοί λεωφορείων αν τα λεωφορεία οδηγούνταν από λογισμικό τεχνητής νοημοσύνης; Πού θα μπορούσε να απασχοληθεί ένας πιλότος αεροπλάνου αν τα αεροπλάνα πετούσαν μόνα τους; Έτσι, όσο πιο σύνθετες είναι πλέον οι εργασίες που αναπτύσσονται και εκτελούνται από μηχανές, τόσο περισσότερο απειλούνται αυτού του είδους οι θέσεις εργασίας. Και δεν πρόκειται πλέον μόνο για σκληρή εργασία. Θέλω να πω, γιατί να γίνει κάποιος γιατρός αν ένα ρομπότ μπορεί να εκτελέσει την ίδια επέμβαση καλύτερα από οποιονδήποτε άνθρωπο, σωστά; Επομένως, αυτές οι ανησυχίες είναι βάσιμες. Και φυσικά, υπάρχουν και άλλα παραδείγματα που εγείρουν ζητήματα ηθικής στη χρήση της τεχνητής νοημοσύνης στη ζωή μας. Δεν είναι μόνο το εργατικό δυναμικό. Δεν θα έπρεπε να μας απασχολεί η χρήση μηχανών που χρησιμοποιούνται για την ασφάλειά μας; Πρώτον, μπορούμε να είμαστε σίγουροι ότι το λογισμικό τεχνητής νοημοσύνης που τροφοδοτεί μια κάμερα ασφαλείας σε ένα αεροδρόμιο έχει λάβει τη σωστή απόφαση για τον εντοπισμό των τρομοκρατών; Μπορούμε να είμαστε σίγουροι ότι το σύστημα ασφαλείας σε ένα εμπορικό κέντρο ακολουθεί τον πραγματικό κλέφτη μέχρι το αυτοκίνητό του και όχι κάποιον άλλο αθώο περαστικό; Επομένως, αυτά τα ζητήματα είναι έγκυρα. Υπάρχουν πολλές ηθικές ανησυχίες στον χώρο της τεχνητής νοημοσύνης, όχι μόνο μέσω τομέων όπως η απασχόληση ή η ασφάλεια, αλλά και στη χρήση στρατιωτικών όπλων επίσης. Δεν θα έπρεπε να μας ανησυχεί, για παράδειγμα, το γεγονός ότι τα οπλισμένα μη επανδρωμένα αεροσκάφη κάνουν σήμερα τις μάχες για εμάς; Είμαστε σίγουροι ότι ο αυριανός αυτόνομος ρομποτικός στρατιώτης θα είναι σε θέση να διακρίνει τον εχθρό από τον φίλο; Έτσι, αυτοί είναι πολύ έγκυροι πελάτες. Και κάθε φορά που συμβαίνει κάτι μεγάλο, συμβαίνει μια αλλαγή στους κλάδους γενικά. Κάθε φορά που συμβαίνει κάτι μαγικό, τότε υπάρχει και η πιθανότητα αρνητικών επιπτώσεων από τη χρήση του. Έτσι, η βιομηχανία πρέπει τελικά να βρει έναν τρόπο να χρησιμοποιήσει την τεχνητή νοημοσύνη για το καλό της κοινωνίας στην οποία ζούμε.

Quiz question 1/8

Ένα σύστημα τεχνητής νοημοσύνης μαθαίνει αναλύοντας σύνολα δεδομένων και προσπαθώντας να εκτελέσει έξυπνες εργασίες, με τον ίδιο τρόπο όπως οι άνθρωποι.




Quiz question 1/8

Δεδομένου ότι οι αλγόριθμοι ΤΝ αναπτύσσονται από ανθρώπους, θα μπορούσαν να φέρουν τις ίδιες προκαταλήψεις και περιορισμούς.




Quiz question 1/8

Δεν είναι σημαντικό να κατανοήσουμε τη γνωστική προκατάληψη.




Quiz question 1/8

Οι προκαταλήψεις των αλγορίθμων ΤΝ εξαρτώνται από την ποσότητα, τον τύπο και την ποιότητα των δεδομένων που τροφοδοτούμε στο σύστημα.




Quiz question 1/1

You have completed the Quiz!

Loading...

Μεταγραφή

Και έτσι αναφέρατε ήδη τον αντίκτυπο στην τεχνητή νοημοσύνη, στην απασχόληση, στην ασφάλεια, στην πρόνοια, στη στρατιωτική θητεία, και κρατούν επίσης για νέους νόμους της ρομποτικής σε άλλους τομείς εκτός από αυτόν τον τομέα του δρόμου που αναφέρατε. Ναι, αυτό το θέμα των κανόνων και των νόμων για τη ρομποτική. Δεν είναι εύκολο να λυθεί. Βρισκόμαστε σε αχαρτογράφητο έδαφος όταν πρόκειται για ένα ευρέως αποδεκτό σύνολο κανόνων που θα πρέπει να καθορίζουν το ηθικό πλαίσιο για το πώς θα πρέπει να λειτουργούν τα ρομπότ, ακόμη και σε τομείς εκτός του στρατού, αλλά και στο χώρο της ασφάλειας, στο χώρο της ευημερίας των ηλικιωμένων, ας πούμε στο χώρο της προσωπικής ασφάλειας. Στο σπίτι, θα δούμε ρομπότ που θα αρχίσουν να παίρνουν αποφάσεις για εμάς. Όπως είπα και προηγουμένως, πρόκειται για έναν πολύ νέο τομέα, και παρόλο που υπάρχουν ομάδες τόσο στον ακαδημαϊκό χώρο, όσο και στη βιομηχανία, αλλά και στις κυβερνήσεις, που προσπαθούν να αγγίξουν αυτούς τους κανόνες, αυτό βρίσκεται σε πολύ, πολύ πρώιμο στάδιο αυτή τη στιγμή. Αυτή τη στιγμή, η συζήτηση γίνεται για το τι πρέπει ή δεν πρέπει να κάνει το ρομπότ. Για παράδειγμα, ένα ρομπότ δεν θα πρέπει να βλάψει έναν άλλο άνθρωπο. Αυτό θα μπορούσε να είναι μια πρωταρχική, ας πούμε, οδηγία για μια μηχανή. Αλλά ταυτόχρονα, ένα ρομπότ θα πρέπει να υπακούει τον ιδιοκτήτη και τον δημιουργό του. Οπότε αυτή είναι μια άλλη οδηγία, πρωταρχική οδηγία για ένα ρομπότ. Τι γίνεται όμως αν ο ιδιοκτήτης του ρομπότ δίνει οδηγίες στο ρομπότ που είναι εκτός της κύριας οδηγίας του; Τι γίνεται λοιπόν αν ζητηθεί από το ρομπότ να βλάψει έναν άλλο άνθρωπο; Σωστά, αλλά θα πρέπει να περιορίσουμε το πεδίο εφαρμογής της βλάβης σε έναν άνθρωπο; Τι γίνεται αν ζητηθεί από το ρομπότ να βλάψει ένα ζώο; Ή αν ζητηθεί από το ρομπότ να βλάψει ένα άλλο ρομπότ; Τι γίνεται αν το ρομπότ πρέπει να βλάψει έναν άνθρωπο για να προστατεύσει έναν άλλο άνθρωπο; Αυτά λοιπόν είναι ηθικά ερωτήματα που δεν είναι εύκολο να απαντηθούν. Και δεν είναι εύκολα ακόμη και αν απαντηθούν. Δεν είναι τόσο εύκολο να τεθούν σε έναν αλγόριθμο. Μην ξεχνάτε λοιπόν ότι τελικά, όλοι αυτοί οι κανόνες του πλαισίου, πρέπει να μεταφραστούν σε μια μαθηματική, ας πούμε, εξίσωση. Σωστά; Έτσι, αυτό είναι ένα πολύ δύσκολο πράγμα που πρέπει να γίνει. Παρόλο που θα ήταν καλύτερο για την ανθρωπότητα να ορίσει αυτούς τους κανόνες πριν και όχι εκ των υστέρων, δεν πιστεύω ότι αυτό είναι εύκολη υπόθεση. Οι εταιρείες μάχονται για την κυριαρχία των προϊόντων σε παγκόσμιο επίπεδο. Οι χώρες μάχονται για στρατιωτική κυριαρχία σε παγκόσμιο επίπεδο και πάλι. Έτσι, θα ήταν δύσκολο να φτιαχτούν κανόνες που θα μπορούσαν να συμφωνηθούν από όλους και στη συνέχεια να επιβληθούν από όλους, εξαιτίας ακριβώς του τρόπου με τον οποίο λειτουργεί η κοινωνία και η ανθρωπότητα. Ένα πιο πιθανό σενάριο θα ήταν μάλλον ότι αυτό το σύνολο αποδεκτών κανόνων θα πρέπει να καθοριστεί και να επιβληθεί τουλάχιστον εκ των υστέρων. Θέλω να πω, αφού είδαμε ότι ο χημικός πόλεμος κατά τη διάρκεια του Πρώτου Παγκοσμίου Πολέμου ήταν ανήθικος κώδικας και κώδικας, σχεδιάσαμε το πλαίσιο γύρω από αυτό. Αμέσως μετά τη ρίψη της πυρηνικής βόμβας, είδαμε ότι έπρεπε να την ελέγξουμε. Έτσι, ίσως χρειαστεί να βιώσουμε την πρώτη, ας πούμε, καταστροφή για να αναγκαστούμε να ορίσουμε τους κανόνες που θα διέπουν τη συμπεριφορά του ρομπότ. Ελπίζουμε απλώς ότι αυτή η εμπειρία της πρώτης καταστροφής δεν είναι δεν είναι μια πραγματικά κακή κίνηση. Αλλά προσωπικά, βλέπω ότι, παρόλο που υπάρχουν προσπάθειες να καθοριστούν αυτοί οι κανόνες από την αρχή, πιστεύω ότι αυτό είναι ένα πολύ μη πρακτικό έργο για να λυθεί.

Μεταγραφή

Ας κάνουμε ένα βήμα πίσω και δούμε τι είναι ο τελευταίος Αλγόριθμος, εντάξει; Και να προσπαθήσουμε να δούμε, να διακρίνουμε μεταξύ του τι μπορεί να κάνει ένας αλγόριθμος για τους ανθρώπους, αλλά και τι μπορούν να κάνουν οι άνθρωποι με τη χρήση αλγορίθμων. Έτσι, με έναν κανονικό αλγόριθμο, αυτές οι δύο, ας πούμε, εργασίες είναι λίγο πολύ διακριτές. Έτσι, αυτό που μπορεί να κάνει ο αλγόριθμος για τους ανθρώπους, είναι ένα πράγμα. Το τι μπορούν να κάνουν οι άνθρωποι με αυτόν τον αλγόριθμο, είναι ένα ξεχωριστό πράγμα. Έτσι, για να γράψει ένας επιστήμονας της πληροφορικής έναν αλγόριθμο, θα σας ζητήσει και τους κανόνες που θέλετε να υπακούει αυτός ο αλγόριθμος, σωστά; Έτσι, ας πούμε ότι θέλετε έναν αλγόριθμο που όταν του δίνεται ο όγκος σε ηγέτες, θα σας δίνει πίσω τον όγκο σε γαλόνια. Εντάξει; Έτσι, ο προγραμματιστής λογισμικού θα σας ζητήσει τον κανόνα που διέπει αυτή τη σχέση μεταξύ ηγετών και όπλων. Και θα χρησιμοποιήσει αυτόν τον κανόνα για να γράψει αυτόν τον αλγόριθμο ώστε όλοι να γνωρίζουν το αποτέλεσμα, ποιο θα είναι το αποτέλεσμα, υπό την προϋπόθεση ότι ο αλγόριθμος συμμορφώνεται με αυτούς τους κανόνες και λειτουργεί σωστά. Εντάξει; Τώρα αυτό είναι αυτό που θα αποκαλούσα έναν κανονικό αλγόριθμο. Αν τώρα η χρήση αυτού του αλγορίθμου μπορεί να βάλει τους ανθρώπους σε μπελάδες, τότε δεν φταίει ο αλγόριθμος, αλλά η χρήση του αλγορίθμου. Ας πούμε, λοιπόν, για παράδειγμα, ότι αυτό το λογισμικό που γράψαμε χρησιμοποιείται σε ένα αεροπλάνο και υπάρχει ένας διακόπτης στο αεροπλάνο που λέει, εντάξει, όταν ανοίγετε τον διακόπτη, μπορώ να σας εμφανίσω τα καύσιμα σε γαλόνια. Όταν κατεβάζετε τον διακόπτη, μπορώ να εμφανίσω το καύσιμο που έχει το αεροπλάνο στη δεξαμενή του σε λίτρα. Και ας υποθέσουμε τώρα ότι ο διακόπτης είναι σε λάθος θέση και το PILER ζητάει γαλόνια αντί για λίτρα και απογειώνεται. Λοιπόν, οι πιθανότητες είναι ότι θα πρέπει να κάνει αναγκαστική προσγείωση κάπου αλλού πριν από τον αρχικό του προορισμό. Τι κάνετε λοιπόν; Σε αυτή την περίπτωση; Έχετε έναν αλγόριθμο που λειτουργεί σωστά, αλλά η χρήση του τον έκανε να λειτουργήσει. Οπότε σε αυτή την περίπτωση, παρεμβαίνει η ρυθμιστική αρχή, παρεμβαίνει η βιομηχανία και εκπαιδεύετε σωστά τους πιλότους. Βεβαιώνεστε ότι ελέγχει αν το αεροπλάνο έχει αρκετά καύσιμα πριν απογειωθεί. Βάζετε κανονισμούς για να αναγκάσετε την επίγεια υπηρεσία ανεφοδιασμού καυσίμων να βεβαιωθείτε ότι το αεροπλάνο έχει αρκετά καύσιμα για να φτάσει έτσι ώστε να ξέρουμε πώς να χειριστούμε, ας πούμε, όλα τα ρυθμιστικά ζητήματα που πρέπει να χειριστούμε σε έναν κανονικό κώδικα χωρίς εισαγωγικά αλχημιστή. Τώρα, τι συμβαίνει με τον αλγόριθμο τεχνητής νοημοσύνης; Λοιπόν, ας πάρουμε για παράδειγμα έναν αλγόριθμο μηχανικής μάθησης. Σε αυτή την περίπτωση, σχεδιάζετε τον αλγόριθμο με κάποιες βασικές παραμέτρους και λέτε στον αλγόριθμο τι δεδομένα έχετε. Απλώς προσαρμόζετε στον αλγόριθμο δέσμη δεδομένων και στη συνέχεια τον εκτελείτε. Η διαφορά με αυτόν τον τύπο αλγορίθμου είναι ότι το σύστημα άλλαξε μόνο του με βάση τις παραμέτρους και τα δεδομένα που δώσατε. Έτσι, δεν μπορείτε πραγματικά να προβλέψετε το αποτέλεσμα των αλγορίθμων. Αν είχατε αρκετό χρόνο για έναν άνθρωπο να εξετάσει τα δεδομένα που του δώσατε και να εξετάσει τις παραμέτρους και να εκτελέσει τους υπολογισμούς γραμμή προς γραμμή σε ένα κομμάτι χαρτί, τότε ναι, θα προβλέπαμε, ας πούμε θα κάναμε τις ίδιες προβλέψεις που έκανε ο αλγόριθμος. Αλλά είναι αδύνατο για έναν άνθρωπο να τρέξει μέσα από αυτόν τον μεγάλο όγκο δεδομένων με τις παραμέτρους που δώσατε στον αλγόριθμο να δουλέψει. Έτσι, στο τέλος της ημέρας, το αποτέλεσμα που βγαίνει από έναν αλγόριθμο τεχνητής νοημοσύνης θα μπορούσε να θεωρηθεί απρόβλεπτο. Θα μπορούσαμε να έχουμε ένα αποτέλεσμα που δεν περιμέναμε. Και εδώ είναι που πρέπει να έρθει η ηθική μέσα στα αποτελέσματα. Γιατί φανταστείτε τώρα ότι είστε το Υπουργείο Υγείας μιας χώρας και ζητάτε από μια εταιρεία τεχνητής νοημοσύνης να βγάλει ένα αποτέλεσμα που εξετάζει τα δημογραφικά στοιχεία του πληθυσμού και εξετάζει τον αριθμό των διαθέσιμων δωρητών οργάνων. Και θέλουμε ο αλγόριθμος να προτείνει ποιος θα κάνει μεταμόσχευση καρδιάς, για παράδειγμα, και ποιος δεν θα κάνει μεταμόσχευση καρδιάς. Έτσι, βάζετε πράγματα όπως η ηλικία, πράγματα όπως η πιθανότητα να έχει, ας πούμε, υψηλή πιθανότητα να αποδεχθεί αυτό το σχέδιο εμπιστοσύνης, και βάζετε ένα σωρό παραμέτρους, και στη συνέχεια δίνετε όλα τα δημογραφικά δεδομένα των χωρών σε αυτόν τον αλγόριθμο και τον αφήνετε να τρέξει. Έτσι, τα ηθικά ερωτήματα απαιτείται τώρα να απαντηθούν από τους ανθρώπους που έγραψαν τον αλγόριθμο και όχι από τους ανθρώπους που απλώς τον χρησιμοποιούν. Ενώ σε έναν κανονικό αλγόριθμο, μπορούμε να αναθέσουμε την ευθύνη λήψης της απόφασης στους ανθρώπους που χρησιμοποιούν το λογισμικό. Ρίχνουμε στην έκδοση της τεχνητής νοημοσύνης την έκδοση της μηχανικής μάθησης του αλγορίθμου. Λοιπόν, βασικά, ο αλγόριθμος λαμβάνει την απόφαση για εμάς. Γι’ αυτό λοιπόν πρέπει να αρχίσουμε να σκεφτόμαστε να βάζουμε κανόνες δεοντολογίας ενσωματωμένους στους ίδιους τους αλγορίθμους. Και όπως είπαμε προηγουμένως, αυτό είναι εύκολο πράγμα, διότι πώς αποκωδικοποιείτε όλες αυτές τις ηθικές απαντήσεις σε μια μαθηματική εξίσωση; Και αυτός ο αλγοριθμικός όρος και χώρος είναι ένας νέος χώρος. Ερευνάται τώρα σε ακαδημαϊκό, σε ακαδημαϊκό επίπεδο. Φτάνει, αγγίζει λίγο τη βιομηχανία, αλλά σίγουρα δεν έχει φτάσει ακόμα εκεί. Επομένως, χρειάζεται ακόμη χρόνο. Ναι. Σας ευχαριστώ πολύ για αυτή τη συνεισφορά σχετικά με τη σημασία της αλγοριθμικής.

Μεταγραφή

Τώρα θα περάσουμε σε συγκεκριμένες ερωτήσεις σχετικά με την τεχνητή νοημοσύνη και τις κοινωνικές προκλήσεις. Θα μπορούσατε λοιπόν να μας πείτε περισσότερα για την υποβοηθούμενη, την επαυξημένη και την αυτόνομη νοημοσύνη; Ναι. Εντάξει, λοιπόν, όπως είπαμε προηγουμένως, αν πάρουμε ένα ρομπότ, για παράδειγμα, που κάνει μια συγκεκριμένη δουλειά αυτή τη στιγμή, το ρομπότ που εργάζεται στη γραμμή συναρμολόγησης αυτοκινήτων δεν θεωρείται πραγματικά ως ρομπότ με έναν αλγόριθμο τεχνητής νοημοσύνης μέσα του. Έχουμε δει αυτά τα ρομπότ να εργάζονται στη βιομηχανία εδώ και πολλά χρόνια, πριν ακόμη γίνει δημοφιλές αυτό το νέο κύμα μεθόδων τεχνητής νοημοσύνης. Τι συμβαίνει λοιπόν σε αυτόν τον χώρο; Λοιπόν, πρόκειται για μια εργασία, για μια επαναλαμβανόμενη εργασία, για μια εργασία που είναι εύκολα αναπαραγώγιμη και που γίνεται αποδεκτή από τη βιομηχανία ως ένα ακίνδυνο κομμάτι εξοπλισμού. Τώρα, τα πλεονεκτήματα για την ύπαρξη ενός τέτοιου μηχανήματος είναι ότι, λοιπόν, αφαιρούμε αυτή την υψηλής έντασης εργασιακή δραστηριότητα από τους ανθρώπους και αφήνουμε τις μηχανές να κάνουν τις βαρετές και ανθυγιεινές εργασίες και επιτρέπουμε στους ανθρώπους να εργάζονται σε πιο παραγωγικά και ασφαλή περιβάλλοντα. Τώρα, το μειονέκτημα είναι ότι, φυσικά, εντάξει, αυτό το ρομπότ που έχουμε σε αυτή τη γραμμή συναρμολόγησης έχει ουσιαστικά καταλάβει την εξέχουσα ευκαιρία των ανθρώπων που είμαστε ικανοί και πρόθυμοι να κάνουμε αυτές τις εργασίες. Έτσι, τα πράγματα είναι, ας πούμε, αποδεκτά όσον αφορά τη χρήση μιας μηχανής που εκτελεί μια επαναλαμβανόμενη εργασία χειρωνακτικής εργασίας σε μια συγκεκριμένη βιομηχανία. Τώρα, το πρόβλημα περιπλέκεται περισσότερο όταν έχουμε ένα ρομπότ ή μια μηχανή που λαμβάνει αυτόνομα αποφάσεις και λειτουργεί με έναν πιο, ας πούμε, κώδικα και κώδικα νοημοσύνης. Φανταστείτε λοιπόν τώρα ότι δεν έχετε μια γραμμή συναρμολόγησης και έχετε ένα ρομπότ το οποίο έχει τη νοημοσύνη να εκτελεί τις εργασίες που εκτελεί σήμερα το κανονικό ρομπότ, αλλά επίσης αποφασίζει ότι ο σχεδιασμός του πραγματικού αυτοκινήτου πρέπει να αλλάξει. Ας πούμε λοιπόν ότι το ρομπότ έχει τώρα τη δυνατότητα να σχεδιάζει το αυτοκίνητο με έναν πιο αεροδυναμικό τρόπο, ας πούμε, και αποφασίζει μόνο του, αυτόνομα, ότι το σχήμα του αυτοκινήτου πρέπει να αλλάξει. Και φυσικά το ρομπότ θα έχει τώρα τη δυνατότητα να κάνει την αλλαγή του σχεδιασμού και ταυτόχρονα να κατασκευάσει το αυτοκίνητο. Εντάξει, το πλεονέκτημα θα είναι ότι ίσως βρει ένα καλύτερο σχέδιο και προσφέρει καλύτερη απόδοση καυσίμου ή οτιδήποτε άλλο. Αλλά το μειονέκτημα είναι ότι, πρώτα απ’ όλα, θα εκτοπίσουμε κάποιες περισσότερες θέσεις εργασίας τώρα από το εργατικό δυναμικό. Ίσως βγάλαμε τώρα τον σχεδιαστή, αλλά ταυτόχρονα, δεν είμαστε σίγουροι αν αυτές οι αλλαγές που προτείνει τώρα αυτό το νέο ρομπότ θα είναι πραγματικά ασφαλείς. Έτσι, ναι, μπορεί να έχουμε καλύτερη απόδοση, οικονομία καυσίμου, αλλά θα είναι πιο ασφαλές ή ασφαλές ή το ίδιο ασφαλές για τον οδηγό και τους επιβάτες; Έτσι, και πάλι, όλα πρέπει να έχουν μια ισορροπία. Υπάρχουν πλεονεκτήματα, υπάρχουν μειονεκτήματα και γι’ αυτό υπάρχουν κίνδυνοι, απειλές και προκλήσεις. Ταυτόχρονα, όμως, υπάρχουν και ευκαιρίες.

Μεταγραφή

Αναφέρατε ήδη κάποιες ευκαιρίες και κάποιους κινδύνους και απειλές. Κατά τη γνώμη σας, ποιες είναι οι πιο σημαντικές κοινωνικές ανησυχίες; Νομίζω ότι προσωπικά, αυτό που με ανησυχεί πραγματικά είναι τα πράγματα που έρχονται σε αυτό επηρεάζει την ασφάλεια των ανθρώπων. Δηλαδή πράγματα όπως η αγορά εργασίας και η απασχόληση. Νομίζω ότι τελικά η ανθρωπότητα θα βρει το δρόμο της και αν είμαστε αρκετά προσεκτικοί, μπορούμε να βρούμε απαντήσεις σε αυτά τα προβλήματα, επειδή η τεχνολογία θα είναι πάντα εκεί. Το έχουμε περάσει ξανά και είμαι αισιόδοξος ότι θα βρούμε απάντηση σε αυτά τα ερωτήματα με τον έναν ή τον άλλο τρόπο. Όταν πρόκειται για πράγματα όπως η ασφάλεια, η ασφάλεια των ανθρώπων είναι ένα από τα δυσκολότερα προβλήματα που πρέπει να λυθούν. Και σε αυτό το σημείο νομίζω ότι πρέπει να δώσουμε μεγαλύτερη προσοχή. Για παράδειγμα, τι θα συμβεί αν έχουμε έναν ιό σε ένα αυτοκίνητο και αυτό το αυτοκίνητο οδηγεί τώρα τη μητέρα μου κάθε μέρα στο παντοπωλείο; Τι θα συμβεί αν αυτό το κομμάτι λογισμικού καταληφθεί από μια τρομοκρατική οργάνωση; Τι θα συμβεί αν το λογισμικό είναι λάθος από το σχεδιασμό, δεν έχει δοκιμαστεί σωστά; Και τότε κάτι συμβαίνει κατά τη διάρκεια αυτού του ταξιδιού της μητέρας μου στο παντοπωλείο και τότε έχουμε ένα ατύχημα. Το ίδιο είδος προβλήματος που επηρεάζει την ασφάλεια και την προστασία των ανθρώπων. Φυσικά, πολλαπλασιάζεται επί 1000 όταν φτάνουμε στη χρήση μηχανών στον πόλεμο. Έτσι, αυτή τη στιγμή έχουμε μη επανδρωμένα αεροσκάφη που οδηγούνται από ένα σωρό joystick που κάθεται στην άλλη άκρη του κόσμου. Και αυτό το μη επανδρωμένο αεροσκάφος τώρα οδηγείται από αυτόν τον πιλότο. Και ο πιλότος παίρνει την απόφαση για το πού θα ρίξει τις βόμβες του. Τι συμβαίνει τώρα όταν αυτό το drone έχει την άδεια να αποφασίζει μόνο του; Πώς περνάτε αυτά τα ηθικά ερωτήματα στο λογισμικό του drone; Είναι τα ίδια προβλήματα που ο πόλεμος αμφισβητήθηκε κάθε φορά που ένα νέο διαδικτυακό τηλέφωνο γίνεται διαθέσιμο στις μάζες. Επομένως, αυτού του είδους οι αποφάσεις που επηρεάζουν την ασφάλεια και την ευημερία των ανθρώπων, νομίζω ότι αυτοί είναι οι κύριοι τομείς που πρέπει να εξεταστούν. Και είναι πιθανώς οι πιο καυτές περιοχές στις οποίες μπορούμε να χρηματοδοτήσουμε.

Μεταγραφή

Και έχετε ήδη παρουσιάσει ορισμένα παραδείγματα σε διάφορους τομείς. Θα μπορούσατε να μας δώσετε ίσως μερικά ακόμη παραδείγματα σχετικά με την αναγνώριση προσώπου, τη δικαιοσύνη και τις προκλήσεις των κοινωνικών δικτύων; Ναι, η αναγνώριση προσώπου, είναι ένα πρόβλημα που έχει βρεθεί, διαπιστωθεί και τεθεί επανειλημμένα τα τελευταία χρόνια. Θα μπορούσατε να πείτε ότι ξεκίνησε άμεσα ως ανάγκη εντοπισμού λύσεων στο χώρο της ασφάλειας, αλλά αποδεικνύεται ότι τώρα είναι σε όλους τους διαφορετικούς κλάδους, γύρω από την τεχνολογία. Ας πούμε βιομηχανία. Ας πούμε, για παράδειγμα, ότι εκπαιδεύουμε ένα σύστημα να χρησιμοποιεί μια κάμερα που βρίσκεται στην είσοδο του εμπορικού κέντρου και θέλουμε να δούμε αν το άτομο που μπαίνει στο εμπορικό κέντρο έχει COVID ή όχι, σωστά; Έτσι, το COVID 19 είναι ένα πολύ επίκαιρο ζήτημα. Και ας πούμε ότι έχουμε κάποιο σύστημα που εξετάζει το πρόσωπο και αν βρούμε τους αλγόριθμους που μπορώ να αναγνωρίσω μαζί με άλλους αισθητήρες και δεδομένα μπορούμε να αναγνωρίσουμε αν αυτό το άτομο μπορεί να έχει καφέ. Ας πούμε λοιπόν ότι αναγνωρίζουμε ένα άτομο που πίνει καφέ. Ένα καλό επόμενο βήμα θα ήταν, εντάξει, ας δούμε, ας χρησιμοποιήσουμε την αναγνώριση προσώπου με τεχνητή νοημοσύνη και ας βρούμε ποιος είναι αυτό το άτομο. Ας πάμε στο Facebook, ας πάμε σε οποιαδήποτε άλλη κοινωνική πλατφόρμα, ας αναγνωρίσουμε αυτό το άτομο και στη συνέχεια ας δούμε τις φωτογραφίες που αυτό το άτομο έχει δημοσιεύσει στις διάφορες πλατφόρμες κοινωνικής δικτύωσης και ας δούμε ποιοι είναι οι φίλοι αυτού του ατόμου. Και ίσως πρέπει να τους προσεγγίσουμε προκειμένου να δούμε αν έχουν βρεθεί μαζί και θα μπορούσαν να έχουν βρεθεί. Είναι ύποπτοι τώρα για ένα θετικό αποτέλεσμα του τεστ COVID-19. Οπότε πού θα το σταματήσουμε αυτό; Σωστά; Πού θα βάλουμε ένα τέλος σε αυτό; Αν έχουμε κανόνες που έχουν να κάνουν με τα προσωπικά δεδομένα και την ασφάλεια των δεδομένων, λοιπόν, ίσως αυτοί οι κανόνες πρέπει να παραμεριστούν λόγω μιας πανδημίας. Αφήνουμε λοιπόν τους αλγόριθμους να κάνουν όλη αυτή τη δουλειά για εμάς χωρίς κανένα έλεγχο, προσφέρουμε βοήθεια; Αλλά το γεγονός ότι είναι αλγόριθμοι που μπορούν να πάρουν αποφάσεις από μόνοι τους, μας δημιουργεί αυτή την αβεβαιότητα. Και γι’ αυτό οι άνθρωποι δικαίως είναι επιφυλακτικοί απέναντί του.

Μεταγραφή

Θα μπορούσατε τώρα να μας πείτε λίγο περισσότερα για την κατάσταση και την προοπτική ορισμένων κανονισμών; Για παράδειγμα, του ΟΟΣΑ ή της ΕΕ ή της UNESCO GPAI. Ναι, όπως είπα, εννοώ ότι υπάρχουν πρωτοβουλίες και άνθρωποι, έξυπνοι άνθρωποι, ξοδεύουν χρόνο για να θέσουν ένα πλαίσιο γύρω από τη χρήση της τεχνητής νοημοσύνης. Γίνεται επίσης έρευνα αυτή τη στιγμή για τομείς δεοντολογίας που δεν αντιμετωπίζονται από κυβερνητικές υπηρεσίες. Αλλά όπως είπαμε προηγουμένως, βρίσκονται σε πολύ πρώιμο στάδιο και έχω την αίσθηση ότι ο κλάδος θα είναι και πάλι μπροστά από τις ρυθμιστικές αρχές. Αν ρίξετε μια ματιά στην έρευνα που διεξάγεται αυτή τη στιγμή με εταιρείες στους τομείς της ρομποτικής, θα φτάσετε στην ίδια αντίδραση wow όταν δείτε πώς τα ρομπότ αποδίδουν σήμερα. Και έχω την αίσθηση ότι ο κλάδος είναι ήδη μπροστά από το ρυθμιστικό πλαίσιο και το πιθανότερο είναι ότι θα επαναληφθεί άλλο ένα σενάριο όπου θα πρέπει να συμβεί κάτι κακό για να αντιδράσουν όλοι θετικά. Με τον τρόπο που κινούνται τα πράγματα, δεν βλέπω γιατί θα πρέπει να αντιμετωπιστεί η τεχνητή νοημοσύνη με διαφορετικό τρόπο. Νομίζω ότι η βιομηχανία θα κινείται με τους απίστευτα γρήγορους ρυθμούς και οι ρυθμιστικές αρχές και οι κυβερνήσεις θα είναι ένα βήμα πίσω. Αυτή είναι, πιστεύω, η τρέχουσα τάση αυτή τη στιγμή και δεν βλέπω κανέναν σημαντικό παράγοντα να αλλάζει. Σας ευχαριστώ πολύ. Υπάρχει κάτι που θα θέλατε να προσθέσετε σχετικά με αυτό το θέμα; Όχι, νομίζω ότι είναι αρκετά μεγάλο το ζήτημα της ηθικής στο πλαίσιο της τεχνητής νοημοσύνης. Θα μπορούσε κανείς να πει ότι είναι ένα έγκυρο ερώτημα. Είναι ένα ερώτημα που τίθεται από τις κοινωνίες σε όλο τον κόσμο. Πιστεύω επίσης ότι η βιομηχανία θα προχωρήσει και θα σχεδιάσει και θα εφαρμόσει ό,τι νομίζει ότι είναι καλύτερο για τους δημιουργούς της. Δεν νομίζω ότι θα υπάρχει τρόπος να το σταματήσουμε αυτό να συμβεί. Ελπίζω απλώς ότι στο τέλος της ημέρας, τα αποτελέσματα αυτών των πρωτοβουλιών για την τεχνητή νοημοσύνη θα είναι ωφέλιμα για την ανθρωπότητα και δεν θα δημιουργήσουν όλα αυτά τα ζητήματα που φοβόμαστε ότι θα δημιουργηθούν. Τελικά η ανθρωπότητα θα βρει το δρόμο της, αλλά νομίζω ότι θα είναι ένας κακοτράχαλος δρόμος.

The learning unit has not been completed

You have successfully completed the learning unit.