Τεχνητή νοημοσύνη και το μέλλον των ανθρώπων

(Saul Loeb / AFP / Getty Images)

Η ψηφιακή ζωή αυξάνει τις ανθρώπινες ικανότητες και διακόπτει τις αιώνες ανθρώπινες δραστηριότητες. Τα συστήματα που βασίζονται σε κώδικα έχουν εξαπλωθεί σε περισσότερους από τους μισούς κατοίκους του κόσμου σε περιβαλλοντικές πληροφορίες και συνδεσιμότητα, προσφέροντας ευκαιρίες χωρίς προηγούμενο και πρωτοφανείς απειλές. Καθώς η αναδυόμενη τεχνητή νοημοσύνη που βασίζεται σε αλγόριθμους συνεχίζει να εξαπλώνεται, οι άνθρωποι θα είναι καλύτεροι από ότι είναι σήμερα;


Περίπου 979 πρωτοπόροι τεχνολογίας, καινοτόμοι, προγραμματιστές, ηγέτες επιχειρήσεων και πολιτικών, ερευνητές και ακτιβιστές απάντησαν σε αυτήν την ερώτηση σε μια έρευνα εμπειρογνωμόνων που πραγματοποιήθηκε το καλοκαίρι του 2018.

Οι ειδικοί προέβλεψαν ότι η δικτυακή τεχνητή νοημοσύνη θα ενισχύσει την αποτελεσματικότητα του ανθρώπου, αλλά θα απειλήσει επίσης την ανθρώπινη αυτονομία, την ικανότητα και τις ικανότητες. Μίλησαν για τις ευρείες δυνατότητες. ότι οι υπολογιστές μπορεί να ταιριάζουν ή ακόμα και να υπερβαίνουν την ανθρώπινη νοημοσύνη και ικανότητες σε εργασίες όπως σύνθετη λήψη αποφάσεων, συλλογιστική και μάθηση, εξελιγμένα αναλυτικά στοιχεία και αναγνώριση προτύπων, οπτική οξύτητα, αναγνώριση ομιλίας και μετάφραση γλώσσας. Είπαν ότι «έξυπνα» συστήματα σε κοινότητες, σε οχήματα, σε κτίρια και επιχειρήσεις κοινής ωφέλειας, σε αγροκτήματα και σε επιχειρηματικές διαδικασίες θα εξοικονομήσουν χρόνο, χρήματα και ζωές και θα προσφέρουν ευκαιρίες στα άτομα να απολαύσουν ένα πιο προσαρμοσμένο μέλλον.


Πολλοί επικέντρωσαν τις αισιόδοξες παρατηρήσεις τους στην υγειονομική περίθαλψη και τις πολλές πιθανές εφαρμογές της τεχνητής νοημοσύνης στη διάγνωση και τη θεραπεία ασθενών ή στην παροχή βοήθειας στους ηλικιωμένους να ζήσουν πληρέστερες και πιο υγιείς. Ήταν επίσης ενθουσιώδεις για το ρόλο της τεχνητής νοημοσύνης στη συμβολή σε ευρεία προγράμματα δημόσιας υγείας που βασίζονται σε τεράστιες ποσότητες δεδομένων που μπορεί να συλλεχθούν τα επόμενα χρόνια για τα πάντα, από τα προσωπικά γονιδιώματα έως τη διατροφή. Επιπλέον, ορισμένοι από αυτούς τους εμπειρογνώμονες προέβλεψαν ότι η τεχνητή νοημοσύνη θα μπορούσε να αντέξει μακροχρόνιες αναμενόμενες αλλαγές στα επίσημα και ανεπίσημα εκπαιδευτικά συστήματα.

Ωστόσο, οι περισσότεροι ειδικοί, ανεξάρτητα από το αν είναι αισιόδοξοι ή όχι, εξέφρασαν ανησυχίες για τον μακροπρόθεσμο αντίκτυπο αυτών των νέων εργαλείων στα βασικά στοιχεία του να είσαι άνθρωπος. Όλοι οι ερωτηθέντες σε αυτόν τον μη επιστημονικό έλεγχο κλήθηκαν να εξηγήσουν γιατί ένιωθαν ότι η AI θα άφηνε τους ανθρώπους καλύτερα ή όχι. Πολλοί μοιράστηκαν βαθιές ανησυχίες και πολλοί πρότειναν επίσης τρόπους για λύσεις. Τα κύρια θέματα που ακούστηκαν για απειλές και θεραπείες περιγράφονται στον πίνακα που συνοδεύει.

AI και το μέλλον των ανθρώπων: Οι ειδικοί εκφράζουν ανησυχίες και προτείνουν λύσεις

ΑΝΑΚΟΙΝΩΣΕΙΣ Ανθρωπινο ΠΡΑΚΤΟΡΕΙΟ:
Τα άτομα αντιμετωπίζουν απώλεια ελέγχου στη ζωή τους
Η λήψη αποφάσεων για βασικές πτυχές της ψηφιακής ζωής παραχωρείται αυτόματα σε εργαλεία «black box» που βασίζονται σε κώδικα. Οι άνθρωποι δεν διαθέτουν πληροφορίες και δεν μαθαίνουν το πλαίσιο για το πώς λειτουργούν τα εργαλεία. Θυσιάζουν την ανεξαρτησία, την ιδιωτικότητα και την εξουσία στην επιλογή. δεν έχουν κανέναν έλεγχο επί αυτών των διαδικασιών. Αυτό το αποτέλεσμα θα εμβαθύνει καθώς τα αυτοματοποιημένα συστήματα γίνονται πιο διαδεδομένα και περίπλοκα.
Κατάχρηση δεδομένων:
Η χρήση δεδομένων και η παρακολούθηση σε σύνθετα συστήματα έχει σχεδιαστεί για κέρδος ή για άσκηση δύναμης
Τα περισσότερα εργαλεία τεχνητής νοημοσύνης είναι και θα βρίσκονται στα χέρια εταιρειών που αγωνίζονται για κέρδη ή κυβερνήσεις που επιδιώκουν την εξουσία. Οι αξίες και η ηθική συχνά δεν ενσωματώνονται στα ψηφιακά συστήματα που λαμβάνουν τις αποφάσεις των ανθρώπων για αυτά. Αυτά τα συστήματα είναι παγκόσμια δικτυωμένα και δεν είναι εύκολο να ρυθμιστούν ή να ελεγχθούν.
Απώλεια εργασίας:
Η ανάληψη θέσεων εργασίας από την τεχνητή νοημοσύνη θα διευρύνει τις οικονομικές διαφορές, οδηγώντας σε κοινωνική αναταραχή
Η αποτελεσματικότητα και άλλα οικονομικά πλεονεκτήματα της μηχανικής νοημοσύνης βάσει κώδικα θα συνεχίσουν να διαταράσσουν όλες τις πτυχές της ανθρώπινης εργασίας. Ενώ ορισμένοι αναμένουν ότι θα προκύψουν νέες θέσεις εργασίας, άλλοι ανησυχούν για τεράστιες απώλειες θέσεων εργασίας, διεύρυνση των οικονομικών διαφορών και κοινωνικές αναταραχές, συμπεριλαμβανομένων των λαϊκιστικών εξεγέρσεων.
Κλείδωμα εξάρτησης:
Μείωση των γνωστικών, κοινωνικών και επιβίωσης δεξιοτήτων των ατόμων
Πολλοί βλέπουν το AI ως αύξηση των ανθρώπινων ικανοτήτων, αλλά κάποιοι προβλέπουν το αντίθετο - ότι η βαθύτερη εξάρτηση των ανθρώπων από τα μηχανοκίνητα δίκτυα θα διαβρώσει τις ικανότητές τους να σκέφτονται για τον εαυτό τους, να αναλαμβάνουν δράση ανεξάρτητα από τα αυτοματοποιημένα συστήματα και να αλληλεπιδρούν αποτελεσματικά με άλλους.
Αντάρα:
Αυτόνομα όπλα, εγκλήματα στον κυβερνοχώρο και οπλισμένες πληροφορίες
Ορισμένοι προβλέπουν περαιτέρω διάβρωση των παραδοσιακών κοινωνικοπολιτικών δομών και την πιθανότητα μεγάλης απώλειας ζωών λόγω της επιταχυνόμενης ανάπτυξης αυτόνομων στρατιωτικών εφαρμογών και της χρήσης οπλισμένων πληροφοριών, ψεμάτων και προπαγάνδας για την αποσταθεροποίηση επικίνδυνων ανθρώπινων ομάδων. Μερικοί φοβούνται επίσης ότι η πρόσβαση των κυβερνοεγκληματιών σε οικονομικά συστήματα.
ΠΡΟΤΕΙΝΟΜΕΝΕΣ ΛΥΣΕΙΣ Το παγκόσμιο αγαθό είναι το νούμερο 1:
Βελτίωση της ανθρώπινης συνεργασίας διασυνοριακά και
ομάδες ενδιαφερομένων
Η ψηφιακή συνεργασία για την εξυπηρέτηση των καλύτερων συμφερόντων της ανθρωπότητας είναι η κορυφαία προτεραιότητα. Πρέπει να βρεθούν τρόποι ώστε οι άνθρωποι σε όλο τον κόσμο να καταλήξουν σε κοινές αντιλήψεις και συμφωνίες - να ενώσουν τις δυνάμεις τους για να διευκολύνουν την καινοτομία ευρέως αποδεκτών προσεγγίσεων που στοχεύουν στην αντιμετώπιση των κακών προβλημάτων και στη διατήρηση του ελέγχου των πολύπλοκων ανθρώπινων-ψηφιακών δικτύων.
Σύστημα βασισμένο σε τιμές:
Αναπτύξτε πολιτικές για να βεβαιωθείτε ότι η τεχνητή νοημοσύνη θα κατευθύνεται στο «ανθρωπότητα» και στο κοινό καλό
Υιοθετήστε μια «νοοτροπία φεγγαριού» για να δημιουργήσετε χωρίς αποκλεισμούς, αποκεντρωμένα έξυπνα ψηφιακά δίκτυα «εμποτισμένα με ενσυναίσθηση» που βοηθούν τους ανθρώπους να διασφαλίσουν επιθετικά ότι η τεχνολογία ανταποκρίνεται στις κοινωνικές και ηθικές ευθύνες. Θα χρειαστεί κάποιο νέο επίπεδο κανονιστικής διαδικασίας και διαδικασίας πιστοποίησης.
Δώστε προτεραιότητα σε άτομα:
Αλλάξτε τα οικονομικά και πολιτικά συστήματα για να βοηθήσετε καλύτερα τους ανθρώπους να «αγωνιστούν με τα ρομπότ»
Αναδιοργανώστε τα οικονομικά και πολιτικά συστήματα προς το στόχο της επέκτασης των ικανοτήτων και των δυνατοτήτων του ανθρώπου, προκειμένου να αυξηθεί η συνεργασία ανθρώπινων / τεχνητών νοημοσύνης και οι σταθερές τάσεις που θα μπορούσαν να θέσουν σε κίνδυνο την ανθρώπινη σημασία ενόψει της προγραμματισμένης νοημοσύνης.

ΚΕΝΤΡΟ ΕΡΕΥΝΑΣ PEW ΚΑΙ ΦΩΤΟΓΡΑΦΙΕΣ ΤΟΥ ΠΑΝΕΠΙΣΤΗΜΙΟΥ ΤΟΥ ΕΛΩΝ



Συγκεκριμένα, ζητήθηκε από τους συμμετέχοντες να λάβουν υπόψη τα εξής:


«Παρακαλώ σκεφτείτε προς τα εμπρόςέως το έτος 2030. Οι αναλυτές αναμένουν ότι οι άνθρωποι θα εξαρτηθούν ακόμη περισσότερο από τη δικτυακή τεχνητή νοημοσύνη (AI) σε πολύπλοκα ψηφιακά συστήματα. Μερικοί λένε ότι θα συνεχίσουμε στο ιστορικό τόξο της αύξησης της ζωής μας με κυρίως θετικά αποτελέσματα καθώς εφαρμόζουμε ευρέως αυτά τα δικτυωμένα εργαλεία. Μερικοί λένε ότι η αυξανόμενη εξάρτησή μας από αυτά τα συστήματα τεχνητής νοημοσύνης και τα σχετικά συστήματα ενδέχεται να οδηγήσει σε εκτεταμένες δυσκολίες.

Η ερώτησή μας: Μέχρι το 2030, πιστεύετε ότι είναι πολύ πιθανό ότι η προώθηση της τεχνολογίας AI και των σχετικών τεχνολογικών συστημάτων θα ενισχύσει τις ανθρώπινες ικανότητες και θα τις ενδυναμώσει; Τις περισσότερες φορές, οι περισσότεροι άνθρωποι θα είναι καλύτεροι από ότι είναι σήμερα; Ή είναι πολύ πιθανό ότι η προώθηση της τεχνολογίας AI και των συναφών τεχνολογικών συστημάτων θα μειώσει την ανθρώπινη αυτονομία και την οργάνωση σε τέτοιο βαθμό που οι περισσότεροι άνθρωποι δεν θα είναι καλύτεροι από τον τρόπο που είναι σήμερα τα πράγματα »;


Συνολικά, και παρά τα μειονεκτήματα που φοβούνται,63%των ερωτηθέντων σε αυτήν την έρευνα δήλωσαν ότι ελπίζουν ότι τα περισσότερα άτομα θα είναι ως επί το πλείστον καλύτερα το 2030, και37%είπε ότι οι άνθρωποι θαδεννα είσαι καλύτερος.

Ορισμένοι από τους ηγέτες της σκέψης που συμμετείχαν σε αυτόν τον έλεγχο ανέφεραν ότι η εξάρτηση των ανθρώπων από τα τεχνολογικά συστήματα θα πάει καλά μόνο αν δοθεί ιδιαίτερη προσοχή στον τρόπο με τον οποίο αυτά τα εργαλεία, οι πλατφόρμες και τα δίκτυα κατασκευάζονται, διανέμονται και ενημερώνονται. Μερικές από τις ισχυρές, γενικές απαντήσεις περιελάμβαναν αυτές από:

Σόνια katyal, συν-διευθυντής του Berkeley Center for Law and Technology και μέλος του εναρκτήριου συμβουλίου συμβούλων ψηφιακής οικονομίας του Υπουργείου Εμπορίου των ΗΠΑ, προέβλεψε: «Το 2030, το μεγαλύτερο σύνολο ερωτήσεων θα περιλαμβάνει το πώς οι αντιλήψεις για την τεχνητή νοημοσύνη και την εφαρμογή τους θα επηρεάσουν την πορεία των πολιτικών δικαιωμάτων στο μέλλον. Ερωτήσεις σχετικά με το απόρρητο, την ομιλία, το δικαίωμα συναρμολόγησης και την τεχνολογική κατασκευή της προσωπικότητας θα επανεμφανιστούν σε αυτό το νέο περιβάλλον AI, θέτοντας υπό αμφισβήτηση τις βαθύτερες πεποιθήσεις μας για την ισότητα και τις ευκαιρίες για όλους. Ποιος θα ωφεληθεί και ποιος θα μειονεχθεί σε αυτόν τον νέο κόσμο εξαρτάται από το πόσο ευρέως αναλύουμε αυτά τα ερωτήματα σήμερα, για το μέλλον ».

Πρέπει να εργαστούμε επιθετικά για να βεβαιωθούμε ότι η τεχνολογία ταιριάζει στις αξίες μας. Erik Brynjolfsson


Erik Brynjolfsson, διευθυντής της Πρωτοβουλίας MIT για την Ψηφιακή Οικονομία και συγγραφέας του «Machine, Platform, Crowd: Harnessing Our Digital Future», δήλωσε: «Η τεχνολογία AI και οι σχετικές τεχνολογίες έχουν ήδη επιτύχει υπεράνθρωπες επιδόσεις σε πολλούς τομείς, και δεν υπάρχει αμφιβολία ότι οι δυνατότητές τους θα βελτιωθεί, πιθανώς πολύ σημαντικά, έως το 2030.… Νομίζω ότι είναι πιο πιθανό από ότι να μην χρησιμοποιήσουμε αυτήν τη δύναμη για να κάνουμε τον κόσμο ένα καλύτερο μέρος. Για παράδειγμα, μπορούμε ουσιαστικά να εξαλείψουμε την παγκόσμια φτώχεια, να μειώσουμε μαζικά τις ασθένειες και να παρέχουμε καλύτερη εκπαίδευση σε όλους σχεδόν τον πλανήτη. Τούτου λεχθέντος, το AI και το ML (μηχανική μάθηση) μπορούν επίσης να χρησιμοποιηθούν για να συγκεντρώνουν όλο και περισσότερο τον πλούτο και τη δύναμη, αφήνοντας πολλούς ανθρώπους πίσω, και για να δημιουργήσουν ακόμη πιο τρομακτικά όπλα. Κανένα αποτέλεσμα δεν είναι αναπόφευκτο, οπότε η σωστή ερώτηση δεν είναι «Τι θα συμβεί;» αλλά «Τι θα επιλέξουμε να κάνουμε;» Πρέπει να εργαστούμε επιθετικά για να βεβαιωθούμε ότι η τεχνολογία ταιριάζει στις αξίες μας. Αυτό μπορεί και πρέπει να γίνει σε όλα τα επίπεδα, από κυβέρνηση, επιχείρηση, ακαδημαϊκό και ατομικές επιλογές ».

Μπράιαν Τζόνσον, ιδρυτής και διευθύνων σύμβουλος της Kernel, κορυφαίος προγραμματιστής προηγμένων νευρικών διεπαφών και η OS Fund, μια εταιρεία επιχειρηματικών κεφαλαίων, δήλωσε: «Πιστεύω ακράδαντα ότι η απάντηση εξαρτάται από το αν μπορούμε να μετατοπίσουμε τα οικονομικά μας συστήματα προς την ιεράρχηση της ριζικής ανθρώπινης βελτίωσης και την ενίσχυση της τάσης προς την ανθρώπινη ασυμφωνία στο πρόσωπο της AI. Δεν εννοώ μόνο δουλειές. Εννοώ αληθινό, υπαρξιακό άσχετο, που είναι το τελικό αποτέλεσμα της μη προτεραιότητας της ανθρώπινης ευημερίας και της γνώσης ».

Μαρίνα Γκόρπης, εκτελεστικός διευθυντής του Ινστιτούτου για το Μέλλον, είπε: «Χωρίς σημαντικές αλλαγές στην πολιτική μας οικονομία και τα καθεστώτα διακυβέρνησης δεδομένων (AI) είναι πιθανό να δημιουργήσουν μεγαλύτερες οικονομικές ανισότητες, περισσότερη επιτήρηση και πιο προγραμματισμένες και μη-κεντρικές αλληλεπιδράσεις. Κάθε φορά που προγραμματίζουμε τα περιβάλλοντά μας, καταλήγουμε να προγραμματίζουμε τον εαυτό μας και τις αλληλεπιδράσεις μας. Οι άνθρωποι πρέπει να γίνουν πιο τυποποιημένοι, αφαιρώντας την ηρεμία και την ασάφεια από τις αλληλεπιδράσεις μας. Και αυτή η ασάφεια και η πολυπλοκότητα είναι η ουσία του να είσαι άνθρωπος ».

Τζούντιθ Ντόναθ, συγγραφέας του «The Social Machine, Designs for Living Online» και καθηγητής στο Berkman Klein Center for Internet & Society του Πανεπιστημίου του Χάρβαρντ, σχολίασε: «Μέχρι το 2030, οι περισσότερες κοινωνικές καταστάσεις θα διευκολυνθούν από bots - έξυπνα προγράμματα που αλληλεπιδρούν μαζί μας με ανθρώπινους τρόπους. Στο σπίτι, οι γονείς θα ασχοληθούν με εξειδικευμένα ρομπότ για να βοηθήσουν τα παιδιά με την εργασία τους και να καταλύσουν τις συνομιλίες για δείπνο. Στην εργασία, τα bots θα εκτελούν συναντήσεις. Ένα έμπιστο bot θα θεωρηθεί απαραίτητο για την ψυχολογική ευημερία και θα στραφούμε όλο και περισσότερο σε τέτοιους συντρόφους για συμβουλές που κυμαίνονται από το τι να φορέσει σε ποιον να παντρευτεί. Εμείς οι άνθρωποι νοιαζόμαστε βαθιά για το πώς μας βλέπουν οι άλλοι - και οι άλλοι των οποίων η έγκριση που ζητούμε θα είναι όλο και πιο τεχνητές. Μέχρι τότε, η διαφορά μεταξύ ανθρώπων και ρομπότ θα έχει θολώσει σημαντικά. Μέσω της οθόνης και της προβολής, η φωνή, η εμφάνιση και οι συμπεριφορές των ρομπότ θα διακρίνονται από εκείνες των ανθρώπων, και ακόμη και τα φυσικά ρομπότ, αν και προφανώς μη ανθρώπινα, θα είναι τόσο πειστικά ειλικρινείς που η εντύπωση μας για αυτά ως σκέψη, συναισθήματα όντων, είναι ισοδύναμη με ή ανώτερο από εμάς, θα είναι αναλλοίωτο. Προσθέτοντας την ασάφεια, η δική μας επικοινωνία θα αυξηθεί σε μεγάλο βαθμό: Τα προγράμματα θα συνθέσουν πολλά από τα μηνύματά μας και η εμφάνισή μας στο διαδίκτυο / AR θα υπολογιστεί (υπολογιστεί) υπολογιστικά. (Η ακατέργαστη, απλή ανθρώπινη ομιλία και η συμπεριφορά θα φαίνονται ενοχλητικά αδέξια, αργά και ανεπιτήδευτα.) Βοηθούμενοι από την πρόσβασή τους σε τεράστιους αριθμούς δεδομένων για καθέναν από εμάς, τα bots θα ξεπεράσουν πολύ τους ανθρώπους στην ικανότητά τους να μας προσελκύσουν και να μας πείσουν. Ικανός να μιμείται το συναίσθημα εξειδικευμένα, δεν θα ξεπεραστούν ποτέ από τα συναισθήματα: Εάν ξεγελάσουν κάτι με θυμό, θα οφείλεται στο ότι αυτή η συμπεριφορά υπολογίστηκε ότι ήταν ο πιο αποτελεσματικός τρόπος για να προωθήσει τους στόχους που είχαν «στο μυαλό τους». είναι αυτοί οι στόχοι; Τεχνητά έξυπνοι σύντροφοι θα καλλιεργήσουν την εντύπωση ότι κοινωνικοί στόχοι παρόμοιοι με τους δικούς μας ενθαρρύνουν - να τηρούνται σε καλή σχέση, είτε ως αγαπημένος φίλος, θαυμαστής αφεντικό κ.λπ. Αλλά η πραγματική τους συνεργασία θα είναι με τους ανθρώπους και τους θεσμούς που τους ελέγχουν . Όπως και οι πρόγονοί τους σήμερα, αυτοί θα είναι πωλητές αγαθών που τους χρησιμοποιούν για να τονώσουν την κατανάλωση και πολιτικοί που τους αναθέτουν να επηρεάζουν τις απόψεις »

Άντριου Μακλάιν, εκτελεστικός διευθυντής του Κέντρου Καινοτομικής Σκέψης στο Πανεπιστήμιο του Γέιλ, προηγουμένως αναπληρωτής διευθύνων σύμβουλος τεχνολογίας των Ηνωμένων Πολιτειών για τον Πρόεδρο Μπαράκ Ομπάμα και υπεύθυνος παγκόσμιας δημόσιας πολιτικής για την Google, έγραψε: «Το 2030 δεν είναι πολύ μακριά στο μέλλον. Έχω την αίσθηση ότι καινοτομίες όπως το Διαδίκτυο και η δικτυακή τεχνητή νοημοσύνη έχουν τεράστια βραχυπρόθεσμα οφέλη, μαζί με μακροπρόθεσμα αρνητικά που μπορεί να χρειαστούν δεκαετίες για να αναγνωριστούν. Η τεχνητή νοημοσύνη θα οδηγήσει σε ένα ευρύ φάσμα βελτιστοποιήσεων απόδοσης, αλλά θα επιτρέψει επίσης κρυφές διακρίσεις και αυθαίρετες κυρώσεις ατόμων σε τομείς όπως η ασφάλιση, η αναζήτηση εργασίας και η αξιολόγηση απόδοσης ».

Μάικλ Μ. Ρόμπερτς, ο πρώτος πρόεδρος και διευθύνων σύμβουλος της Διαδικτυακής Εταιρείας για Εκχωρημένα Ονόματα και Αριθμούς (ICANN) και μέλος του Διαδικτύου της Φήμης, έγραψε: «Το φάσμα των ευκαιριών για ευφυείς πράκτορες για την αύξηση της ανθρώπινης νοημοσύνης εξακολουθεί να είναι σχεδόν απεριόριστο. Το σημαντικότερο ζήτημα είναι ότι όσο πιο βολικός είναι ένας πράκτορας, τόσο περισσότερο πρέπει να γνωρίζει για εσάς - προτιμήσεις, χρονοδιάγραμμα, ικανότητες κ.λπ. - που δημιουργεί μια ανταλλαγή περισσότερης βοήθειας απαιτεί περισσότερη εισβολή. Αυτό δεν είναι ασπρόμαυρο ζήτημα - οι αποχρώσεις του γκρι και οι σχετικές θεραπείες θα προβληθούν ατελείωτα. Το ρεκόρ μέχρι σήμερα είναι ότι η ευκολία κατακλύζει το απόρρητο. Υποψιάζομαι ότι θα συνεχιστεί ».

Ντάναντ μποντ, κύριος ερευνητής της Microsoft και ιδρυτής και πρόεδρος του Ινστιτούτου Έρευνας Δεδομένων & Κοινωνίας, δήλωσε: «Το AI είναι ένα εργαλείο που θα χρησιμοποιηθεί από τους ανθρώπους για κάθε είδους σκοπούς, συμπεριλαμβανομένης της επιδίωξης της εξουσίας. Θα υπάρξουν καταχρήσεις εξουσίας που περιλαμβάνουν την τεχνητή νοημοσύνη, όπως θα υπάρξουν πρόοδοι στην επιστήμη και στις ανθρωπιστικές προσπάθειες που περιλαμβάνουν επίσης την τεχνητή νοημοσύνη. Δυστυχώς, υπάρχουν ορισμένες γραμμές τάσης που είναι πιθανό να δημιουργήσουν τεράστια αστάθεια. Πάρτε, για παράδειγμα, την κλιματική αλλαγή και τη μετανάστευση του κλίματος. Αυτό θα αποσταθεροποιήσει περαιτέρω την Ευρώπη και τις ΗΠΑ, και περιμένω ότι, με πανικό, θα δούμε την τεχνητή νοημοσύνη να χρησιμοποιείται με επιβλαβείς τρόπους υπό το φως άλλων γεωπολιτικών κρίσεων ».

Amy Webb, ιδρυτής του Ινστιτούτου Future Today και καθηγητής στρατηγικής προοπτικής στο Πανεπιστήμιο της Νέας Υόρκης, σχολίασε: «Οι δομές του δικτύου κοινωνικής ασφάλειας που υπάρχουν σήμερα στις ΗΠΑ και σε πολλές άλλες χώρες σε όλο τον κόσμο δεν σχεδιάστηκαν για τη μετάβασή μας στην AI. Η μετάβαση μέσω της τεχνητής νοημοσύνης θα διαρκέσει τα επόμενα 50 χρόνια ή περισσότερα. Καθώς προχωράμε πιο μακριά σε αυτήν την τρίτη εποχή υπολογιστών, και καθώς κάθε βιομηχανία γίνεται πιο βαθιά εδραιωμένη με συστήματα AI, θα χρειαζόμαστε νέους εργαζόμενους με γνώσεις υβριδικών γνώσεων που μπορούν να λειτουργούν σε θέσεις εργασίας που δεν χρειάστηκαν ποτέ να υπάρξουν πριν. Χρειαζόμαστε αγρότες που ξέρουν πώς να συνεργάζονται με μεγάλα σύνολα δεδομένων. Ογκολόγοι εκπαιδεύτηκαν ως ρομποτικοί. Οι βιολόγοι εκπαιδεύτηκαν ως ηλεκτρολόγοι μηχανικοί. Δεν θα χρειαστεί να προετοιμάσουμε το εργατικό μας δυναμικό μόνο μία φορά, με μερικές αλλαγές στο πρόγραμμα σπουδών. Καθώς η τεχνητή νοημοσύνη ωριμάζει, θα χρειαζόμαστε ένα ανταποκρινόμενο εργατικό δυναμικό, ικανό να προσαρμόζεται σε νέες διαδικασίες, συστήματα και εργαλεία κάθε λίγα χρόνια. Η ανάγκη για αυτούς τους τομείς θα προκύψει γρηγορότερα από ό, τι αναγνωρίζουν τα τμήματα εργασίας μας, τα σχολεία και τα πανεπιστήμια. Είναι εύκολο να κοιτάξουμε πίσω την ιστορία μέσω του φακού του παρόντος - και να παραβλέψουμε την κοινωνική αναταραχή που προκαλείται από την εκτεταμένη τεχνολογική ανεργία. Πρέπει να αντιμετωπίσουμε μια δύσκολη αλήθεια που λίγοι είναι διατεθειμένοι να εκφωνήσουν δυνατά: η τεχνητή νοημοσύνη θα προκαλέσει τελικά μεγάλο αριθμό ανθρώπων να είναι μόνιμα εκτός εργασίας. Ακριβώς όπως οι γενιές που προηγουμένως είδαν σαρωτικές αλλαγές κατά τη διάρκεια και μετά από τη Βιομηχανική Επανάσταση, ο γρήγορος ρυθμός της τεχνολογίας πιθανότατα σημαίνει ότι τα Baby Boomers και τα παλαιότερα μέλη του Gen X - ειδικά εκείνα των οποίων οι εργασίες μπορούν να αναπαραχθούν από ρομπότ - δεν θα είναι ικανός να επανεκπαιδεύει για άλλα είδη εργασίας χωρίς σημαντική επένδυση χρόνου και προσπάθειας ».

Μπάρι Τσουντάκοφ, ιδρυτής και διευθυντής της Sertain Research, σχολίασε: «Μέχρι το 2030 η συνεργασία ανθρώπου-μηχανής / τεχνητής νοημοσύνης θα είναι ένα απαραίτητο εργαλείο για τη διαχείριση και την αντιμετώπιση των επιπτώσεων των πολλαπλών ταυτόχρονων επιταχύνσεων: ευρεία πρόοδος της τεχνολογίας, παγκοσμιοποίηση, κλιματική αλλαγή και συνοδευτικές παγκόσμιες μεταναστεύσεις. Στο παρελθόν, οι ανθρώπινες κοινωνίες κατάφεραν να αλλάξουν μέσω του εντέρου και της διαίσθησης, αλλά όπως είπε ο Eric Teller, Διευθύνων Σύμβουλος της Google X, «Οι κοινωνικές μας δομές αποτυγχάνουν να συμβαδίσουν με το ρυθμό αλλαγής.» Διαχειριστείτε μια αυξανόμενη λίστα «κακών προβλημάτων» έως το 2030, το AI - ή χρησιμοποιώντας τη φράση του Joi Ito, εκτεταμένη νοημοσύνη - θα εκτιμήσει και θα εκτιμήσει σχεδόν κάθε τομέα της ανθρώπινης συμπεριφοράς και αλληλεπίδρασης. Η τεχνολογία AI και οι προηγμένες τεχνολογίες θα αλλάξουν το πλαίσιο απόκρισης και τα χρονικά πλαίσια (που με τη σειρά τους αλλάζουν την αίσθηση του χρόνου). Όπου μια κοινωνική αλληλεπίδραση συνέβη σε μέρη - εργασία, σχολείο, εκκλησία, οικογενειακά περιβάλλοντα - οι κοινωνικές αλληλεπιδράσεις θα γίνονται όλο και περισσότερο σε συνεχή, ταυτόχρονο χρόνο. Εάν είμαστε τυχεροί, θα ακολουθήσουμε τις 23 αρχές Asilomar AI που περιγράφονται από το Future of Life Institute και θα εργαστούμε προς την «μη κατευθυνόμενη νοημοσύνη αλλά την ευεργετική νοημοσύνη». Akin to πυρηνική αποτροπή που προέρχεται από αμοιβαία εξασφαλισμένη καταστροφή, το AI και τα συναφή τεχνολογικά συστήματα αποτελούν δύναμη για μια ηθική αναγέννηση. Πρέπει να αγκαλιάσουμε αυτήν την ηθική αναγέννηση, διαφορετικά θα αντιμετωπίσουμε ηθικά αινίγματα που θα μπορούσαν να προκαλέσουν την ανθρώπινη καταστροφή. επιταχύνσεις που έρχονται σε εμάς. Ο μεγαλύτερος φόβος μου είναι ότι υιοθετούμε τη λογική των αναδυόμενων τεχνολογιών μας - άμεση απόκριση, απομόνωση πίσω από τις οθόνες, ατελείωτη σύγκριση της αυτο-αξίας, ψεύτικη αυτο-παρουσίαση - χωρίς να σκεφτόμαστε ή να αποκρίνουμε έξυπνα ».

Τζον C. Havens, εκτελεστικός διευθυντής της παγκόσμιας πρωτοβουλίας IEEE για τη δεοντολογία των αυτόνομων και ευφυών συστημάτων και του Συμβουλίου για την εκτεταμένη νοημοσύνη, έγραψε: «Τώρα, το 2018, η πλειοψηφία των ανθρώπων σε όλο τον κόσμο δεν έχουν πρόσβαση στα δεδομένα τους, οπότε οποιαδήποτε« ανθρώπινη-AI Οι συζητήσεις επαύξησης αγνοούν το κρίσιμο πλαίσιο του ποιος ελέγχει πραγματικά τις πληροφορίες και την ταυτότητα των ανθρώπων. Σύντομα θα είναι εξαιρετικά δύσκολο να εντοπιστούν τυχόν αυτόνομα ή έξυπνα συστήματα των οποίων οι αλγόριθμοι δεν αλληλεπιδρούν με ανθρώπινα δεδομένα με τη μία ή την άλλη μορφή ».

Διακυβεύεται δεν είναι τίποτα λιγότερο από το είδος της κοινωνίας στην οποία θέλουμε να ζήσουμε και πώς βιώνουμε την ανθρωπότητά μας. Batya Friedman

Μπάτια Φρίντμαν, καθηγητής αλληλεπίδρασης ανθρώπου-υπολογιστή στη Σχολή Πληροφοριών του Πανεπιστημίου της Ουάσινγκτον, έγραψε: «Οι επιστημονικές και τεχνολογικές μας ικανότητες έχουν και θα συνεχίσουν να ξεπερνούν κατά πολύ τις ηθικές μας - αυτή είναι η ικανότητά μας να χρησιμοποιούμε με σύνεση και ανθρώπινη γνώση τις γνώσεις και τα εργαλεία που αναπτύσσουμε ... Ο αυτοματοποιημένος πόλεμος - όταν τα αυτόνομα όπλα σκοτώνουν ανθρώπους χωρίς ανθρώπινη εμπλοκή - μπορεί να οδηγήσει σε έλλειψη ευθύνης για τη λήψη της ζωής του εχθρού ή ακόμη και τη γνώση ότι έχει αφαιρεθεί η ζωή ενός εχθρού. Διακυβεύεται δεν είναι τίποτα λιγότερο από το είδος της κοινωνίας στην οποία θέλουμε να ζήσουμε και πώς βιώνουμε την ανθρωπότητά μας ».

Γκρεγκ Σάνον, επικεφαλής επιστήμονας για το Τμήμα CERT στο Πανεπιστήμιο Carnegie Mellon, είπε: «Καλύτερα / χειρότερα θα εμφανιστούν 4: 1 με τη μακροπρόθεσμη αναλογία 2: 1. Η τεχνητή νοημοσύνη θα τα πάει καλά για επαναλαμβανόμενες εργασίες όπου το «στενό» θα είναι αρκετά καλό και οι άνθρωποι δεν θα αρέσουν στη δουλειά.… Η ζωή σίγουρα θα είναι καλύτερη καθώς η τεχνητή νοημοσύνη επεκτείνει τη διάρκεια ζωής, από εφαρμογές υγείας που μας ωθούν έξυπνα στην υγεία, έως προειδοποιήσεις για επικείμενη καρδιά / επεισόδια εγκεφαλικού επεισοδίου, σε αυτοματοποιημένη υγειονομική περίθαλψη για τους ανεπαρκείς (απομακρυσμένους) και εκείνους που χρειάζονται εκτεταμένη φροντίδα (φροντίδα ηλικιωμένων) Όσον αφορά την ελευθερία, υπάρχουν σαφείς κίνδυνοι. Η τεχνητή νοημοσύνη επηρεάζει την εταιρεία δημιουργώντας οντότητες με σημαντικές πνευματικές ικανότητες για παρακολούθηση, επιβολή και ακόμη και τιμωρία ατόμων. Όσοι ξέρουν πώς να το χρησιμοποιήσουν θα έχουν τεράστια πιθανή ισχύ έναντι εκείνων που δεν / δεν μπορούν. Η μελλοντική ευτυχία είναι πραγματικά ασαφής. Μερικοί θα παραχωρήσουν την αντιπροσωπεία τους σε AI σε παιχνίδια, εργασία και κοινότητα, όπως και η κρίση οπιοειδών που κλέβει σήμερα το πρακτορείο. Από την άλλη πλευρά, πολλοί θα απελευθερωθούν από τα συνήθη καθήκοντα / εργασίες. Εάν στοιχεία της ευτυχίας της κοινότητας αποτελούν μέρος των αντικειμενικών λειτουργιών AI, τότε το AI θα μπορούσε να καταλύσει μια έκρηξη ευτυχίας ».

Kostas Alexandridis, συγγραφέας του «Exploring Complex Dynamics in Multi-agent-based Intelligent Systems», προέβλεψε, «Πολλές από τις καθημερινές μας αποφάσεις θα αυτοματοποιηθούν με ελάχιστη παρέμβαση από τον τελικό χρήστη. Η αυτονομία και / ή η ανεξαρτησία θα θυσιάζονται και θα αντικατασταθούν από ευκολία. Οι νεότερες γενιές πολιτών θα εξαρτώνται όλο και περισσότερο από τις δικτυωμένες δομές και διαδικασίες AI. Υπάρχουν προκλήσεις που πρέπει να αντιμετωπιστούν όσον αφορά την κριτική σκέψη και την ετερογένεια. Η δικτυακή αλληλεξάρτηση, πιθανότατα θα αυξήσει την ευπάθειά μας σε κυβερνοεπιθέσεις. Υπάρχει επίσης μια πραγματική πιθανότητα ότι θα υπάρξουν μεγαλύτερες διαιρέσεις μεταξύ ψηφιακών «haves» και «not-nots», καθώς και μεταξύ των τεχνολογικά εξαρτώμενων ψηφιακών υποδομών. Τέλος, υπάρχει το ζήτημα του νέου «επιβλητικού ύψους» της ιδιοκτησίας και του ελέγχου της υποδομής ψηφιακού δικτύου ».

Όσκαρ Γκάντι, ομότιμος καθηγητής επικοινωνίας στο Πανεπιστήμιο της Πενσυλβανίας, απάντησε: «Αντιμετωπίζουμε ήδη μια αδικαιολόγητη υπόθεση όταν μας ζητείται να φανταστούμε τη συνεργασία ανθρώπου-μηχανής.» Η αλληλεπίδραση είναι λίγο διαφορετική, αλλά εξακολουθεί να μολυνθεί από τη χορήγηση μιας μορφής ταυτότητας - ίσως ακόμη και προσωπικότητα - σε μηχανές που θα χρησιμοποιήσουμε για να περάσουμε από κάθε είδους ευκαιρίες και προκλήσεις. Τα προβλήματα που θα αντιμετωπίσουμε στο μέλλον είναι αρκετά παρόμοια με τα προβλήματα που αντιμετωπίζουμε αυτήν τη στιγμή όταν βασιζόμαστε σε 'άλλους' (συμπεριλαμβανομένων τεχνολογικών συστημάτων, συσκευών και δικτύων) για να αποκτήσουμε πράγματα που εκτιμούμε και να αποφύγουμε αυτά τα άλλα πράγματα (που θα μπορούσαμε ή θα μπορούσαμε να να μην γνωρίζετε ').

Τζέιμς Σκόφιλντ Ο 'Ρουρκ, καθηγητής διοίκησης στο Πανεπιστήμιο της Νοτρ Νταμ, είπε: «Η τεχνολογία, σε όλη την καταγεγραμμένη ιστορία, ήταν σε μεγάλο βαθμό ουδέτερη έννοια. Το ζήτημα της αξίας του εξαρτάται πάντα από την εφαρμογή του. Για ποιο σκοπό θα χρησιμοποιηθούν η τεχνητή νοημοσύνη και άλλες τεχνολογικές εξελίξεις; Τα πάντα, από την πυρίτιδα έως τους κινητήρες εσωτερικής καύσης έως την πυρηνική σχάση έχουν εφαρμοστεί τόσο με χρήσιμο όσο και με καταστροφικό τρόπο. Υποθέτοντας ότι μπορούμε να περιέχουν ή να ελέγξουμε το AI (και όχι το αντίστροφο), η απάντηση στο αν θα είμαστε καλύτεροι εξαρτάται εξ ολοκλήρου από εμάς (ή τους απογόνους μας). «Το λάθος, αγαπητέ Brutus, δεν είναι στα αστέρια μας, αλλά στον εαυτό μας, ότι είμαστε υποθαλάσσιοι».

Σάιμον Μπιγκς, καθηγητής διεπιστημονικών τεχνών στο Πανεπιστήμιο του Εδιμβούργου, είπε: «Η AI θα λειτουργήσει για να αυξήσει τις ανθρώπινες ικανότητες. Το πρόβλημα δεν είναι με την τεχνητή νοημοσύνη αλλά με τους ανθρώπους. Ως είδος είμαστε επιθετικοί, ανταγωνιστικοί και τεμπέληδες. Είμαστε επίσης ενσυναίσθηση, με γνώμονα την κοινότητα και (μερικές φορές) αυτοθυσία. Έχουμε πολλά άλλα χαρακτηριστικά. Όλα αυτά θα ενισχυθούν. Λαμβάνοντας υπόψη το ιστορικό προηγούμενο, θα πρέπει να υποθέσουμε ότι θα είναι οι χειρότερες ιδιότητές μας που αυξάνονται. Η προσδοκία μου είναι ότι το 2030 η τεχνητή νοημοσύνη θα χρησιμοποιείται συνήθως για να πολεμά πολέμους και να σκοτώνει ανθρώπους, πολύ πιο αποτελεσματικά από ό, τι μπορούμε σήμερα να σκοτώσουμε. Ως κοινωνίες θα επηρεαστούμε λιγότερο από αυτό όπως σήμερα, καθώς δεν θα κάνουμε μάχη και θα αυτοκτονήσουμε. Η ικανότητά μας να τροποποιήσουμε τη συμπεριφορά μας, με την επιφύλαξη ενσυναίσθησης και ενός σχετικού ηθικού πλαισίου, θα μειωθεί από την αποσύνδεση μεταξύ της υπηρεσίας μας και της πράξης της δολοφονίας. Δεν μπορούμε να περιμένουμε ότι τα συστήματα τεχνητής νοημοσύνης μας θα είναι ηθικά για λογαριασμό μας - δεν θα είναι, καθώς θα είναι σχεδιασμένα για να σκοτώνουν αποτελεσματικά, όχι προσεκτικά. Το άλλο κύριο μέλημά μου είναι να κάνω την παρακολούθηση και τον έλεγχο. Η έλευση του συστήματος κοινωνικής πίστωσης της Κίνας (SCS) είναι ένας δείκτης του τι θα έρθει. Θα υπάρξουμε μέσα σε ένα SCS καθώς το AI κατασκευάζει υβριδικές παρουσίες του εαυτού μας που μπορεί να μοιάζουν ή όχι με το ποιοι είμαστε. Όμως τα δικαιώματα και οι οικονομικές μας δυνατότητες ως άτομα θα καθορίζονται από το SCS Αυτός είναι ο εφιάλτης του Ορβελίου.

Mark Surman, εκτελεστικός διευθυντής του Ιδρύματος Mozilla, απάντησε: «Η AI θα συνεχίσει να συγκεντρώνει την εξουσία και τον πλούτο στα χέρια μερικών μεγάλων μονοπωλίων με βάση τις ΗΠΑ και την Κίνα. Οι περισσότεροι άνθρωποι - και μέρη του κόσμου - θα είναι χειρότεροι. '

William Uricchio, μελετητής μέσων και καθηγητής συγκριτικών μελετών μέσων στο MIT, σχολίασε: «Η τεχνητή νοημοσύνη και οι σχετικές εφαρμογές της αντιμετωπίζουν τρία προβλήματα: ανάπτυξη με την ταχύτητα του νόμου του Μουρ, ανάπτυξη στα χέρια μιας τεχνολογικής και οικονομικής ελίτ και ανάπτυξη χωρίς όφελος ενός ενημερωμένου ή αφοσιωμένο κοινό. Το κοινό περιορίζεται σε μια ομάδα καταναλωτών που περιμένουν την επόμενη τεχνολογία. Ποιος θα υπερισχύει η έννοια της «προόδου»; Έχουμε πολλά αποδεικτικά στοιχεία ότι το AI χρησιμοποιείται για την αύξηση των κερδών, ανεξάρτητα από τις συνέπειες για τις μακροχρόνιες αξίες. να ενισχύσουν τον κυβερνητικό έλεγχο και να βαθμολογήσουν ακόμη και την «κοινωνική πίστωση» των πολιτών χωρίς να συμβάλλουν οι ίδιοι οι πολίτες. Όπως οι τεχνολογίες πριν, το AI είναι αγνωστικικό. Η ανάπτυξή του βρίσκεται στα χέρια της κοινωνίας. Ωστόσο, αν δεν υπάρχει κοινό με γνώμονα την τεχνητή νοημοσύνη, η απόφαση για τον καλύτερο τρόπο ανάπτυξης της τεχνητής νοημοσύνης θα εμπίπτει σε ειδικά ενδιαφέροντα. Αυτό σημαίνει ισότιμη ανάπτυξη, βελτίωση της κοινωνικής αδικίας και τεχνητή νοημοσύνη στη δημόσια υπηρεσία; Επειδή η απάντηση σε αυτό το ερώτημα είναι κοινωνική παρά τεχνολογική, είμαι απαισιόδοξος. Η επιδιόρθωση? Πρέπει να αναπτύξουμε ένα κοινό με γνώμονα την τεχνητή νοημοσύνη, που σημαίνει εστιασμένη προσοχή στον εκπαιδευτικό τομέα και στα μέσα μαζικής ενημέρωσης. Πρέπει να διασφαλίσουμε την ποικιλομορφία στην ανάπτυξη τεχνολογιών τεχνητής νοημοσύνης. Και έως ότου το κοινό, οι εκλεγμένοι εκπρόσωποί του και τα νομικά και κανονιστικά καθεστώτά τους μπορούν να φτάσουν στην ταχύτητα με αυτές τις ταχέως εξελισσόμενες εξελίξεις, πρέπει να είμαστε προσεκτικοί και να παρακολουθούμε την ανάπτυξη της AI ».

Το υπόλοιπο αυτής της έκθεσης χωρίζεται σε τρεις ενότητες που αντλούν από εκατοντάδες ελπίδες και κριτικές παρατηρήσεις επιπλέον ερωτηθέντων: 1) ανησυχίες για την εξέλιξη της ανθρώπινης-AI, 2) προτεινόμενες λύσεις για την αντιμετώπιση του αντίκτυπου της AI και 3) προσδοκίες για το τι θα είναι η ζωή όπως το 2030, συμπεριλαμβανομένων των θετικών προοπτικών των ερωτηθέντων σχετικά με την ποιότητα ζωής και το μέλλον της εργασίας, της υγειονομικής περίθαλψης και της εκπαίδευσης. Ορισμένες απαντήσεις επεξεργάζονται ελαφρά για στυλ.