Τεχνολογία-Επιστήμη
Δευτέρα, 27 Ιουλίου 2015 17:24

Στίβεν Χόκινγκ, Έλον Μασκ και άλλοι 1.000 ειδικοί κατά της στρατιωτικής τεχνητής νοημοσύνης

Πάνω από 1.000 ειδικοί του χώρου της Τεχνητής Νοημοσύνης και μη, μεταξύ των οποίων «τρανταχτά» ονόματα, όπως ο Στίβεν Χόκινγκ, ο Έλον Μασκ, ο Στιβ Βόσνιακ (Apple) και ο Ντέμης Χασάμπης (Google Deepmind), έβαλαν τις υπογραφές τους σε ανοικτή επιστολή όπου προειδοποιούν για τον κίνδυνο μιας κούρσας στρατιωτικών εξοπλισμών τεχνητής νοημοσύνης και ζητούν την απαγόρευση των «επιθετικών αυτόνομων όπλων».

Πάνω από 1.000 ειδικοί του χώρου της Τεχνητής Νοημοσύνης και μη, μεταξύ των οποίων «τρανταχτά» ονόματα, όπως ο Στίβεν Χόκινγκ, ο Έλον Μασκ, ο Στιβ Βόσνιακ (Apple) και ο Ντέμης Χασάμπης (Google Deepmind), έβαλαν τις υπογραφές τους σε ανοικτή επιστολή όπου προειδοποιούν για τον κίνδυνο μιας κούρσας στρατιωτικών εξοπλισμών τεχνητής νοημοσύνης και ζητούν την απαγόρευση των «επιθετικών αυτόνομων όπλων».

Η επιστολή παρουσιάστηκε στην International Joint Conference on Artificial Intelligence στο Μπουένος Άιρες. Όπως αναφέρεται σε αυτήν, «η τεχνολογία τεχνητής νοημοσύνης έχει φτάσει σε ένα σημείο όπου η ανάπτυξη αυτόνομων όπλων είναι – πρακτικά, αν όχι νομικά- εφικτή εντός ετών, όχι δεκαετιών, και διακυβεύονται πολλά: τα αυτόνομα όπλα έχουν περιγραφεί ως η τρίτη επανάσταση στον πόλεμο, μετά την πυρίτιδα και τα πυρηνικά όπλα».

Όπως υποστηρίζουν, η Τεχνητή Νοημοσύνη μπορεί να χρησιμοποιηθεί για να κάνει το πεδίο μάχης ασφαλέστερο για το στρατιωτικό προσωπικό, αλλά επιθετικά όπλα που λειτουργούν μόνα τους θα μείωναν θα «διευκόλυναν» την προσφυγή στην ένοπλη αναμέτρηση και θα είχαν ως αποτέλεσμα μεγαλύτερες απώλειες ανθρώπινων ζωών.

Εάν μία δύναμη άρχιζε την ανάπτυξη συστημάτων ικανών να επιλέγουν στόχους και να επιχειρούν αυτόνομα, χωρίς άμεσο έλεγχο από ανθρώπους, θα άρχιζε μια κούρσα εξοπλισμών παρόμοια με αυτήν της ατομικής βόμβας, υποστηρίζεται. Ωστόσο, εν αντιθέσει με τα πυρηνικά όπλα, η ΑΙ δεν απαιτεί συγκεκριμένα, δύσκολο να αποκτηθούν, υλικά, και θα είναι επίσης δύσκολο να παρακολουθείται/ επιβλέπεται.

«Η κατάληξη αυτής της τεχνολογικής πορείας είναι προφανής: τα αυτόνομα όπλα θα γίνουν τα Καλάσνικοφ του αύριο. Η ερώτηση- κλειδί για την ανθρωπότητα σήμερα είναι εάν θα αρχίσουμε μία παγκόσμα κούρσα εξοπλισμών τεχνητής νοημοσύνης ή αν θα εμποδίσουμε να συμβεί αυτό» συμπληρώνεται.

Σημειώνεται πως ο Μασκ και ο Χόκινγκ έχουν προειδοποιήσει ότι η Τεχνητή Νοημοσύνη είναι η μεγαλύτερη υπαρξιακή απειλή για τον άνθρωπο, και ότι η ανάπτυξη μιας πλήρους Τεχνητής Νοημοσύνης θα μπορούσε να σημάνει το τέλος του ανθρώπινου είδους. Ωστόσο άλλοι, περιλαμβανομένου του Βόσνιακ, άλλαξαν πρόσφατα τις απόψεις τους, με τον συνιδρυτή της Apple να λέει ότι τα ρομπότ θα ήταν καλά για τους ανθρώπους, καθώς θα γίνουν «κατοικίδια».