Τον «Skynet» του κινηματογραφικού «Εξολοθρευτή» ή τους «Cylons» του «Battlestar Galactica» φέρνει (και δικαίως) στο μυαλό πολλών εξ αυτών που παρακολουθούν τον χώρο της τεχνητής νοημοσύνης έρευνα από διεθνή ομάδα επιστημόνων, σύμφωνα με την οποία δεν θα ήταν δυνατός ο έλεγχος μιας ΑΙ με υπερ-νοημοσύνη (superintelligent AI).
Στην έρευνα συμμετείχαν επιστήμονες από το Center for Humans and Machines του Max Planck Institute for Human Development, και στην «καρδιά» της βρίσκεται η υπόθεση πως κάποιος δημιουργεί ένα σύστημα τεχνητής νοημοσύνης με νοημοσύνη ανώτερη αυτής των ανθρώπων, έτσι ώστε να μπορεί να μαθαίνει ανεξάρτητα. Συνδεόμενη στο Ίντερνετ, η ΑΙ αυτή θα αποκτούσε πρόσβαση στο σύνολο των δεδομένων της ανθρωπότητας, και θα μπορούσε να αντικαταστήσει όλα τα υπάρχοντα προγράμματα ή/ και να πάρει τον έλεγχο όλων των μηχανημάτων που βρίσκονται online στον κόσμο. Το ερώτημα που προκύπτει από αυτό είναι κατά πόσον αυτό θα έφερνε μια ουτοπία ή μια δυστοπία: Θα θεράπευε τον καρκίνο, θα έφερνε παγκόσμια ειρήνη και θα απέτρεπε μια κλιματική καταστροφή; Ή θα κατέστρεφε την ανθρωπότητα και θα έπαιρνε τον έλεγχο του πλανήτη;
Με το ερώτημα αυτό έχουν ασχοληθεί και συνεχίζουν να ασχολούνται επιστήμονες υπολογιστών και φιλόσοφοι ανά τον κόσμο- το εάν θα ήμασταν σε θέση να ελέγξουμε μια υπερ-νοήμονα τεχνητή νοημοσύνη, ώστε να μην αποτελεί απειλή στην ανθρωπότητα. Η διεθνής ομάδα ερευνητών χρησιμοποίησε θεωρητικούς υπολογισμούς για να δείξει πως θα ήταν θεμελιωδώς αδύνατον να ελεγχθεί μια υπερ-νοήμων τεχνητή νοημοσύνη.
«Μια υπερ-νοήμων μηχανή που ελέγχει τον κόσμο ακούγεται σαν επιστημονική φαντασία. Μα υπάρχουν ήδη μηχανές που πραγματοποιούν συγκεκριμένες σημαντικές εργασίες ανεξάρτητα, χωρίς οι προγραμματιστές να γνωρίζουν πλήρως πώς το έμαθαν. Το ερώτημα που προκύπτει, ως εκ τούτου, είναι εάν αυτό σε κάποιο σημείο θα γινόταν ανεξέλεγκτο και επικίνδυνο για την ανθρωπότητα» είπε ο Μανουέλ Σεμπριάν, ένας εκ των συντελεστών της έρευνας.
Διερευνήθηκαν δύο διαφορετικές ιδέες ως προς το πώς θα μπορούσε να ελεγχθεί μια υπερ-νοήμων ΑΙ. Από τη μια πλευρά, οι δυνατότητες της υπερ-νοήμονος ΑΙ θα μπορούσαν να είχαν συγκεκριμένους περιορισμους, πχ μέσω αποκλεισμού από το Ίντερνετ και όλες τις άλλες συσκευές έτσι ώστε να μην έχει επαφή με τον έξω κόσμο. Ωστόσο, αυτό θα καθιστούσε την ΑΙ σημαντικά πιο αδύναμη, λιγότερο ικανή στις εργασίες για τις οποίες την θέλει ο άνθρωπος. Πέρα από αυτή την επιλογή, η ΑΙ θα μπορούσε εξαρχής να έχει ως κίνητρο να επιδιώκει στόχους που είναι προς το βέλτιστο δυνατόν συμφέρον της ανθρωπότητας, για παράδειγμα προγραμματίζοντας από την αρχή σε αυτήν ηθικές αρχές. Ωστόσο οι ερευνητές δείχνουν πως τόσο αυτές, όσο και άλλες ιδέες του παρελθόντος για τον έλεγχο της υπερ-νοήμονος ΑΙ έχουν τα όριά τους.
Στο πλαίσιο της μελέτης αυτής, η ομάδα σκέφτηκε έναν θεωρητικό αλγόριθμο περιορισμού, ο οποίος διασφαλίζει ότι μια υπερ-νοήμων τεχνητή νοημοσύνη δεν μπορεί να βλάψει ανθρώπους υπό οποιεσδήποτε συνθήκες, προσομοιώνοντας πρώτα τη συμπεριφορά της ΑΙ και σταματώντας την εάν θεωρείται επιβλαβής. Ωστόσο προσεκτική ανάλυση δείχνει πως με τα σημερινά δεδομένα των ηλεκτρονικών υπολογιστών δεν μπορούν να φτιαχτούν τέτοιοι αλγόριθμοι.
«Αν αναλύσεις το πρόβλημα σε βασικούς κανόνες από τη θεωρητική επιστήμη υπολογιστών, αποδεικνύεται πως ένας αλγόριθμος που θα διέτασσε μια ΑΙ να μην καταστρέψει τον κόσμο θα σταματούσε ακούσια την ίδια του τη λειτουργία. Αν αυτό συνέβαινε, δεν θα γνωρίζαμε εάν ο αλγόριθμος περιορισμού αναλύει ακόμα την απειλή, ή αν σταμάτησε να περιορίζει την επιβλαβή ΑΙ. Στην πράξη αυτό καθιστά τον αλγόριθμο περιορισμού άχρηστο» είπε ο Ιγιάντ Ραχβάν, διευθυντής του Center for Humans and Machines.
Με βάση αυτούς τους υπολογισμούς, το πρόβλημα του περιορισμού είναι «incomputable», δηλαδή κανένας μεμονωμένος αλγόριθμος δεν μπορεί να βρει λύση ως προς τη διαπίστωση του πότε μια ΑΙ θα μπορούσε να βλάψει τον κόσμο. Επιπλέον, οι ερευνητές δείχνουν πως μπορεί να μην γνωρίζουμε καν πότε θα έχουν καταφθάσει οι υπερ-νοήμονες μηχανές, επειδή η διαπίστωση ως προς το αν μια μηχανή επιδεικνύει νοημοσύνη ανώτερη από αυτήν των ανθρώπων βρίσκεται στην ίδια σφαίρα με το ίδιο το πρόβλημα περιορισμού.
Η εν λόγω έρευνα, με τίτλο «Superintelligence cannot be contained: Lessons from Computability Theory» δημοσιεύτηκε στο Journal of Artificial Intelligence Research.