Τεχνολογία-Επιστήμη
Πέμπτη, 25 Ιανουαρίου 2018 15:37

Τεχνητή Νοημοσύνη: Οι κίνδυνοι

Η πρόοδος της τεχνητής νοημοσύνης είναι εντυπωσιακή, με σημαντικά οφέλη σε πολλά επίπεδα. Ωστόσο υπάρχουν σοβαρά ερωτήματα με πολιτικές, κοινωνικές και ηθικές προεκτάσεις. Η γενική ανησυχία επικεντρώνεται στην τεχνολογική ανεργία ενώ εξίσου μεγάλα ερωτήματα υπάρχουν σχετικά με τις εφαρμογές της τεχνητής νοημοσύνης, την  πρόσβαση στα δεδομένα και στη γνώση που παράγεται από την ανάλυση τους.

Του Γιώργου Κρασαδάκη*

Η πρόοδος της τεχνητής νοημοσύνης είναι εντυπωσιακή, με σημαντικά οφέλη σε πολλά επίπεδα. Ωστόσο υπάρχουν σοβαρά ερωτήματα με πολιτικές, κοινωνικές και ηθικές προεκτάσεις. Η γενική ανησυχία επικεντρώνεται στην τεχνολογική ανεργία ενώ εξίσου μεγάλα ερωτήματα υπάρχουν σχετικά με τις εφαρμογές της τεχνητής νοημοσύνης, την  πρόσβαση στα δεδομένα και στη γνώση που παράγεται από την ανάλυση τους.

Τα σενάρια δυστοπίας σχετικά με την τεχνητή νοημοσύνη βασίζονται στα ακόλουθα:

Οπλικά συστήματα – Lethal Autonomous Weapons

Η έννοια της αυτόνομης μηχανής είναι γενικά εντυπωσιακή – για παράδειγμα ένα αυτόνομο αυτοκίνητο που, σεβόμενο τους κανόνες κυκλοφορίας, παίρνει τις απαιτούμενες αποφάσεις για να πετύχει με τον καλύτερο τρόπο τον αντικειμενικό σκοπό όπως έχει τεθεί από τον επιβάτη (την μεταφορά από το σημείο Α στο Β). Στα πλαίσια όμως ενός οπλικού συστήματος, αυτή η αυτονομία ‘βέλτιστων’ αποφάσεων για την επίτευξη προκαθορισμένων στόχων, ακούγεται τρομακτική. Τα Lethal Autonomous Weapons (LAWs) περιγράφουν προηγμένα ρομποτικά συστήματα στρατιωτικής χρήσης, που θα μπορούν να πλήξουν στόχους ‘αυτόνομα’ – χωρίς ανθρώπινη παρέμβαση ή έγκριση.

Ποιος όμως θα ελέγχει το γενικό σχεδιασμό, το πλαίσιο λειτουργίας και την ανάθεση στόχων ενός τέτοιου ρομπότ; Πως ένα ρομπότ θα μπορεί να διακρίνει την ιδιαιτερότητα μίας κατάστασης και να την λάβει υπόψη του σε μία απόφαση για επίθεση με ενδεχόμενο κόστος σε ανθρώπινες ζωές;

Τα οπλικά συστήματα που είναι διαθέσιμα σήμερα, έχουν σχετικούς περιορισμούς – με την έννοια ότι απαιτείται έγκριση από άνθρωπο για την πραγματοποίηση επίθεσης. Ωστόσο, τα LAWs δεν έχουν απαγορευτεί ακόμα, παρά την γενική κινητοποίηση επιστημόνων και επιχειρηματιών του χώρου.

Ακεραιότητα και αμεροληψία

Τα ευφυή συστήματα μαθαίνουν αναλύοντας μεγάλους όγκους δεδομένων και συνεχίζουν να προσαρμόζονται αναλύοντας τις αλληλεπιδράσεις με το περιβάλλον τους. Πως μπορούμε όμως να εξασφαλίσουμε την ακεραιότητα και την αμεροληψία αυτής της διαδικασίας; Μία εταιρεία θα μπορούσε να εκπαιδεύσει τέτοια συστήματα ώστε να μεροληπτούν προς όφελος της και σε βάρος συγκεκριμένων κατηγοριών πελάτων ή χρηστών: για παράδειγμα ο αλγόριθμος του συστήματος που ανακαλύπτει τους ‘ιδανικούς’ υποψηφίους για μία μεγάλη εταιρεία θα μπορούσε να έχει υιοθετήσει -- σκόπιμα ή όχι -- μεροληψία σε σχέση με θέματα ίσων ευκαιριών.

Τα συστήματα αυτά θα πρέπει να αποκτήσουν διαφάνεια σχετικά με την διαδικασία λήψης αποφάσεων που εφαρμόζουν. Αυτό θα επιτρέψει τόσο την ανάλυση συγκεκριμένων περιπτώσεων, όσο και την εξασφάλιση της καλής εφαρμογής της τεχνολογίας – ευνοώντας επίσης την γενική κατανόηση και την ευρύτερη αποδοχή της.

Πρόσβαση στα δεδομένα, στην γνώση, στην τεχνολογία

Στο διασυνδεδεμένο κόσμο μας, ένας μικρός σχετικά αριθμός εταιρειών συσσωρεύει εντυπωσιακό όγκο πληροφορίας για κάθε έναν από εμάς – μπορούν ουσιαστικά να αναπαράγουν την καθημερινότητά μας σε μεγάλη λεπτομέρεια, γνωρίζοντας σε ποιες περιοχές κινούμαστε, τις αναζητήσεις στο διαδίκτυο, την δραστηριότητα στα social media, τις online παραγγελίες και φυσικά την ηλεκτρονική αλληλογραφία και τις συζητήσεις ή άλλες αλληλεπιδράσεις μέσω διαδικτύου. Για έναν ενεργό χρήστη, τα συστήματα αυτά διατηρούν, κατά κάποιο τρόπο, ένα αντίγραφο μεγάλου μέρους της ζωής του, της καθημερινότητάς του και των ενδιαφερόντων του. Η τεχνητή νοημοσύνη, έχοντας πρόσβαση σε αυτό τον απίστευτο πλούτο δεδομένων, μπορεί να κάνει εντυπωσιακές προβλέψεις και εκτιμήσεις με διάφορες εφαρμογές (καλοπροαίρετες ή μη), όπως για παράδειγμα από τα προϊόντα που κάποιος ενδιαφέρεται να αγοράσει μέχρι την συναισθηματική σταθερότητα ή κατάστασή του.

Στην περίπτωση μαζικής ανάλυσης αυτών των δεδομένων, οι προβλέψεις ανάγονται σε επίπεδο πληθυσμού: ένα προηγμένο σύστημα τεχνητής νοημοσύνης θα μπορούσε να προβλέψει τις τάσεις και τη δυναμική των διάφορων ομάδων ως προς συγκεκριμένες δραστηριότητες (εμπορικές, πολιτικού χαρακτήρα κλπ.) παρέχοντας ιδιαίτερη δύναμη και εξουσία στους ‘προνομιούχους’ διαχειριστές του συστήματος.

Ιδιωτικότητα

Το δικαίωμα της ιδιωτικότητας απειλείται, κυρίως στο σενάριο που κάποιος τρίτος αποκτά πρόσβαση στα δεδομένα του χρήστη ή στις εκτιμήσεις που ένα σύστημα τεχνητής νοημοσύνης μπορεί να κάνει για τον χρήστη. Αλλά ακόμα και στην περίπτωση που ένας πολίτης επιλέγει συνειδητά την αποχή από τον ‘διασυνδεδεμένο κόσμο’, θα αρκεί μία απλή μετακίνηση μέσα στην ‘έξυπνη πόλη’ για να καταγραφεί από δεκάδες κάμερες ασφαλείας και μέσα σε λίγα λεπτά να έχει αναγνωριστεί και πιθανότατα ταυτοποιηθεί – μέσω τεχνολογιών computer vision και αναγνώρισης προσώπου: ακόμα και αν κάποιος δεν χρησιμοποιεί έξυπνες συσκευές – θα είναι εξαιρετικά δύσκολο να κυκλοφορήσει ‘ελεύθερος’ (χωρίς να αφήνει ίχνη) στην πόλη του μέλλοντος.

Ασφάλεια συστημάτων

Η ασφάλεια των συστημάτων εξελίσσεται γρήγορα, ωστόσο τυχόν τεχνικά κενά θα μπορούσαν να επιτρέψουν σε κακόβουλους χρήστες να αποκτήσουν πρόσβαση και από-απόσταση-έλεγχο μία συνδεδεμένης συσκευής – για παράδειγμα ενός αυτοκινήτου - με προφανή, καταστροφικά ενδεχόμενα. Η ασφάλεια αυτών των προηγμένων συστημάτων πρέπει να είναι απόλυτη προτεραιότητα.

Τεχνολογική ανεργία

Η τεχνολογική ανεργία είναι το αποτέλεσμα της αντικατάστασης ανθρώπινου δυναμικού από έξυπνα συστήματα. Είναι βέβαιο ότι θα επιφέρει σημαντικές αλλαγές στην αγορά εργασίας – επαγγέλματα θα αφανιστούν, κλάδοι θα αναδιαρθρωθούν, ενώ ωράρια και μοντέλα απασχόλησης θα επαναπροσδιοριστούν. Ταυτόχρονα όμως θα δημιουργήσει ανάγκες για νέους ρόλους, εξειδικεύσεις και επιστημονικά πεδία, ενώ θα επιτρέψει καλύτερη χρήση του χρόνου σε περισσότερο δημιουργικές εργασίες.

Ηθική, Υπευθυνότητα και δύσκολες Αποφάσεις

Τα συστήματα τεχνητής νοημοσύνης πρέπει να εκπαιδεύονται και να μαθαίνουν ώστε να είναι συμβατά με την βασική ηθική και τους κανόνες που διέπουν τον πολιτισμό μας. Υπάρχουν πολλά παραδείγματα αποφάσεων που θίγουν ζητήματα ηθικής και αξιών – όπως στο σενάριο που ένα αυτόνομο αυτοκίνητο ‘βλέπει΄ ότι πρόκειται να εμπλακεί σε ένα σοβαρό ατύχημα - για παράδειγμα με έναν πεζό -  και πρέπει να ‘αποφασίσει’ σε κλάσματα δευτερολέπτου αν θα θέσει σε κίνδυνο τους επιβάτες του ή όχι (για παράδειγμα, οδηγώντας το αυτοκίνητο εκτός δρόμου ώστε να αποφύγει τον πεζό που είναι ήδη σε μεγαλύτερο κίνδυνο).

Η λογική αποφάσεων σε τέτοιες ακραίες καταστάσεις πρέπει να είναι προκαθορισμένη και γενικά αποδεκτή, ενώ το αναλυτικό ιστορικό των ενεργειών/ αποφάσεων του αυτοκινήτου διαθέσιμο προς ανάλυση.

Δυσανάλογη συγκέντρωση δύναμης

Οι τεχνολογικοί κολοσσοί της εποχής μας, επενδύουν σημαντικά στην τεχνητή νοημοσύνη τόσο σε επίπεδο επιστημονικής έρευνας όσο και στην ανάπτυξη της εμπορικής τους διάστασης. Οι μεγάλες αυτές τεχνολογικές επιχειρήσεις έχουν ένα τεράστιο πλεονέκτημα σε σχέση με τον όποιο επίδοξο ανταγωνιστή τους: τα άφθονα, συσσωρευμένα δεδομένα από μεγάλο εύρος ανθρώπινης δραστηριότητας (αναζητήσεις, επικοινωνία, δημιουργία περιεχομένου κλπ.) και σε διάφορους τύπους (για παράδειγμα βίντεο, εικόνες, έγγραφα). Ταυτόχρονα, σε συνδυασμό με το ισχυρό κίνητρο που έχουν για την επικράτηση στην αγορά, εξαγοράζουν οποιαδήποτε νέα εταιρεία καταφέρει να αναδειχθεί σε αυτόν τον τομέα – δημιουργώντας έτσι υπερδυνάμεις τεχνολογίας και δεδομένων, με προφανείς έμμεσους κινδύνους.

Αποφεύγοντας την ‘δυστοπία’

Η συγκεκριμένη τεχνολογική επανάσταση φέρνει εξαιρετικές ευκαιρίες για πρόοδο και ευημερία. Αυτό που πρέπει να εξασφαλιστεί, είναι η καλή χρήση της τεχνολογίας.

Χρειαζόμαστε ένα πλαίσιο ανάπτυξης, βασικούς κανόνες και γενικές προδιαγραφές που προσδίδουν διαφάνεια, αξιοπιστία και ασφάλεια. Χαρακτηριστικά βήματα προς την σωστή κατεύθυνση είναι η συζήτηση για απαγόρευση των ALWs, το Explainable AI (XAI) και το ‘Right to explanation’ – που επιτρέπουν την ‘εξήγηση’ αποφάσεων που προκύπτουν από πολύπλοκα μοντέλα (κάτι που απαιτείται και από το λεγόμενο European Union GDPR - General Data Protection Regulation).   

Ταυτόχρονα, σε επίπεδο κοινωνίας, είναι ιδιαίτερα σημαντικό να διαμορφωθεί μία γενική κατανόηση της τεχνολογίας, των επερχόμενων αλλαγών, των ευκαιριών αλλά και των σχετικών κινδύνων. Σε επίπεδο πολιτείας, απαιτείται μία νέα στρατηγική με έμφαση στο εκπαιδευτικό σύστημα αλλά και ένα νέο πλαίσιο λειτουργίας της αγοράς, των επιχειρήσεων και των κρατικών μηχανισμών. Απαιτείται επίσης ένα ισχυρό πλαίσιο για την αποφυγή της δυσανάλογης συγκέντρωσης τεχνολογικής δύναμης και ελέγχου.    

Γιώργος Κρασαδάκης είναι Product Architect με εκτενή εμπειρία στην ανάπτυξη προϊόντων λογισμικού και τον σχεδιασμό προγραμμάτων καινοτομίας για εταιρίες τεχνολογίας. Ιδρυτής τριών τεχνολογικών startups, έχει καταχωρήσει περισσότερες από 17 πατέντες τεχνολογίας σχετικές με Personalization, IoT, Artificial Intelligence, Analytics & Big Data, Content management, Natural User Interfaces.

3ο Συνέδριο Τεχνολογίας της «Ναυτεμπορικής»
Τεχνητή Νοημοσύνη: Ευλογία ή απειλή; 
Πέμπτη 28 Ιανουαρίου 2018
Royal Olympic Hotel, Athens
#Nconferences