Στο θέμα της τεχνητής νοημοσύνης (Α.Ι) και της χρήσης της για στρατιωτικούς σκοπούς αναφέρεται σε άρθρο της στο Defense News η Γαλλίδα υπουργός Άμυνας, Φλοράνς Παρλί- τονίζοντας πως η Γαλλία «αρνείται να εμπιστευθεί την απόφαση περί ζωής και θανάτου σε μια μηχανή που θα ενεργεί πλήρως αυτόνομα και θα διαφεύγει οποιασδήποτε μορφής ανθρώπινου ελέγχου».
Στο θέμα της τεχνητής νοημοσύνης (Α.Ι) και της χρήσης της για στρατιωτικούς σκοπούς αναφέρεται σε άρθρο της στο Defense News η Γαλλίδα υπουργός Άμυνας, Φλοράνς Παρλί- τονίζοντας πως η Γαλλία «αρνείται να εμπιστευθεί την απόφαση περί ζωής και θανάτου σε μια μηχανή που θα ενεργεί πλήρως αυτόνομα και θα διαφεύγει οποιασδήποτε μορφής ανθρώπινου ελέγχου».
Η Γαλλίδα υπουργός αναφέρεται στις εκτιμήσεις περί χρήσης τεχνολογιών τεχνητής νοημοσύνης στις ένοπλες δυνάμεις κατά τις προσεχείς δεκαετίες, ωστόσο επισημαίνει πως «προσωπικά δεν θέτω σε σύγκριση τον άνθρωπο με το ρομπότ».
«Δεν τίθεται καν θέμα συζήτησης περί αντικατάστασης της ανθρώπινης νοημοσύνης από τεχνητή νοημοσύνη- ωστόσο θα είναι απαραίτητη για να πολλαπλασιαστούν οι δυνατότητές μας. Η τεχνητή νοημοσύνη δεν είναι στόχος, per se, πρέπει να συμβάλει στην καλύτερα πληροφορημένη και ταχύτερη λήψη αποφάσεων προς όφελος των στρατιωτών μας».
Η Παρλί υπογραμμίζει τις δυνατότητες που συνεπάγεται η ΑΙ στον τομέα των πληροφοριών (εξέταση τεράστιων όγκων δεδομένων και εξαγωγή συμπερασμάτων) στην προστασία των στρατιωτών (εκκένωση τραυματιών, εκκαθάριση ναρκοπεδίων κλπ από ρομπότ), καθώς και όσον αφορά στην ενίσχυση της κυβερνοάμυνας.
«Έχουμε να κερδίσουμε τα πάντα αγκαλιάζοντας τις ευκαιρίας που μας προσφέρει η τεχνητή νοημοσύνη. Για αυτό και το γαλλικό υπουργείο Ενόπλων Δυνάμεων αποφάσισε να κάνει μεγάλες επενδύσεις στον τομέα. Ωστόσο δεν είμαστε αφελείς και δεν αγνοούμε τους κινδύνους που σχετίζονται με την ανάπτυξη αναδυόμενων τεχνολογιών όπως η ΑΙ. Ως εκ τούτου, επιλέξαμε να αναπτύξουμε την αμυντική τεχνητή νοημοσύνη με βάση τρεις μεγάλες αρχές: Την τήρηση του διεθνούς δικαίου, τη διατήρηση επαρκούς ανθρώπινου ελέγχου και τη διασφάλιση πως η ευθύνη θα παραμένει μόνιμα στην ιεραρχία».
Σε αυτό το πλαίσιο, πρόσθεσε, αποφασίστηκε η δημιουργία μιας υπουργικής επιτροπής ηθικής που επικεντρώνεται σε ζητήματα άμυνας και θα αναλάβει καθήκοντα στα τέλη του έτους, με σκοπό να βοηθήσει στη λήψη αποφάσεων σχετικά με τέτοια θέματα. «Κύριος ρόλος της θα είναι να απαντά σε ερωτήματα που προκύπτουν από αναδυόμενες τεχνολογίες και την πιθανή χρήση τους στον τομέα της άμυνας».
Εστιάζοντας στην τεχνητή νοημοσύνη και τα αποκαλούμενα «φονικά ρομπότ» (killer robots- οπλικά συστήματα που θα επιχειρούν αυτόνομα, χωρίς ανθρώπινη επίβλεψη), η Παρλί έγραψε πως «είναι σημαντικό να ξέρουμε ότι τέτοια συστήματα δεν υπάρχουν ακόμα στα σημερινά θέατρα επιχειρήσεων, ωστόσο είναι βάσιμο το να συζητούμε για αυτά».
«Η Γαλλία έθεσε αυτό το θέμα το 2013 στα Ηνωμένα Έθνη...θέλουμε αυτές οι συζητήσεις να συνεχιστούν σε αυτό το πολυμερές πλαίσιο, το μόνο που μπορεί να επιφέρει ρυθμιστικούς κανόνες για τα στρατιωτικά αυτόνομα συστήματα...δεν μπορούμε να αποκλείσουμε τον κίνδυνο να αναπτυχθούν τέτοια όπλα κάποια στιγμή από ανεύθυνα κράτη, ή να πέσουν στα χέρια μη κρατικών δρώντων. Η ανάγκη να συνεργαστούμε με όλα τα άλλα έθνη του κόσμου είναι ακόμα πιο επιτακτική».
Καταλήγοντας, η Γαλλίδα υπουργός υπογραμμίζει τα εξής: «Η Γαλλία υπερασπίζεται τις αξίες της, σέβεται τις διεθνείς της δεσμεύσεις και παραμένει πιστή σε αυτές. Η θέση μας είναι αδιαπραγμάτευτη και έχει εκφραστεί ξεκάθαρα από τον πρόεδρο Εμανουέλ Μακρόν: Η Γαλλία αρνείται να εμπιστευθεί την απόφαση περί ζωής και θανάτου σε μια μηχανή που θα ενεργεί πλήρως αυτόνομα και θα διαφεύγει οποιασδήποτε μορφής ανθρώπινου ελέγχου. Τέτοια συστήματα είναι θεμελιωδώς αντίθετα σε όλες μας τις αρχές. Δεν παρουσιάζουν επιχειρησιακό ενδιαφέρον για ένα κράτος οι ένοπλες δυνάμεις του οποίου υπακούν στο διεθνές δίκαιο, και δεν θα χρησιμοποιήσουμε τέτοια. Ο “Εξολοθρευτής” δεν θα παρελάσει ποτέ στη λεωφόρο των Ηλυσίων Πεδίων την Ημέρα της Βαστίλης».