Τεχνολογία-Επιστήμη
Τρίτη, 09 Απριλίου 2019 18:08

Κανόνες στην τεχνητή νοημοσύνη απαιτεί η Κομισιόν

Οι εταιρείες που δουλεύουν πάνω στην τεχνητή νοημοσύνη πρέπει να θέσουν σε ισχύ μηχανισμούς- δικλείδες ασφαλείας για να αποτρέψουν την κατάχρησή της, ανέφερε η Κομισιόν τη Δευτέρα, στο ευρύτερο πλαίσιο της επιβολής νέων κανόνων ηθικής σε μια τεχνολογία η οποία θεωρείται επίφοβη από άποψης ανάπτυξης και χρήσης.

Οι εταιρείες που δουλεύουν πάνω στην τεχνητή νοημοσύνη πρέπει να θέσουν σε ισχύ μηχανισμούς- δικλείδες ασφαλείας για να αποτρέψουν την κατάχρησή της, ανέφερε η Κομισιόν τη Δευτέρα, στο ευρύτερο πλαίσιο της επιβολής νέων κανόνων ηθικής σε μια τεχνολογία η οποία θεωρείται επίφοβη από άποψης ανάπτυξης και χρήσης.

Τα projects στον χώρο της τεχνητής νοημοσύνης θα έπρεπε να είναι διαφανή, να τελούν υπό ανθρώπινη επίβλεψη και αξιόπιστους αλγορίθμους και να υπακούν σε κανόνες ιδιωτικότητας και προστασίας δεδομένων, ανέφερε, μεταξύ άλλων, η Ευρωπαϊκή Επιτροπή, σύμφωνα με το Reuters.

H ευρωπαϊκή αυτή πρωτοβουλία εντάσσεται στο ευρύτερο πλαίσιο του διαλόγου σχετικά με το αν οι εταιρείες θα έπρεπε να βάλουν τους ηθικούς προβληματισμούς στον κλάδο πάνω από τα επιχειρηματικά συμφέροντα, και το πόσο αυστηροί μπορούν να είναι οι κανόνες χωρίς να φτάνουν στο σημείο να καταπνίγουν την καινοτομία.

«Η ηθική διάσταση της τεχνητής νοημοσύνης δεν είναι είδος πολυτελείας, ή κάτι επιπρόσθετο. Μόνο με εμπιστοσύνη μπορεί να επωφεληθεί πλήρως η κοινωνία μας από τις τεχνολογίες» είπε ο αρμόδιος επίτροπος, Άντρους Άνσιπ, σε δήλωσή του.

Η τεχνητή νοημοσύνη μπορεί να βοηθήσει στον εντοπισμό απειλών κυβερνοασφαλείας και απατών, στη βελτίωση του κλάδου της υγείας, στη διαχείριση οικονομικού ρίσκου και στην αντιμετώπιση της κλιματικής αλλαγής. Ωστόσο, μπορεί να χρησιμοποιηθεί και για αθέμιτες πρακτικές, καθώς και από απολυταρχικά καθεστώτα.

Η ΕΕ πέρυσι ζήτησε τη βοήθεια 52 ειδικών από πανεπιστήμια, βιομηχανικούς φορείς και εταιρείες (περιλαμβανομένων των Google, SAP, Santander, Bayer) για να συντάξει μια σειρά αρχών πάνω στο θέμα. Εταιρείες και οργανισμοί μπορούν να συμμετέχουν σε μια πιλοτική φάση, η οποία αρχίζει τον Ιούνιο, μετά την οποία οι ειδικοί θα εξετάσουν τα αποτελέσματα και η Κομισιόν θα αποφασίσει για τα επόμενα βήματα.

Ο Μάρτιν Τζέτερ, πρόεδρος της IBM Europe, που ήταν μέλος της ομάδας των ειδικών, είπε πως οι κατευθυντήριες αυτές γραμμές «θέτουν ένα διεθνές πρότυπο για τις προσπάθειες ανάπτυξης τεχνητής νοημοσύνης που είναι τόσο ηθική όσο και υπεύθυνη». Ωστόσο, από πλευράς του, ο Αχίμ Μπεργκ, πρόεδρος της γερμανικής BITKOM, είπε πως «πρέπει να διασφαλίσουμε στη Γερμανία και την Ευρώπη πως δεν συζητούμε μόνο την τεχνητή νοημοσύνη, μα και φτιάχνουμε τεχνητή νοημοσύνη».