Ένα σχέδιο για τη χρήση λογισμικού τεχνητής νοημοσύνης με σκοπό την εξέταση υλικού που δημοσιεύεται στο Facebook παρουσίασε ο ιδρυτής του, Μαρκ Ζάκερμπεργκ, με δημόσια επιστολή του που αναρτήθηκε στο κοινωνικό δίκτυο.
Όπως γράφει, αλγόριθμοι θα είναι κάποια στιγμή σε θέση να εντοπίζουν τρομοκρατία, βία, bullying και ακόμα και να αποτρέπουν αυτοκτονίες, ενώ παράλληλα παραδέχτηκε πως το Facebook είχε στο παρελθόν κάνει λάθη όσον αφορά σε περιεχόμενο που απομακρύνθηκε από την ιστοσελίδα του.
Πάντως, όπως συμπληρώνει, θα χρειαστούν χρόνια για να αναπτυχθούν οι απαραίτητοι αλγόριθμοι για αυτή τη δουλειά.
Όπως αναφέρει το BBC, στην 5.500 λέξεων επιστολή του για το μέλλον του Facebook, ο Ζάκερμπεργκ ανέφερε ότι είναι αδύνατον να εξετάζονται τα δισεκατομμύρια posts και μηνύματα που εμφανίζονται στην πλατφόρμα κάθε ημέρα. Ο ίδιος υπέδειξε την απομάκρυνση βίντεο που σχετίζονταν με το Black Lives Matter και την ιστορική φωτογραφία του κοριτσιού από το Βιετνάμ ως λάθη στις υπάρχουσες διαδικασίες. «Ερευνούμε συστήματα που μποροούν να διαβάζουν κείμενο και να κοιτούν φωτογραφίες και βίντεο για να κατανοούν αν κάτι επικίνδυνο συμβαίνει. Είναι ακόμα πολύ νωρίς στην ανάπτυξή του, αλλά έχουμε αρχίσει να το βάζουμε να κοιτά περιεχόμενο, και ήδη παράγει περίπου το 1/3 όλων των αναφορών στην ομάδα που εξετάζει περιεχόμενο. Αυτή τη στιγμή, αρχίζουμε να εξερευνούμε τρόπους να χρησιμοποιούμε την τεχνητή νοημοσύνη για να διακρίνεται η διαφορά ανάμεσα σε ειδήσεις για τρομοκρατία και τρομοκρατική προπαγάνδα».
Όπως γράφει, ο απώτερος στόχος είναι οι άνθρωποι να μπορούν να ανεβάζουν σε γενικές γραμμές ό,τι τους αρέσει, εντός του πλαισίου του νόμου, με τους αλγορίθμους να εξετάζουν τι ανεβαίνει. Τότε, οι χρήστες θα είναι σε θέση να φιλτράρουν το news feed τους για να απομακρύνουν τις δημοσιεύσεις που δεν θέλουν να βλέπουν. «Πού είναι η γραμμή σας όσον αφορά στο γυμνό; Ή τη βία; Ή το σκληρό υλικό; Ή τις ύβρεις; Αυτά που αποφασίζετε θα είναι οι προσωπικές σας ρυθμίσεις» αναφέρει σχετικά. «Για αυτούς που δεν αποφασίζουν, το default θα είναι ό,τι επιλέγει η πλειοψηφία των ανθρώπων στην περιοχή σας, σαν ένα δημοψήφισμα. Αξίζει να σημειώσουμε πως χρειάζονται μεγάλες εξελίξεις στην τεχνητή νοημοσύνη για την κατανόηση κειμένου, φωτογραφιών και βίντεο για να κρίνεται αν περιέχεται ρητορική μίσους, βία, σεξουαλικό υλικό και άλλα. Με τους παρόντες ρυθμούς έρευνας, ελπίζουμε να αρχίσουμε να ασχολούμαστε με κάποιες από αυτές τις υποθέσεις το 2017, αλλά άλλες ίσως να μην είναι δυνατόν κάτι τέτοιο για πολλά χρόνια».