H τεχνητή νοημοσύνη ρίχνεται στη μάχη κατά των διαδικτυακών τρολ αλλά θα τα καταφέρει;

Στελέχη του Facebook, του Twitter και του YouTube λένε ότι η τεχνητή νοημοσύνη είναι η λύση για την αστυνόμευση της πλημμυρίδας προσβλητικού περιεχομένου που δημοσιεύουν χρήστες στις γνωστές αυτές πλατφόρμες. Η τεχνολογία θα μπορούσε να σαρώνει γρήγορα όλο το εισερχόμενο περιεχόμενο, υποστηρίζουν τα στελέχη, και να αφαιρεί οτιδήποτε θεωρεί ότι ενθαρρύνει το μίσος ή τη βία, ή συνιστά εκφοβισμό.

Όμως, η πραγματικότητα ίσως να μην είναι τόσο εντυπωσιακή. Αν και η μηχανική μάθηση μπορεί να βοηθήσει στην αυτόματη απομάκρυνση αναρτήσεων, είναι απίθανο να λύσει εντελώς το πρόβλημα, δήλωσε ο Tim Winchcomb, επικεφαλής τεχνολογικής στρατηγικής για την Cambridge Consultants.

Πρόκειται για ένα θέμα που ο ίδιος έχει αναλύσει πολύ. Η εταιρεία του δημοσίευσε πρόσφατα μια μελέτη εκ μέρους του Γραφείου Επικοινωνιών του Ηνωμένου Βασιλείου (Ofcom) σχετικά με τη χρήση της τεχνητής νοημοσύνης για τον έλεγχο περιεχομένου. Η βρετανική κυβέρνηση εξετάζει το ενδεχόμενο ρύθμισης των εταιρειών τεχνολογίας που διανέμουν περιεχόμενο στο διαδίκτυο, και το Ofcom ζήτησε πληροφορίες που θα «συμβάλλουν στην ευρύτερη συζήτηση για τις βλάβες που δημιουργεί το διαδίκτυο», ανέφερε ο Winchcomb.

Αποτελεί «κοινή αντίληψη ότι η τεχνητή νοημοσύνη θα λύσει όλα τα προβλήματά μας», είπε στο Fortune. Όμως, ακόμα και τα πιο εξελιγμένα συστήματα τεχνητής νοημοσύνης σήμερα δεν ανταποκρίνονται στις απαιτήσεις.

Είναι απλό: η τεχνητή νοημοσύνη δεν είναι αρκετά έξυπνη για να καταλάβει τις λεπτές αποχρώσεις της γλώσσας. Για παράδειγμα, η τρέχουσα τεχνολογία φυσικής επεξεργασίας γλώσσας – ένας τύπος τεχνητής νοημοσύνης που βοηθά τους υπολογιστές να κατανοούν τη γλώσσα – έχει δυσκολίες να κατανοήσει τον σαρκασμό ή να ξεχωρίσει ένα αστείο που μπορεί να προκαλεί γέλιο σε κάποιον αλλά θα θεωρείται προσβλητικό για κάποιον άλλο.

Επιπλέον, η τεχνητή νοημοσύνη έχει προβλήματα στην κατανόηση των πολιτισμικών διαφορών, γεγονός που επηρεάζει τον βαθμό επιτυχίας της σε διαφορετικές χώρες. Η μελέτη του Cambridge αναφέρει ένα βίντεο στο YouTube του 2006 που η κυβέρνηση της Ταϊλάνδης είπε ότι ήταν προσβλητικό επειδή έδειχνε τον βασιλιά της Ταϊλάνδης με τα πόδια κάποιου άλλου στο κεφάλι του.

Εκεί όπου η τεχνητή νοημοσύνη μπορεί να βοηθήσει σε μεγάλο βαθμό είναι στην παροχή βοήθειας στους ανθρώπους που ελέγχουν το περιεχόμενο- και όχι στην αντικατάστασή τους. Για παράδειγμα, η τεχνολογία θα μπορούσε να εντοπίζει ακατάλληλες ενότητες σε βίντεο, έτσι ώστε οι ελεγκτές περιεχομένου να μην χάνουν το χρόνο τους παρακολουθώντας ολόκληρα τα κλιπ.

Με άλλα λόγια, η τεχνητή νοημοσύνη μπορεί να μην είναι η απάντηση στην εύρεση και την απομάκρυνση όλης της «βρωμιάς» στο διαδίκτυο. Όμως, θα μπορούσε να βοηθήσει τους συντονιστές που είναι επιφορτισμένοι με αυτό το εξαιρετικά δύσκολο καθήκον.

Ακολουθήστε το The Indicator στο Google news

Σχετικά Νέα