Την προηγούμενη άνοιξη ο καθηγητής Vicente Ordóñez του πανεπιστημίου της Βιρτζίνια παρατήρησε ότι οι επιλογές του λογισμικού αναγνώρισης εικόνας που δημιούργησε χρησιμοποιώντας μηχανική μάθηση ήταν αρκετά περίεργες. Όπως και ο ίδιος ανέφερε:
Όταν το λογισμικό έβλεπε μια εικόνα κουζίνας την συνέδεε κατευθείαν με μια γυναίκα
Αυτό έκανε τον Ordóñez να αναρωτιέται εάν αυτός ή άλλοι ερευνητές τροφοδοτούσαν υποσυνείδητα προκαταλήψεις μέσα στο λογισμικό τους. Για αυτόν τον λόγο μαζί με τους συνεργάτες τους άρχισε να ελέγχει τις δύο μεγάλες συλλογές φωτογραφιών που χρησιμοποιήθηκαν για την εκπαίδευση του λογισμικού. ( Με τον όρο εκπαίδευση εννοούμε ότι το λογισμικό με βάση κάποιο πρότυπο μπορεί να αναγνωρίσει παρόμοιες οντότητες. Με όσες περισσότερες πληροφορίες έχει τροφοδοτηθεί για το πρότυπο του, στην περίπτωση μας μια εικόνα, τόσο καλύτερα μπορεί να το αναγνωρίσει.)
Τα αποτελέσματα αυτού του ελέγχου έδειξαν ότι αυτές οι συλλογές φωτογραφιών προβάλλουν μια μεγάλη προκατάληψη όσον αφορά το φύλο. Για παράδειγμα εικόνες σχετικές με την μαγειρική και την καθαριότητα συνδέονται με τις γυναίκες.
Το λογισμικό που εκπαιδεύτηκε στα σύνολα δεδομένων μέσω της μηχανικής μάθησης όχι μόνο δεν αντικατόπτρισε αυτές τις προκαταλήψεις, αλλά τις ενίσχυσε. Εάν ένα σετ φωτογραφιών γενικά συνέδεε τις γυναίκες με το μαγείρεμα, το λογισμικό που εκπαιδεύτηκε με τη μελέτη αυτών των φωτογραφιών δημιουργούσε μια ακόμα μεγαλύτερη σχέση μεταξύ αυτών των δύο.
Τα προβλήματα της μηχανικής μάθησης.
Καθώς τα εξελιγμένα προγράμματα μηχανικής μάθησης πολλαπλασιάζονται, οι διαστρεβλώσεις αυτές έχουν σημασία. Στις δοκιμές των ερευνητών, οι άνθρωποι που απεικονίζονται στις κουζίνες ήταν ακόμα πιο πιθανό να χαρακτηριστούν ως γυναίκες. Για παράδειγμα σε μια δοκιμή υπάρχει μια φωτογραφία ενός άνδρα κοντά σε ένα ψυγείο με την ονομασία “γυναίκα” από δίπλα.
Αυτά τα προβλήματα θα μπορούσαν να επηρεάσουν τους έξυπνους βοηθούς όπως το Amazon Look ή εργαλεία που χρησιμοποιούν φωτογραφίες κοινωνικών μέσων για να διακρίνουν τις προτιμήσεις των καταναλωτών. Για παράδειγμα η Google μας έκανε μια επίδειξη τέτοιου λάθους το 2015. Όταν τακτοποιούσε κάποιος χρήστης τις φωτογραφίες του σε άλμπουμ αυτόματα, οι φωτογραφίες με μαύρους ανθρώπους κατηγοριοποιούνται ως γορίλες.
Τελικά το πεδίο της μηχανής μάθησης και τοφ πώς αυτή χρησιμοποιείται για την επίλυση προβλημάτων είναι πιο περίπλοκο από ό, τι πολλοί άνθρωποι σκέφτονταν στο παρελθόν. Τέτοια παραδείγματα διορθώνουν την ψευδαίσθηση μας ότι οι αλγόριθμοι της μηχανικής μάθησης μπορούν να εφαρμόζονται τυφλά για την επίλυση προβλημάτων.
Η ΑΠΟΚΑΛΥΨΗ ΤΟΥ ΕΝΑΤΟΥ ΚΥΜΑΤΟΣ
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Επειδη Η Ανθρωπινη Ιστορια Δεν Εχει Ειπωθει Ποτε.....Ειπαμε κι εμεις να βαλουμε το χερακι μας!
Σημείωση: Μόνο ένα μέλος αυτού του ιστολογίου μπορεί να αναρτήσει σχόλιο.