- Newsroom
Μια διαδικτυακή μηχανή αναζήτησης μεταφράζει τον αγγλικό όρο «nurse» ως «νοσοκόμα», ενώ ένα εργαλείο τεχνητής νοημοσύνης, όταν του ζητείται να δημιουργήσει εικόνες για δασκάλους σε δημοτικά σχολεία, αυτό απαντά με χαμογελαστές γυναίκες σε σχολικές αίθουσες.
Αντίθετα, όταν το αίτημα αφορά μηχανικούς, οι παραγόμενες εικόνες απεικονίζουν άνδρες επαγγελματίες. Τέτοιου είδους βαθιά ριζωμένες έμφυλες προκαταλήψεις είναι ορατές στα δεδομένα και τους αλγόριθμους της τεχνητής νοημοσύνης που χρησιμοποιούνται σε εκπαιδευτικά συστήματα στους τομείς της Επιστήμης, της Τεχνολογίας, της Μηχανικής και των Μαθηματικών (σ.σ. STEM).

Το παραπάνω αναδεικνύεται σε έρευνα διεθνούς ερευνητικής ομάδας, στην οποία συμμετείχαν ο καθηγητής της Πολυτεχνικής Σχολής του Πανεπιστημίου της Μαδρίτης, Εντμούντο Τοβάρ, η Τίνα Νάντσου από το Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών, η Χένη Βίγια από το Πανεπιστήμιο του Μόντρεαλ, ο Ευάγγελος Δαγκλής από το Πανεπιστήμιο Μακεδονίας, η Βιβιάνα Καλέα από το Πανεπιστήμιο Sapienza της Ρώμης και η Χιμένα Οτέγκι από το Πανεπιστήμιο της Δημοκρατίας στο Μοντεβιδέο.
Η έρευνα με τίτλο «The Intersection of Engineering Education, AI, and Women: A Review of IEEE Xplore» παρουσιάστηκε στο ετήσιο παγκόσμιο εκπαιδευτικό συνέδριο «IEEE Global Engineering Education Conference (EDUCON) 2025», που πραγματοποιήθηκε στο Πανεπιστήμιο Queen Mary του Λονδίνου και πρόκειται να δημοσιευθεί στην ψηφιακή βιβλιοθήκη IEEE Xplore.
Η φυσικός, Δρ Τίνα Νάντσου, ειδική σύμβουλος για την Ελλάδα στο Ινστιτούτο Θεωρητικής Φυσικής Perimeter του Καναδά και εκπαιδευτικός η ίδια, περιγράφει στο ΑΠΕ-ΜΠΕ πώς, ερχόμενη σε επαφή με την αναπαραγωγή στερεοτύπων από την τεχνητή νοημοσύνη, «ένιωσα την ανάγκη να αναλάβω δράση και πρότεινα στην ομάδα μας να εστιάσουμε την έρευνά μας στην τεχνητή νοημοσύνη και την προκατάληψη».
«Ως γυναίκα, ερευνήτρια και εκπαιδευτικός στη Φυσική, αλληλοεπιδρώ καθημερινά με εργαλεία τεχνητής νοημοσύνης. Τα χρησιμοποιώ για να μεταφράζω επιστημονικά άρθρα, να απαντάω σε ερωτήματα, ακόμα και για να διαχειρίζομαι τα υπερφορτωμένα εισερχόμενα μηνύματά μου. Από πολλές απόψεις η τεχνητή νοημοσύνη έχει γίνει το δεξί μου χέρι- ένας πρακτικός, ισχυρός σύμμαχος στην ακαδημαϊκή και διδακτική μου ζωή. Όμως, ακριβώς μέσα από αυτή την καθημερινή, πρακτική εμπειρία, άρχισα να παρατηρώ μοτίβα που με έκαναν να νιώθω άβολα – μικρές λεπτομέρειες στην αρχή, αλλά βαθιά αποκαλυπτικές. Για παράδειγμα, στις μεταφράσεις, όταν η αρχική πρόταση ήταν ουδέτερη, όπως “Αυτός/ Αυτή είναι γιατρός”, η τεχνητή νοημοσύνη σχεδόν πάντα απέδιδε το επάγγελμα “γιατρός” ή “μηχανικός” με το “αυτός”, ενώ αντίθετα χρησιμοποιούσε το “αυτή” για επαγγέλματα, όπως “γραμματέας” ή “νοικοκυρά”. Αυτές οι ανεπαίσθητες, αλλά σταθερές συσχετίσεις φύλου αντικατοπτρίζουν ακριβώς το είδος της κοινωνικής προκατάληψης που τα εργαλεία και τα μοντέλα τεχνητής νοημοσύνης κληρονομούν από τα δεδομένα εκπαίδευσής τους και αναπαράγουν χωρίς κριτική».
Ανάλογες παρατηρήσεις έκανε η κ. Νάντσου και κατά τη δημιουργία εικόνων. «Όταν ζητώ μια οπτική αναπαράσταση ενός “δασκάλου δημοτικού σχολείου”, σχεδόν πάντα εμφανίζεται μια χαμογελαστή γυναίκα σε μια σχολική αίθουσα. Αντίθετα, όταν ζητώ εικόνες που απεικονίζουν έναν “επιστήμονα που εργάζεται σε πειράματα φυσικής”, στις παραγόμενες εικόνες εμφανίζονται σχεδόν αποκλειστικά άνδρες. Αυτό μπορεί να φαίνεται ασήμαντο, αλλά τέτοιες οπτικές αναπαραστάσεις έχουν τη δύναμη να διαμορφώνουν, σταδιακά, τον τρόπο με τον οποίο οι μαθητές – και συνολικά η κοινωνία –αντιλαμβάνονται συγκεκριμένα επαγγέλματα. Καθώς διδάσκω και έχω την ευθύνη να καθοδηγώ τους μαθητές μου, ιδιαίτερα τα κορίτσια, στις φυσικές επιστήμες, αυτό το φαινόμενο με ώθησε στο να αναρωτηθώ: Αν τα εργαλεία που χρησιμοποιούμε στην τάξη ενισχύουν, έστω και υποσυνείδητα, τέτοια στερεότυπα, τότε ποιες αξίες μεταδίδουμε τελικά στους μαθητές μας;», επισημαίνει η Τίνα Νάντσου.
Ο καθηγητής Εντμούντο Τοβάρ εντόπισε κατά την ακαδημαϊκή του πορεία ακόμη μία διάσταση του προβλήματος: «Οι προκαταλήψεις ενισχύονται και λόγω της κυριαρχίας της αγγλικής γλώσσας στον σχεδιασμό πολυγλωσσικών εντολών στα συστήματα τεχνητής νοημοσύνης. Για παράδειγμα, τα εργαλεία τεχνητής νοημοσύνης που έχουν εκπαιδευτεί κυρίως σε αγγλόφωνα δεδομένα, δυσκολεύονται να ανταποκριθούν ισότιμα στα ισπανικά ή σε άλλες γλώσσες ενισχύοντας με ακούσιο τρόπο αγγλοκεντρικούς πολιτισμικούς κανόνες και έμφυλα στερεότυπα».

Προκαταλήψεις ακόμα και στα πιο σύγχρονα μοντέλα
Οι ερευνητές πραγματοποίησαν ανασκόπηση σε 279 επιστημονικά άρθρα από συνέδρια και περιοδικά που δημοσιεύθηκαν στην επιστημονική ψηφιακή βιβλιοθήκη IEEE Xplore την περίοδο 2010-2024. Όπως διαπίστωσαν, η τεχνητή νοημοσύνη έχει σημαντική, αλλά έως τώρα ελάχιστα αξιοποιημένη δυναμική για τη βελτίωση και την εξατομίκευση της εκπαιδευτικής διαδικασίας, ιδιαίτερα στους τομείς STEM. Παράλληλα, όμως, μπορεί πολύ εύκολα να αναπαράγει και να ενισχύσει υφιστάμενες έμφυλες προκαταλήψεις.
Αυτό παρατηρείται ακόμη και στα πιο σύγχρονα και προηγμένα μοντέλα. Εντοπίστηκε ότι η δημιουργική τεχνητή νοημοσύνη (Generative AI), η οποία παράγει περιεχόμενο, όπως κείμενα και εικόνες, ενσωματώνει έντονα έμφυλα, φυλετικά και επαγγελματικά στερεότυπα. Τα στερεότυπα αυτά εμφανίζονται σε μια πληθώρα τομέων, από την υγεία και την εκπαίδευση έως τις τέχνες και τον αθλητισμό, ενώ φτάνουν ακόμα και σε ζητήματα ρατσισμού και σεξουαλικοποίησης των γυναικών.
Σε έρευνα του Πανεπιστημίου Στάνφορντ, την οποία επικαλείται και η παρούσα μελέτη, διαπιστώθηκε ότι ακόμη και πολύ λεπτομερείς και σαφείς εντολές δεν είναι ικανές να εξαλείψουν τις βαθιά ριζωμένες προκαταλήψεις που ενσωματώνονται στη διαδικασία εκπαίδευσης των μοντέλων. Επιπλέον, αν και υπάρχει αυξανόμενο ενδιαφέρον για τα Μεγάλα Γλωσσικά Μοντέλα (LLMs), έχει δοθεί ελάχιστη προσοχή στον αντίκτυπό τους σε ζητήματα έμφυλης ανισότητας.
Σύμφωνα με το Berkeley Haas Center, η έμφυλη προκατάληψη στην τεχνητή νοημοσύνη δεν αποτελεί νέο φαινόμενο, αλλά ένα διαχρονικό πρόβλημα του κλάδου, το οποίο έχει αναδειχθεί λόγω της αυξανόμενης διάδοσής του σε διάφορους τομείς. Ενδεικτικό είναι το ότι την τελευταία πενταετία, η ραγδαία εξάπλωση της τεχνητής νοημοσύνης έχει συμβάλει στην αύξηση της ποσότητας και της ποιότητας των deepfakes, πολύ συχνά εις βάρος των γυναικών και φυλετικών ομάδων.
Περαιτέρω ερευνητικά ευρήματα δείχνουν ότι η μεροληψία στην τεχνητή νοημοσύνη μπορεί να ευνοεί ορισμένες ομάδες, όπως τους άνδρες, μέσα από θεσμικές πρακτικές και κανόνες – χωρίς απαραίτητα να πρόκειται για συνειδητή ή σκόπιμη επιλογή. Χαρακτηριστικό παράδειγμα αποτέλεσε το σύστημα προσλήψεων της Amazon, το οποίο εμφάνιζε μεροληψία κατά των γυναικών, απορρίπτοντας βιογραφικά που περιείχαν τη λέξη «γυναίκα». Ο λόγος ήταν ότι το σύστημα είχε εκπαιδευτεί κυρίως με δεδομένα από άνδρες υποψηφίους. «Αν και το πρόβλημα τελικά αναγνωρίστηκε και το σύστημα απενεργοποιήθηκε, αυτή η περίπτωση αποδεικνύει ξεκάθαρα ότι η αναγνώριση της προκατάληψης δεν συνεπάγεται απαραίτητα και την επιτυχή εξάλειψή της», σχολιάζει στο ΑΠΕ-ΜΠΕ η κ. Νάντσου.
Πρόκληση η εξάλειψη των προκαταλήψεων
Την ίδια στιγμή, η περιορισμένη διαφάνεια πολλών αλγόριθμων τεχνητής νοημοσύνης καθιστά δύσκολη την αναγνώριση και τη διόρθωση των προκαταλήψεων. Ωστόσο, όπως τονίζουν οι ερευνητές, ο φαύλος κύκλος της προκατάληψης πρέπει να διακοπεί. Η δημιουργία και χρήση ουδέτερων, τυποποιημένων συνόλων δεδομένων για την ηθικά υπεύθυνη και με ακρίβεια εκπαίδευση των μοντέλων τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την παραγωγή δίκαιων και αμερόληπτων αποτελεσμάτων.
Όπως επισημαίνει στο ΑΠΕ-ΜΠΕ ο Εντμούντο Τοβάρ, «η αντιμετώπιση των προκαταλήψεων στην τεχνητή νοημοσύνη αποτελεί ένα σύνθετο εγχείρημα που απαιτεί τόσο τεχνικές παρεμβάσεις όσο και ευρύτερη κοινωνική ευαισθητοποίηση. Ένα βασικό εύρημα της έρευνάς μας είναι πως οι ρίζες των προκαταλήψεων δεν εντοπίζονται αποκλειστικά στην αλγοριθμική δομή, αλλά κυρίως στα ίδια τα δεδομένα εκπαίδευσης των μοντέλων - ιδιαίτερα όταν αυτά είναι προκατειλημμένα ή ελλιπή».
Η ενίσχυση της συμμετοχής των γυναικών στην τεχνολογία και την τεχνητή νοημοσύνη, με έμφαση στην εκπαίδευση για τον εντοπισμό προκαταλήψεων, τη συμμετοχή στη δοκιμή αλγορίθμων και την εξασφάλιση της στατιστικής επάρκειας των προγραμματιστών, είναι καθοριστικής σημασίας. Εξίσου σημαντική είναι η εκπροσώπηση γυναικών διαφόρων ηλικιών, ώστε οι απόψεις τους να λαμβάνονται ισότιμα υπόψη.
Ωστόσο, σύμφωνα με τον κ. Τοβάρ, τα στοιχεία για τη συμμετοχή των γυναικών στην τεχνητή νοημοσύνη, σε επίπεδο ανώτατης εκπαίδευσης και επαγγελματικής ενασχόλησης, παραμένουν «αποθαρρυντικά», καθώς παγκοσμίως δεν ξεπερνούν το 25%. «Αυτή η υποεκπροσώπηση συχνά απορρέει από βαθιά ριζωμένα κοινωνικά στερεότυπα που συνδέουν τα πεδία STEM, και ιδίως την τεχνητή νοημοσύνη, με το ανδρικό φύλο και τις σχετικές δεξιότητες. Όπως έδειξε η έρευνά μας, αυτά τα στερεότυπα αφομοιώνονται από πολύ νωρίς, αποθαρρύνοντας συχνά τα κορίτσια από το να ακολουθήσουν τέτοιους τομείς», τονίζει.
Από την πλευρά της, η Τίνα Νάντσου επισημαίνει ότι με την πάροδο του χρόνου παρατηρείται αυξανόμενη ευαισθητοποίηση γύρω από το ζήτημα των προκαταλήψεων. «Όταν αναζωπυρώθηκε αρχικά το ενδιαφέρον για την τεχνητή νοημοσύνη, οι κίνδυνοι προκατάληψης σπάνια αναγνωρίζονταν και δεν υπήρχαν συγκεκριμένες στρατηγικές για την ανίχνευση ή τον περιορισμό τους», εξηγεί. Αντίθετα, «τα τελευταία χρόνια ένα αυξανόμενο σώμα ερευνών δείχνει μια νέα, πιο ελπιδοφόρα κατεύθυνση στα σύγχρονα μοντέλα. Για παράδειγμα, Μεγάλα Γλωσσικά Μοντέλα, όπως το Bard, το GPT-4 και το HuggingChat, αναγνωρίζουν τις προκλήσεις που αντιμετωπίζουν οι γυναίκες στα πεδία STEM, όπως η υποεκπροσώπηση και η έλλειψη καθοδήγησης, ενώ ταυτόχρονα προβάλλουν τις δυνατότητές τους».
«Με τον χρόνο, καλλιεργούνται όλο και περισσότερο η ευαισθητοποίηση και η λογοδοσία. Οι προγραμματιστές και οι χρήστες αρχίζουν να λαμβάνουν μέτρα: οι πρώτοι βελτιώνοντας τα μοντέλα τους και οι δεύτεροι δίνοντας μεγαλύτερη προσοχή στα δεδομένα που γνωστοποιούν στα μοντέλα, αποφεύγοντας όπου είναι δυνατόν τις μεροληψίες. Αυτή η αυξανόμενη επίγνωση είναι απαραίτητη αν θέλουμε τα εκπαιδευτικά εργαλεία τεχνητής νοημοσύνης να προάγουν την ισότητα και την ένταξη», προσθέτει η κ. Νάντσου.
Η έρευνα υπογραμμίζει την ανάγκη θέσπισης ισχυρών κριτηρίων που θα επιτρέπουν στην τεχνητή νοημοσύνη να εντοπίζει και να μετριάζει έμφυλες προκαταλήψεις κατά την εκπαίδευση των μηχανικών. Είναι κρίσιμο να αξιολογείται η αντιπροσωπευτικότητα των δεδομένων, διασφαλίζοντας την ισορροπία ως προς το φύλο, την ηλικία και τους κοινωνικοοικονομικοί παράγοντες. Παράλληλα, προτείνονται τακτικοί ανεξάρτητοι έλεγχοι για την κατοχύρωση της ουδετερότητας.
«Η ενίσχυση της ισότιμης εκπροσώπησης των φύλων τόσο στην ακαδημαϊκή κοινότητα όσο και στη βιομηχανία δεν αποτελεί μόνο ζήτημα δικαιοσύνης, αλλά και αποτελεσματικότητας: οι ποικιλόμορφες ομάδες δημιουργούν ισχυρότερες και πιο συμπεριληπτικές τεχνολογίες», επισημαίνει ο κ. Τοβάρ. Παράλληλα, αναδεικνύει την ανάγκη επιμόρφωσης των εκπαιδευτικών που χρησιμοποιούν τεχνητή νοημοσύνη κατά τη διδασκαλία. «Η τεχνητή νοημοσύνη δεν πρέπει να αντικαθιστά τον εκπαιδευτικό, αλλά να λειτουργεί υποστηρικτικά προς τους παιδαγωγικούς στόχους. Ο ρόλος του εκπαιδευτικού ως καθοδηγητή και διαμεσολαβητή της τεχνολογίας παραμένει κεντρικός», παρατηρεί. Τέλος, προειδοποιεί ότι «οι εκπαιδευτικοί οφείλουν να χρησιμοποιούν τον ελάχιστο δυνατό όγκο προσωπικών δεδομένων των μαθητών και φοιτητών τους, ιδίως σε εφαρμογές που σχετίζονται με εξατομικευμένη μάθηση ή δημιουργία μαθητικών προφίλ. Τα προσωπικά δεδομένα των μαθητών πρέπει να προστατεύονται και να αξιοποιούνται μόνο όταν αυτό είναι απολύτως απαραίτητο για εκπαιδευτικούς σκοπούς».