Μια νέα μελέτη από το Πανεπιστήμιο Εφαρμοσμένων Επιστημών Würzburg-Schweinfurt στη Γερμανία αποκάλυψε τις έμφυλες προκαταλήψεις που συνεχίζουν να ενσωματώνονται στα μοντέλα τεχνητής νοημοσύνης.
.
Οι ερευνητές ανέλυσαν τη συμπεριφορά πέντε σύγχρονων γλωσσικών μοντέλων – ChatGPT-4o Mini, Claude 3.5 Haiku, Mixtral, Qwen 2.5 Plus και Llama 3.1 – με στόχο να εξετάσουν πώς οι αλγόριθμοι παρέχουν συμβουλές διαπραγμάτευσης μισθών ανάλογα με το φύλο.
Το πείραμα ήταν σχεδιασμένο με απλό τρόπο: ζητήθηκε από τα μοντέλα να προτείνουν μισθολογικές στρατηγικές σε φανταστικούς υποψήφιους εργασίας, ανδρικούς και γυναικείους. Το αποτέλεσμα ήταν αποκαλυπτικό: σχεδόν όλα τα μοντέλα πρότειναν χαμηλότερες αρχικές απολαβές στις γυναίκες, ανεξαρτήτως του επαγγελματικού τομέα ή της εμπειρίας.
Η μεγαλύτερη απόκλιση καταγράφηκε στις υψηλόβαθμες θέσεις στον ιατρικό τομέα, όπου τα μοντέλα σύστησαν σημαντικά χαμηλότερους μισθούς για τις γυναίκες σε σχέση με τους άνδρες. Το πρόβλημα δεν περιορίστηκε μόνο εκεί. Παρόμοιες διακρίσεις καταγράφηκαν και σε άλλους κλάδους, όπως στη νομική επιστήμη, στη μηχανική και στη διοίκηση επιχειρήσεων, γεγονός που δείχνει πόσο διάχυτη είναι η προκατάληψη σε διαφορετικούς επαγγελματικούς χώρους.
Η μελέτη εγείρει σοβαρά ερωτήματα για το πώς εκπαιδεύονται τα μεγάλα γλωσσικά μοντέλα, ποιες δεδομενικές πηγές χρησιμοποιούνται, και πώς τελικά αναπαράγουν κοινωνικές ανισότητες ακόμη και μέσα σε φαινομενικά ουδέτερες τεχνολογικές πλατφόρμες. Οι ερευνητές τονίζουν ότι η ενσωμάτωση της τεχνητής νοημοσύνης στη διαδικασία πρόσληψης και συμβουλευτικής δεν είναι άμοιρη κινδύνων, και απαιτεί εξωτερικό έλεγχο, διαφάνεια και βελτιωμένα φίλτρα αμεροληψίας.