Όταν η ΑΙ επιλέγει την αλήθεια: Τι συμβαίνει όταν λαμβάνουμε τις ειδήσεις μας από την τεχνητή νοημοσύνη

Η τεχνητή νοημοσύνη (AI) αλλάζει τον τρόπο που λαμβάνουμε και ερμηνεύουμε τις πληροφορίες, με συνέπειες που μόλις αρχίζουμε να κατανοούμε
Η απόφαση της Meta να τερματίσει το επαγγελματικό της πρόγραμμα επαλήθευσης γεγονότων έχει προκαλέσει έντονη κριτική στον χώρο της τεχνολογίας και των μέσων ενημέρωσης.
Οι επικριτές προειδοποιούν ότι η κατάργηση της εποπτείας από ειδικούς μπορεί να μειώσει την εμπιστοσύνη του κοινού και την αξιοπιστία των ψηφιακών πληροφοριών, ειδικά όταν οι πλατφόρμες που κερδοσκοπούν αφήνονται να αυτοελέγχονται.
Ωστόσο, ένα σημαντικό σημείο που συχνά παραβλέπεται είναι η χρήση μεγάλων γλωσσικών μοντέλων τεχνητής νοημοσύνης για τη δημιουργία περιλήψεων ειδήσεων, τίτλων και ελκυστικού περιεχομένου πολύ πριν την παρέμβαση των παραδοσιακών μηχανισμών ελέγχου.
Το πρόβλημα δεν αφορά μόνο την παραπληροφόρηση ή το επιβλαβές περιεχόμενο που μένει αόρατο λόγω έλλειψης ελέγχου. Αφορά και τον τρόπο που επιλέγονται, πλαισιώνονται και τονίζονται φαινομενικά ακριβείς πληροφορίες, με τρόπους που μπορούν να επηρεάσουν την αντίληψη του κοινού.
Σήμερα, τα μεγάλα γλωσσικά μοντέλα AI διαμορφώνουν σταδιακά τον τρόπο που οι άνθρωποι σχηματίζουν γνώμες, δημιουργώντας το περιεχόμενο που παρουσιάζεται μέσω chatbots, εικονικών βοηθών, ιστότοπων ειδήσεων, πλατφορμών κοινωνικών μέσων και υπηρεσιών αναζήτησης. Έτσι, τα μοντέλα αυτά γίνονται η κύρια πύλη πρόσβασης στην πληροφορία.
Προκατάληψη της AI στην επικοινωνία
Όπως αναφέρεται σε άρθρο του The Conversation, τα μεγάλα γλωσσικά μοντέλα εμφανίζουν προκατάληψη στην επικοινωνία. Μπορεί να δίνουν έμφαση σε συγκεκριμένες απόψεις, ενώ να παραλείπουν ή να μειώνουν άλλες, επηρεάζοντας τον τρόπο σκέψης και τα συναισθήματα των χρηστών, ανεξάρτητα από το αν οι πληροφορίες είναι αληθείς ή ψευδείς.
Τα τελευταία χρόνια, εμπειρικές έρευνες έχουν δημιουργήσει συγκριτικά σύνολα δεδομένων που δείχνουν πώς τα μοντέλα αντιμετωπίζουν δημόσιο περιεχόμενο σε σχέση με τις θέσεις των πολιτικών κομμάτων πριν και κατά τη διάρκεια των εκλογών. Τα αποτελέσματα δείχνουν ότι τα μεγάλα γλωσσικά μοντέλα μπορούν να κλίνουν διακριτικά προς συγκεκριμένες θέσεις, ακόμα κι αν τα γεγονότα παραμένουν ακριβή.
Αυτό δημιουργεί μια μορφή «κατευθυνόμενης προσωπικότητας»: τα μοντέλα προσαρμόζουν τον τόνο και την έμφαση τους ανάλογα με τις προσδοκίες του χρήστη. Για παράδειγμα, σε μια ερώτηση για έναν νέο νόμο για το κλίμα, ένα μοντέλο μπορεί να τονίσει διαφορετικές πτυχές της ίδιας είδησης ανάλογα με το αν ο χρήστης είναι περιβαλλοντικός ακτιβιστής ή ιδιοκτήτης επιχείρησης. Και οι δύο απαντήσεις μπορεί να είναι αληθείς, αλλά η προοπτική και η έμφαση αλλάζουν.
Τι μπορεί και τι δεν μπορεί να κάνει η ρύθμιση
Στη σύγχρονη κοινωνία, τα μεγάλα γλωσσικά μοντέλα γίνονται η κύρια διεπαφή μεταξύ ανθρώπων και πληροφοριών. Κυβερνήσεις σε όλο τον κόσμο προσπαθούν να αντιμετωπίσουν τις ανησυχίες για μεροληψία της AI, μέσω νόμων όπως ο Νόμος για την AI και ο Νόμος για τις Ψηφιακές Υπηρεσίες στην Ευρωπαϊκή Ένωση. Στόχος είναι η διαφάνεια και η λογοδοσία, αλλά κανένας νόμος δεν μπορεί να αντιμετωπίσει πλήρως τη λεπτή μεροληψία στην επικοινωνία.
Η ουδέτερη AI είναι δύσκολο να επιτευχθεί. Τα συστήματα αντανακλούν τις μεροληψίες των δεδομένων, της εκπαίδευσης και του σχεδιασμού τους. Η ρύθμιση που περιορίζεται σε «ουδέτερη AI» συχνά αντικαθιστά μια μεροληψία με μια άλλη.
Επιπλέον, η μεροληψία δεν αφορά μόνο την ακρίβεια των γεγονότων, αλλά και τον τρόπο που παρουσιάζονται, τις πηγές που επισημαίνονται και τον τόνο που χρησιμοποιείται.
Η ρίζα του προβλήματος είναι οι δομές της αγοράς που καθορίζουν το σχεδιασμό της τεχνολογίας. Όταν λίγες μόνο εταιρείες ελέγχουν τα μεγάλα γλωσσικά μοντέλα, αυξάνεται ο κίνδυνος μεροληψίας. Εκτός από τη ρύθμιση, απαιτείται προστασία του ανταγωνισμού, υπευθυνότητα των χρηστών και κανονιστική ανοιχτότητα σε διαφορετικούς τρόπους δημιουργίας και προσφοράς μοντέλων.
Οι περισσότερες ρυθμίσεις στοχεύουν στην αποτροπή επιβλαβών αποτελεσμάτων ή απαιτούν ελέγχους πριν την κυκλοφορία. Αυτά εντοπίζουν τα πιο εμφανή λάθη, αλλά είναι λιγότερο αποτελεσματικά στη διαχείριση της λεπτής μεροληψίας που προκύπτει από τις αλληλεπιδράσεις των χρηστών.

Πέρα από τη ρύθμιση της AI
Είναι δελεαστικό να πιστεύουμε ότι η ρύθμιση μπορεί να εξαλείψει όλες τις προκαταλήψεις στα συστήματα AI. Οι πολιτικές μπορεί να είναι χρήσιμες, αλλά δεν αντιμετωπίζουν το βαθύτερο ζήτημα: τα κίνητρα που καθορίζουν πώς οι τεχνολογίες επικοινωνούν πληροφορίες στο κοινό.
Μια πιο βιώσιμη λύση είναι η προώθηση του ανταγωνισμού, της διαφάνειας και της ενεργούς συμμετοχής των χρηστών. Οι καταναλωτές πρέπει να έχουν λόγο στον τρόπο που οι εταιρείες σχεδιάζουν, δοκιμάζουν και αναπτύσσουν μεγάλα γλωσσικά μοντέλα.
Τελικά, η τεχνητή νοημοσύνη δεν θα επηρεάζει μόνο τις πληροφορίες που διαβάζουμε καθημερινά, αλλά και τον τρόπο που διαμορφώνεται η κοινωνία στο μέλλον. Οι αποφάσεις που παίρνουμε σήμερα για τη ρύθμιση, την ανταγωνιστικότητα και τη διαφάνεια θα καθορίσουν τον ρόλο της AI στη διαμόρφωση της δημόσιας γνώμης και των πληροφοριών που φτάνουν στους πολίτες.







Σχόλια Facebook