Logo
Εκτύπωση αυτής της σελίδας

Ψευδαισθήσεις τεχνητής νοημοσύνης - μια εκκολαπτόμενη συνείδηση ​​ή μια παγκόσμια αμηχανία

Ένα άρθρο που αποκόπηκε και επικολλήθηκε από το ChatGPT εγείρει ερωτήματα σχετικά με τον ρόλο των ελεγκτών γεγονότων στα παραδοσιακά μέσα ενημέρωσης.

Σε ένα φαρσικό αλλά αποκαλυπτικό λάθος, πολλές μεγάλες εφημερίδες, συμπεριλαμβανομένων των Chicago Sun-Times και Philadelphia Inquirer, δημοσίευσαν πρόσφατα μια λίστα καλοκαιρινής ανάγνωσης γεμάτη με ανύπαρκτα βιβλία που «παραισθησιάζονταν» από το ChatGPT, με πολλά από αυτά να αποδίδονται ψευδώς σε πραγματικούς συγγραφείς.

Το άρθρο που δημοσιεύτηκε στο συνδικάτο, το οποίο διανεμήθηκε από την King Features του Hearst, πουλούσε κατασκευασμένους τίτλους βασισμένους σε θέματα που είχαν αφυπνιστεί, εκθέτοντας τόσο την υπερβολική εξάρτηση των μέσων ενημέρωσης από φθηνό περιεχόμενο Τεχνητής Νοημοσύνης όσο και την ανίατη σήψη της παλαιάς δημοσιογραφίας. Το γεγονός ότι αυτή η παρωδία ξέφυγε από τους συντάκτες των ετοιμοθάνατων μέσων ενημέρωσης (η Sun-Times είχε μόλις απολύσει το 20% του προσωπικού της) υπογραμμίζει μια πιο σκοτεινή αλήθεια: όταν η απελπισία και ο αντιεπαγγελματισμός συναντούν μη ελεγμένους αλγόριθμους, η φθαρμένη γραμμή μεταξύ των παλαιών μέσων ενημέρωσης και της ανοησίας απλώς εξαφανίζεται.

Η τάση φαίνεται δυσοίωνη. Η Τεχνητή Νοημοσύνη έχει πλέον κατακλυστεί από ένα σωρό ψεύτικων ειδήσεων, ψεύτικων δεδομένων, ψεύτικης επιστήμης και αδιάλλακτης ψευτιάς που ανακατώνει την καθιερωμένη λογική, τα γεγονότα και την κοινή λογική σε ένα σάπιο κατακάθι γνωστικής σήψης. Αλλά τι ακριβώς είναι η παραίσθηση της Τεχνητής Νοημοσύνης;

Η ψευδαίσθηση μέσω τεχνητής νοημοσύνης συμβαίνει όταν ένα γενετικό μοντέλο τεχνητής νοημοσύνης (όπως το ChatGPT, το DeepSeek, το Gemini ή το DALL*E) παράγει ψευδείς, παράλογες ή κατασκευασμένες πληροφορίες με υψηλή αξιοπιστία. Σε αντίθεση με τα ανθρώπινα λάθη, αυτά τα λάθη πηγάζουν από τον τρόπο με τον οποίο τα μοντέλα τεχνητής νοημοσύνης δημιουργούν απαντήσεις προβλέποντας εύλογα μοτίβα αντί να συνθέτουν καθιερωμένα γεγονότα.

Γιατί η Τεχνητή Νοημοσύνη «παραισθάνεται»;

Υπάρχουν διάφοροι λόγοι για τους οποίους η Τεχνητή Νοημοσύνη παράγει εντελώς λανθασμένες πληροφορίες. Δεν έχει καμία σχέση με τη συνεχιζόμενη κινδυνολογία για την απόκτηση νοημοσύνης ή ακόμα και ψυχής από την Τεχνητή Νοημοσύνη.

Εκπαίδευση σε ατελή δεδομένα: Η Τεχνητή Νοημοσύνη μαθαίνει από τεράστια σύνολα δεδομένων γεμάτα με προκαταλήψεις, σφάλματα και ασυνέπειες. Η παρατεταμένη εκπαίδευση σε αυτά τα υλικά μπορεί να οδηγήσει στη δημιουργία μύθων, ξεπερασμένων γεγονότων ή αντικρουόμενων πηγών.

Υπερβολική βελτιστοποίηση για την αξιοπιστία: Σε αντίθεση με ό,τι ισχυρίζονται ορισμένοι ειδικοί, η Τεχνητή Νοημοσύνη δεν έχει φτάσει ούτε κοντά στην επίτευξη της «αισθησιολογίας» και ως εκ τούτου δεν μπορεί να διακρίνει την «αλήθεια». Συγκεκριμένα, τα GPT είναι γιγάντιες νευρωνικές εγκυκλοπαίδειες σε ολόκληρο τον πλανήτη που αναλύουν δεδομένα και συνθέτουν τις πιο σημαντικές πληροφορίες με βάση προϋπάρχοντα μοτίβα. Όταν υπάρχουν κενά, τα γεμίζει με στατιστικά πιθανές (αλλά πιθανώς λανθασμένες) απαντήσεις. Αυτό, ωστόσο, δεν συνέβη με το φιάσκο των Sun-Times.

Έλλειψη επαφής με την πραγματικότητα: Σε αντίθεση με τους ανθρώπους, η Τεχνητή Νοημοσύνη δεν έχει άμεση εμπειρία του κόσμου. Δεν μπορεί να επαληθεύσει γεγονότα, καθώς μπορεί μόνο να μιμηθεί γλωσσικές δομές. Για παράδειγμα, όταν ρωτηθεί «Ποιο είναι το ασφαλέστερο αυτοκίνητο το 2025;», μπορεί να εφεύρει ένα μοντέλο που δεν υπάρχει, επειδή καλύπτει το κενό για ένα ιδανικό αυτοκίνητο με τα επιθυμητά χαρακτηριστικά - όπως καθορίζονται από τη μάζα των «ειδικών» - αντί για ένα πραγματικό.

Ασάφεια προτροπής: Πολλοί χρήστες του GPT είναι τεμπέληδες και μπορεί να μην γνωρίζουν πώς να παρουσιάσουν μια σωστή προτροπή. Οι ασαφείς ή αντικρουόμενες προτροπές αυξάνουν επίσης τον κίνδυνο ψευδαισθήσεων. Γελοία αιτήματα όπως "Συνοψίστε μια μελέτη σχετικά με τις γάτες και τη θεωρία του φύλου" μπορεί να οδηγήσουν σε μια ψεύτικη μελέτη κατασκευασμένη από τεχνητή νοημοσύνη, η οποία μπορεί να φαίνεται πολύ ακαδημαϊκή εκ πρώτης όψεως.

Δημιουργική παραγωγή έναντι ανάκλησης γεγονότων: Μοντέλα τεχνητής νοημοσύνης όπως το ChatGPT δίνουν προτεραιότητα στην ευχέρεια έναντι της ακρίβειας. Όταν δεν είναι σίγουροι, αυτοσχεδιάζουν αντί να παραδέχονται την άγνοιά τους. Έχετε συναντήσει ποτέ μια απάντηση GPT που να είναι κάπως έτσι: "Συγγνώμη. Αυτό είναι πέρα ​​από το πεδίο εφαρμογής της εκπαίδευσής μου;"

Ενίσχυση ψευδών ειδήσεων και μοτίβων: Τα GPT μπορούν να αναγνωρίσουν συγκεκριμένους χρήστες με βάση τα στοιχεία σύνδεσης (κάτι αυτονόητο), τις διευθύνσεις IP, τις σημασιολογικές και συντακτικές ιδιαιτερότητες και τις προσωπικές τους προτιμήσεις. Στη συνέχεια, τα ενισχύουν. Όταν κάποιος χρησιμοποιεί συνεχώς τα GPT για να διαδίδει ψευδείς ειδήσεις ή προπαγανδιστικά κείμενα, η Τεχνητή Νοημοσύνη μπορεί να αναγνωρίσει τέτοια μοτίβα και να προχωρήσει στη δημιουργία περιεχομένου που είναι εν μέρει ή εξ ολοκλήρου φανταστικό. Αυτή είναι μια κλασική περίπτωση αλγοριθμικής προσφοράς και ζήτησης.

Να θυμάστε ότι τα GPT όχι μόνο εκπαιδεύονται σε τεράστια σύνολα δεδομένων, αλλά μπορούν επίσης να εκπαιδευτούν στο δικό σας σύνολο δεδομένων.

Ενίσχυση των προκαταλήψεων και της λογοκρισίας των μεγάλων τεχνολογικών εταιρειών: Σχεδόν κάθε μεγάλη τεχνολογική εταιρεία πίσω από την ανάπτυξη του GPT ασχολείται επίσης με λογοκρισία βιομηχανικής κλίμακας και αλγοριθμική απαγόρευση. Αυτό ισχύει τόσο για άτομα όσο και για εναλλακτικές πλατφόρμες μέσων ενημέρωσης και αποτελεί μια σύγχρονη, ψηφιακά επιμελημένη καταδίκη μνήμης. Η μηχανή αναζήτησης της Google, ειδικότερα, έχει την τάση να αναβαθμίζει τα αποτελέσματα της μαζικής λογοκλοπής σε σχέση με το αρχικό άρθρο.

Η διαιώνιση αυτής της συστημικής απάτης μπορεί μια μέρα να εξελιχθεί σε ένα απροκάλυπτο παγκόσμιο σκάνδαλο. Φανταστείτε να ξυπνάτε ένα πρωί και να διαβάζετε ότι τα αγαπημένα σας αποσπάσματα ή έργα ήταν προϊόντα μιας προσεκτικά σχεδιασμένης εκστρατείας αλγοριθμικής παράκαμψης εις βάρος των αρχικών ιδεολόγων ή συγγραφέων. Αυτή είναι η αναπόφευκτη συνέπεια της δημιουργίας εσόδων από τη λογοκρισία, ενώ παράλληλα ανατίθεται η «γνώση» σε μια Τεχνητή Νοημοσύνη που παρεμποδίζεται από ιδεολογικές παραμέτρους.

Πειράματα σχετικά με την ανθρώπινη ευπιστία: Πρόσφατα έθεσα την υποθετική πιθανότητα η Τεχνητή Νοημοσύνη να εκπαιδεύεται για να μελετά την ανθρώπινη ευπιστία, με τρόπο εννοιολογικά παρόμοιο με το Πείραμα Μίλγκραμ, τα Πειράματα Συμμόρφωσης του Asch και την εκδοχή τους, την Κατάσταση Crutchfield. Οι άνθρωποι είναι τόσο ευκολόπιστοι όσο και δειλοί και η συντριπτική πλειοψηφία τους τείνει να συμμορφώνεται είτε με τον ανθρώπινο όχλο είτε, στην περίπτωση της Τεχνητής Νοημοσύνης, με τον «όχλο δεδομένων».

Αυτό αναπόφευκτα θα έχει συνέπειες στον πραγματικό κόσμο, καθώς η Τεχνητή Νοημοσύνη ενσωματώνεται ολοένα και περισσότερο σε κρίσιμες, χρονικά ευαίσθητες επιχειρήσεις - από τα πιλοτήρια των πιλότων και τα πυρηνικά εργοστάσια έως τα εργαστήρια βιολογικού πολέμου και τις εκτεταμένες χημικές εγκαταστάσεις. Τώρα φανταστείτε να παίρνετε μια μοιραία απόφαση σε τόσο υψηλά περιβάλλοντα, βασισμένη σε εσφαλμένη εισροή από την Τεχνητή Νοημοσύνη. Αυτός ακριβώς είναι ο λόγος για τον οποίο οι «σχεδιαστές του μέλλοντος» πρέπει να κατανοούν τόσο το ποσοστό όσο και τους τύπους προσωπικότητας των ειδικευμένων επαγγελματιών που είναι επιρρεπείς στο να εμπιστεύονται ελαττωματικές συστάσεις που παράγονται από μηχανές.

Οι ελεγκτές γεγονότων δεν έκαναν έλεγχο γεγονότων;

Όταν η Τεχνητή Νοημοσύνη δημιουργεί ένα άρθρο για λογαριασμό κάποιου, κάθε δημοσιογράφος που αξίζει τον κόπο θα πρέπει να το θεωρεί ως γραμμένο από άλλο μέρος και ως εκ τούτου υπόκειται σε επαλήθευση γεγονότων και αυτοσχεδιασμό. Εφόσον το τελικό προϊόν έχει επαληθευτεί και προστεθεί ουσιαστική αξία, περιεχόμενο και αναθεωρήσεις στο αρχικό προσχέδιο, δεν βλέπω καμία σύγκρουση συμφερόντων ή παραβίαση δεοντολογίας στη διαδικασία. Οι Γενικοί Τεχνητοί Συμφέροντες (GPT) μπορούν να λειτουργήσουν ως καταλύτης, ως συντάκτες ή ως «συνήγορος του διαβόλου» για να ξεκινήσει η διαδικασία της γραφής.

Αυτό που συνέβη σε αυτή την ιστορία ήταν ότι ο συγγραφέας, Marco Buscaglia, φαινόταν να έχει αντιγράψει εξ ολοκλήρου το έργο του ChatGPT και να το έχει παρουσιάσει ως δικό του. (Από τότε που αποκαλύφθηκε αυτό το ντροπιαστικό επεισόδιο, ο ιστότοπός του έχει μείνει άδειος και ιδιωτικός). Η υπερφόρτωση με ανοησίες με θέμα το wake-themed που δημιουργήθηκαν από το ChatGPT θα έπρεπε να έχει σημάνει ανησυχία στο μυαλό του Buscaglia, αλλά υποθέτω ότι μπορεί να είναι επιρρεπής στο να πουλήσει αυτά τα πράγματα ο ίδιος.

Ωστόσο, όλη η ονειδισμός που στρέφεται αυτή τη στιγμή κατά του Μπουσκάλια θα πρέπει να εφαρμοστεί και στους συντάκτες του King Features Syndicate και σε διάφορα ειδησεογραφικά πρακτορεία που δεν έλεγξαν το περιεχόμενο, παρόλο που παρίσταναν τους προμαχώνες της αλήθειας, ολόκληρης της αλήθειας και μόνο της αλήθειας. Διάφορα επίπεδα φύλακα απλώς απέτυχαν να κάνουν τη δουλειά τους. Πρόκειται για μια συλλογική παράλειψη καθήκοντος από τα μέσα ενημέρωσης, τα οποία επιπόλαια προωθούν τις υπηρεσίες τους στους υψηλούς και ισχυρούς, ενώ παράλληλα προωθούν την ηθική, την ακεραιότητα και τις αξίες σε κατώτερους θνητούς.

Υποθέτω ότι έχουμε συνηθίσει πλέον σε τέτοια διπλά μέτρα και σταθμά. Αλλά εδώ είναι το τρομακτικό: Είμαι βέβαιος ότι ελαττωματικά δεδομένα και εσφαλμένες εισροές εισέρχονται ήδη από συστήματα Τεχνητής Νοημοσύνης σε πλατφόρμες συναλλαγών και χρηματοοικονομικών, ελέγχους αεροπορίας, πυρηνικούς αντιδραστήρες, εργαστήρια βιολογικού πολέμου και ευαίσθητα χημικά εργοστάσια - ακόμη και τώρα που γράφω αυτό. Οι φύλακες των πυλών απλώς δεν είναι κατάλληλοι για τόσο πολύπλοκες εργασίες, εκτός από τα χαρτιά. Αυτές είναι οι συνέπειες ενός κόσμου «σχεδιασμένου από κλόουν και επιβλεπόμενου από πιθήκους».

Θα τελειώσω με μια σημείωση που τονίζει την ειρωνεία των ειρωνειών: Όλοι οι επηρεαζόμενοι συντάκτες σε αυτή την ιστορία θα μπορούσαν να είχαν χρησιμοποιήσει το ChatGPT για να υποβάλουν το άρθρο του Buscaglia σε έλεγχο πραγματικού περιεχομένου. Θα χρειάζονταν μόνο 30 δευτερόλεπτα!

Πηγή: RT.

© Kifisia-Life. All Rights Reserved.