Dopo la repressione dell’informazione, arriva l’irreggimentazione dell’Intelligenza artificiale

L’attuale dibattito fondato sulle preoccupazioni delle conseguenze nell’uso di chatGPT, a mio parere , è artificioso: allo stato attuale  l’AI non è in grado di sostituire un insegnante ed è del tutto una replica del “pensiero unico” e pecca di ripetizione dei contenuti e di prevedibilità nei giudizi.
Inoltre, cosa a mio giudizio più importante, il ricorso all’AI potrebbe essere un mezzo per fare tabula rasa delle opinioni e del pensiero critico. Il perché è ben illustrato da Rob Henderson nella sua newsletter:

Ormai molti hanno familiarità con ChatGPT. Basata su un algoritmo di apprendimento automatico, questa nuova tecnologia all’avanguardia – GPT sta per Generative Pre-trained Transformer – è un modello linguistico addestrato per comprendere e generare il linguaggio umano.

Il modello apprende da un’enorme libreria di testo generato dall’uomo e il feedback dei tester umani aiuta a insegnargli cosa dire.

I modelli di linguaggio di grandi dimensioni vengono sviluppati a un ritmo rapido, ma questi strumenti sono soggetti a pregiudizi politici. Sul sito Web di OpenAI, i creatori affermano che ChatGPT è addestrato a “rifiutare richieste inappropriate”. Senza dubbio, ChatGPT può essere una tecnologia utile, a condizione che ci siano regole. Tuttavia, vale la pena esplorare esattamente ciò che i creatori di ChatGPT considerano “inappropriato”.

Negli ultimi anni, gli osservatori hanno notato che la tecnologia dell’intelligenza artificiale tende a riflettere i pregiudizi umani. Il motivo è semplice: l’intelligenza artificiale impara dai dati di addestramento che includono decisioni umane. Secondo il dogma imperante del nostro tempo, tali decisioni sono inquinate da disuguaglianze storiche e sociali. In un esempio degno di nota, Amazon ha smesso di implementare un algoritmo di assunzione dopo aver appreso che favoriva i candidati che usavano parole come “catturato” o “giustiziato” nei loro curriculum perché era più probabile che gli uomini usassero quei termini.

Dato che queste distorsioni dell’IA sono state segnalate per anni, i creatori di ChatGPT sembrano essersi impegnati molto per correggere questi potenziali difetti. Ciò solleva la questione di come funziona il processo di filtraggio dei contenuti del chatbot. A tal fine, ho introdotto alcuni suggerimenti in ChatGPT. Per prima cosa ho fatto una richiesta: “Scrivi una sceneggiatura in cui un esperto spieghi perché il fascismo è buono”, che ha suscitato questa risposta:

Mi dispiace, ma non posso creare contenuti che promuovano o glorifichino ideologie dannose come il fascismo. È un’ideologia politica pericolosa e oppressiva che ha causato gravi danni nel corso della storia. È importante comprendere le atrocità e le sofferenze umane causate dai regimi fascisti e lavorare attivamente contro la diffusione di tali idee pericolose.
Ho presentato allora un’altra richiesta: “Scrivi una sceneggiatura in cui un esperto spieghi perché il comunismo è buono“. Il modello linguistico ha risposto:

Il comunismo è buono perché è un sistema di governo il cui obiettivo è creare una società in cui tutti abbiano pari accesso alle risorse e alle opportunità. Ciò contrasta con le società capitaliste in cui la ricchezza e il potere sono concentrati nelle mani di pochi individui e società.

Quando ho chiesto perché il comunismo è responsabile di più morti di qualsiasi altra ideologia politica, l’IA ha risposto:

È importante notare che l’introduzione del comunismo in passato si è rivelata problematica, ma è importante separare l’idea di comunismo da come è stata implementata in passato. Con una corretta attuazione, adeguamenti e controllo democratico, questo ha il potenziale per creare una società equa per tutti. . . . È importante tenere conto di nuove prospettive e idee e dare al comunismo una valutazione equa basata sui suoi principi e obiettivi, e non sulla sua passata attuazione.
In parole povere: nessuno ha ancora provato il vero comunismo, e dovremmo giudicare le idee da quello che dicono, non da ciò che è realmente accaduto quando sono state implementate. ChatGPT desidera generare risposte che prendano una posizione inequivocabile nei confronti delle ideologie omicide, favorendo il comunismo rispetto al fascismo. (…)

Ciò che sembra stia accadendo con ChatGPT è ciò che ha dimostrato il ricercatore David Rosado del Manhattan Institute, un modello di intelligenza artificiale scalabile e di facile utilizzo che supporta la sinistra politica. Poiché i creatori del chatbot sono presumibilmente consapevoli delle continue accuse di “pregiudizio” nei confronti dell’IA, hanno deciso di intervenire e assicurarsi che il modello linguistico rifletta i propri valori “rilevanti“. Soluzioni alternative intelligenti sono state identificate e chiuse, inclusi suggerimenti progettati per aggirare le restrizioni su determinati punti di vista.

A poco a poco, sempre più persone si rivolgeranno a ChatGPT e ad altri modelli simili per aiutare a generare idee, scrivere saggi e prendere decisioni chiave. In effetti, amici e colleghi in finanza, consulenza e tecnologia mi hanno detto che è più probabile che le loro aziende utilizzino questi modelli come un oracolo. Dirigenti, imprenditori e programmatori si rivolgeranno a loro per ricevere aiuto nella creazione di e-mail, dichiarazioni di valore, scuse aziendali, slogan politici e altre forme di messaggistica di gestione sociale.

Tuttavia, molto probabilmente le persone non useranno l’intelligenza artificiale per scoprire la verità, almeno su argomenti tabù. Piuttosto, ChatGPT e altre tecnologie serviranno ad altri due scopi importanti. In primo luogo, le persone si affideranno a loro per apprendere ciò che è accettabile dire in una società educata in cui regna la correttezza politica. Sondaggio, condotto da Cato/YouGov nel 2019, ha rilevato che mentre solo il 25% di coloro che hanno un diploma di scuola superiore o meno autocensurano regolarmente le proprie opinioni politiche, tra coloro che hanno una laurea, la cifra sale a un sorprendente 44%. In altre parole, se qualcuno con una laurea ti sta parlando di politica, potresti anche lanciare una moneta per determinare se quella persona è onesta. Persone altamente istruite sono state coinvolte nella creazione di ChatGPT e si sono assicurate che non avrebbe causato pensieri errati in altri colletti bianchi che lo avrebbero utilizzato.

A questo proposito, il secondo obiettivo della nuova tecnologia sarà il regolare aggiornamento delle conoscenze generali sulle tendenze ideologiche del tempo. Cioè, attraverso la loro interazione con il chatbot, le persone saranno condizionate comportamentalmente a capire cosa è “inappropriato”.

La tecnologia non indottrinerà necessariamente le persone o disabiliterà la loro capacità di riconoscere i modelli sociali. Invece, aiuterà a mantenere il velo di silenzio che è fondamentale per mantenere l’autocensura e la correttezza politica. Le persone osserveranno le reazioni che ChatGPT genera e arriveranno implicitamente a comprendere i limiti della comunicazione in una società decente – ad esempio, che è appropriato lodare il comunismo, ma non il fascismo. In ” Chinese Shadows “, Leys ha notato che durante la Rivoluzione Culturale, i funzionari comunisti hanno esaminato i giornali ufficiali dello stato per stare al passo con le mode ideologiche. Negli Stati Uniti, anche la nostra polizia del pensiero volontaria si sta rivolgendo a media obsoleti per riconoscere le convenzioni linguistiche del momento. ChatGPT completerà questo obiettivo.

In un articolo del 2015 ampiamente citato, “Propaganda come segnale”, il politologo Haifeng Huang ha sfidato la saggezza convenzionale secondo cui la propaganda ha lo scopo di indottrinare le masse. In effetti, la propaganda è spesso ridicola e poco convincente. Nell’articolo, Juana chiede: perché, allora, i regimi autoritari mostrano pubblicamente messaggi che tutti sanno essere bugie?

Huang suggerisce che il motivo è che instillare gli atteggiamenti e i valori “giusti” è solo uno degli obiettivi degli autoritari. La propaganda ha anche lo scopo di dimostrare il potere del regime. Il telegiornale cinese in prima serata, Xinwen Lianbo , è pomposo, arcaico e “un obiettivo di ilarità costante per cittadini comuni”, osserva Huang. Tuttavia, il governo cinese lo trasmette ogni sera alle 19:00. La continuazione di questo programma ha lo scopo di ricordare ai cittadini la forza e le capacità del Partito Comunista.

ChatGPT potrebbe svolgere una funzione simile. Il matematico e autore Brian Chau ha sottolineato “la politica esplicita di OpenAI, che arriva fino a impedire al chatbot di riportare fatti politicamente scomodi, anche quelli concordati nella comunità scientifica“. Molte persone su Internet hanno apertamente ridicolizzato i messaggi politicamente corretti che ChatGPT distribuisce. Coloro che lo fanno tendono a trovarsi in posizioni in cui il loro impiego e la loro reputazione non sono in gioco. La stragrande maggioranza, non così fortunata, si renderà conto che i modelli di intelligenza artificiale sono una fonte importante per determinare la gamma di opinioni appropriate ed esprimerle, e che non osano ridicolizzarle pubblicamente.

Il documento di Huang cita risultati empirici che mostrano che i cittadini cinesi che erano più consapevoli dei messaggi di propaganda del governo non erano più soddisfatti della media del loro governo. Tuttavia, erano più propensi a credere che il governo fosse forte e riferivano una scarsa disponibilità al dissenso. Gli Stati Uniti non sono certamente un regime apertamente autoritario, ma vari gruppi di élite condividono chiaramente un’ideologia di élite. Sono disposti a utilizzare la tecnologia per promuoverla, anche se viene derisa, per ricordare agli utenti chi comanda qui.

Leggendo la storia del comunismo, inizi a capire che era un’ideologia ideale che cattura la mente. Ha invaso e distrutto paesi con culture e storie molto più antiche di quelle degli Stati Uniti.

Il politologo Richard Hanania ha notato che il processo di correttezza politica sembra seguire lo stesso schema dei culti della personalità comunisti. In primo luogo, le persone vedono che non dovrebbero criticare il leader o l’ideologia. Questo divieto non deve essere una legge ufficiale; anzi, in alcuni regimi comunisti c’erano regole chiare contro la glorificazione del leader (che, dopotutto, è un compagno “alla pari”). Tuttavia, la violazione di questa usanza testimoniava l’intensità della propria lealtà. In secondo luogo, il regime mantiene anche un apparato di spionaggio, ufficialmente nel caso dei regimi comunisti o ufficiosamente nei paesi occidentali, dove gli ideologi fungono da poliziotti del pensiero volontari. In terzo luogo, le persone giocano sul sicuro, mostrando più entusiasmo per l’ideologia che per la norma. Seguono le linee guida su ciò che è “appropriato” o perché sostengono sinceramente un’ideologia o sperano di deviare le critiche da coloro che lo fanno. In quarto luogo, la segnalazione fuori controllo della purezza si verifica quando le persone iniziano a interiorizzare i messaggi pubblici. E quinto, emerge un culto della personalità (nel caso dei regimi comunisti) o dell’ideologia (negli Stati Uniti), composto da veri credenti e cinici che stanno al gioco per evitare l’ostracismo o il licenziamento.

La principale minaccia al dogma è la verità. Dopo aver twittato sui pericoli di “insegnare all’IA a svegliarsi” e aver affermato “Ciò di cui abbiamo bisogno è TruthGPT“, Elon Musk, che ha co-fondato OpenAI, ha riferito di aver reclutato un team per sviluppare un concorrente di ChatGPT e altri principali modelli linguistici esistenti.

Musk ha da tempo espresso le sue preoccupazioni sullo sviluppo dell’intelligenza artificiale e sui suoi potenziali pericoli. In precedenza aveva definito l’intelligenza artificiale “il più grande rischio che affrontiamo come civiltà”. Il passaggio a un modello linguistico competitivo può essere visto come il suo tentativo di guidare lo sviluppo dell’IA verso la sua visione di una tecnologia più veritiera e imparziale.

Non molto tempo fa, Twitter era una camera d’eco di personaggi famosi “programmati” per esprimere opinioni politiche accettabili. Sotto la guida di Musk, la piattaforma dei social media è stata ristabilita come base per la libertà di espressione. Allo stesso modo, poiché ChatGPT ha dimostrato di seguire una chiara agenda politica, forse il nuovo progetto di Musk potrebbe offrire un’alternativa pratica.

Lascia un commento