L‘articolo che segue mette a tema l’IA e ChatGPT, argomenti molto in voga ultimamente, ma – secondo l’autore Peter Haisenko – abbastanza a sproposito: non esiste ancora una vera intelligenza artificiale, ma solo programmi e algoritmi più o meno complessi creati dai programmatori. Il problema semmai c’è perchè chatGPT “nasce come uno strumento fondamentalmente democratico. Esso determina quali opinioni e contributi su Internet rappresentano la maggioranza. Risposte e testi vengono quindi generati da questa conoscenza. In questo modo, gli “utenti” scoprono finalmente qual è la direzione effettivamente dominante. Al di là dei finti “risultati del sondaggio. Era prevedibile che ciò avrebbe fatto scattare un campanello d’allarme tra coloro che sono al potere…” e che vogliono diffondere unicamente il loro pensiero:
La paura di AI e ChatGPT è basata su un pericolo reale?
Chi non conosce i film apocalittici di Hollywood “Terminator” con Arnold Schwarzenegger? Tuttavia, il tema dell’invasione dei robot ha almeno 80 anni. Anche il geniale autore di fantascienza Isaac Asimov se ne è occupato. Ora la tecnologia è pronta per realizzarlo e dovrebbe essere addomesticata. Ma la discussione al riguardo è disonesta.
Per essere chiari all’inizio: non esiste una cosa come l’intelligenza artificiale. Almeno non ancora. Esistono solo programmi e algoritmi più o meno complessi. Ogni computer, ogni programma, fa solo ciò per cui è stato programmato dai programmatori. Questo vale anche per i “modelli informatici” citati incessantemente. Anche allora, può venire fuori solo il risultato che vuole il programmatore. O ciò che il suo cliente vuole e paga. Nemmeno un computer può imparare. Tuttavia, può essere programmato in modo tale da raccogliere i dati da Internet o altrove e quindi compilare i risultati rigorosamente in base al programma. Ancora una volta, rigorosamente in base al programma, il computer può quindi migliorare i passaggi del programma che ha già nel suo programma. Niente di tutto questo ha a che fare con l’intelligenza.
La scorsa settimana è stato riferito con una certa eccitazione che in una simulazione militare statunitense, una macchina da guerra controllata da un computer ha acceso il suo controllore umano e il controllore umano sarebbe stato ucciso dalla sua stessa macchina da guerra. Il programma della macchina da combattimento aveva presumibilmente assunto una vita propria e ha riconosciuto che il controllore avrebbe potuto impedire l’esecuzione del suo compito programmato, quindi la macchina da combattimento ha dovuto eliminare il suo padrone. Suona come “Terminatore”? In linea di principio sì, ma… Anche in questo caso il programma associato non è stato sviluppato completamente o in questo programma sono state fissate priorità sbagliate. Apparentemente, ciò che contava di più per i militari era che la loro macchina infernale portasse a termine il lavoro, indipendentemente da qualsiasi altra cosa. Il rapporto completo è disponibile qui:
https://www.zerohedge.com/military/ai-controllato-drone-goes-rogue-kills-human-operator-simulated-us-air-force-test
Quando le “regole d’oro” per i robot vengono ignorate
Questo avrebbe potuto essere evitato se questi programmatori ei loro datori di lavoro avessero letto Isaac Asimov. Isaac Asimov ha postulato le “Tre leggi della robotica” nel suo racconto del 1942 “Runaround”. Nella loro geniale e chiara semplicità, questi non possono essere fraintesi e sono quindi quasi paragonabili all’imperativo categorico di Immanuel Kant. Essi sono:
1. Un robot non deve ferire nessuno o causare danni per inerzia.
2. Un robot deve obbedire ai comandi di un essere umano, a meno che tali comandi non siano in conflitto con la prima legge.
3. Un robot deve proteggere la propria esistenza fintanto che questa protezione non contraddice la Prima o la Seconda Legge.
Si vede subito che secondo queste leggi deve essere impossibile, severamente proibito, programmare un robot per uccidere esseri umani. Se questo viene ignorato, può succedere che un robot attacchi il suo padrone. Ma cos’è comunque un robot? La parola deriva dal russo e significa semplicemente “lavoratore”. Un robot deve avere una forma umanoide? Ovviamente no. Qualsiasi macchina che esegue il lavoro in modo più o meno indipendente è un robot o un lavoratore che esegue il proprio lavoro con l’aiuto dell’energia. Non ci sono praticamente limiti a questa fornitura di energia, quindi un singolo robot può fare il lavoro di innumerevoli persone. Ma può farlo solo nell’ambito del suo programma.
Il programma funziona meglio del previsto
Ma ora su ChatGPT, che non ha nemmeno un anno. È un programma in grado di fornire autonomamente risposte a domande e creare testi. È apparso subito evidente che questo programma dava risposte “politicamente scorrette” e che anche i suoi testi non sempre corrispondono a ciò che volevano i leader politici dei valori occidentali. Non c’è quindi da meravigliarsi se si sta lanciando l’allarme. L’intelligenza artificiale potrebbe uccidere l’umanità, si dice. Ma cosa è successo lì? Il programma stesso funziona alla grande. Troppo buono. Questo programma può accedere e accede a quasi tutta la rete Internet. Il programma “legge” praticamente tutto ciò che viene pubblicato su Internet. Dai media di sistema a milioni di piccoli “blog”, Twitter & Co. Probabilmente può anche accedere a dati militari, seppur limitato. Questo è il problema.
I programmatori di questo ChatGPT hanno ovviamente svolto un lavoro onesto. In questo modo hanno creato uno strumento fondamentalmente democratico. Il programma determina quali opinioni e contributi su Internet rappresentano la maggioranza. Risposte e testi vengono quindi generati da questa conoscenza. In questo modo, gli “utenti” scoprono finalmente qual è la direzione effettivamente dominante. Al di là dei finti “risultati del sondaggio”. Era prevedibile che ciò avrebbe fatto scattare un campanello d’allarme tra coloro che erano al potere. Perché altrimenti anche gli inventori, i proprietari di questo software, in cui hanno investito molti soldi, stanno già mettendo in guardia sul proprio software. E perché pensi che ci siano stati ripetuti tentativi di mettere al bando le voci critiche su Internet negli ultimi mesi? Voci che ChatGPT legge e valuta.
La censura sarebbe una soluzione
La soluzione a questo problema, questo problema per chi è al potere, sarebbe programmare dei filtri. Filtri che bloccano semplicemente le voci indesiderate. Ma non è così facile e ci sarebbero troppi programmatori che lo saprebbero. Basterebbe vietare dai programmi i testi con determinate parole chiave? Ma questo non può influire anche sui supporti di sistema? E chi poi decide cosa dovrebbe essere vietato? Pensiamo a Elon Musk, che con Twitter ha appena intrapreso la strada opposta. A causa dell’esistenza di Internet, tale censura di questi programmi non potrebbe essere nascosta e quindi la restante fiducia nell’onestà dei governi occidentali verrebbe minata. Questo è probabilmente il motivo per cui ci sono discussioni sul divieto totale di tali programmi.
In questo senso si può pensare all’apprendista stregone di Goethe. Quelli che ho evocato, gli spiriti… Ma non è simile con una serie di sviluppi tecnici? Fa differenza se si progetta una macchina reale con un compito specifico o quando si crea un programma che si muove anche in ambiti “filosofici”. Un programmatore è più o meno un ingegnere con la differenza che non crea cose reali, ma solo istruzioni per macchine, compresi computer già esistenti. Un buon programma inizia sempre con una buona descrizione di cosa dovrebbe fare il programma. Solo allora inizia il lavoro del programmatore. Più un programma diventa complesso, più è probabile che il programma faccia cose per le quali non era previsto.
I prodotti casuali non hanno nulla a che fare con l’intelligenza
Come pilota, ricordo l’Airbus A 320, che inizialmente sorprese più volte i piloti con reazioni inaspettate. Nelle cabine di pilotaggio c’era il detto: cosa sta facendo adesso? E per completare questa piccola escursione, c’era la battuta: “Qual è l’ultima cosa che senti sul registratore vocale di un A 320? Non l’ha mai fatto prima…”
Con questo piccolo aneddoto mi trovo al centro del problema per tutti i programmi complessi che si chiamano AI o ChatGPT. Come il giovane A 320, questi programmi fanno cose che i programmatori non avevano intenzione di fare; non poteva prevedere a causa della complessità. Proprio come ChatGPD, che si comporta in modo più “democratico” di quanto vorrebbe il cliente. I normali risultati del sondaggio possono – e saranno – manipolati in quasi tutti i modi. Tuttavia, se ci si sottomette alla logica di un programma fisso, questo può essere manipolato solo programmando la manipolazione in questo programma. Tuttavia, questo non può essere nascosto così bene da rimanere “invisibile”.
Ogni programma tende a crescere fino a sopraffare il suo programmatore
Tuttavia, quanto più complesso è un programma come ChatGPT o qualsiasi cosa etichettata AI, tanto più difficile è prevedere quale sarà l’impatto di un cambiamento importante. Soprattutto per i clienti che solo raramente hanno familiarità con i problemi della programmazione. Perché è così, in tal caso devi eliminare l’intero programma, eliminarlo. Chissà quali verità porteranno alla luce questi programmi con il prossimo cambiamento? Le persone possono essere ingannate, ma i programmi sono incorruttibili. Ma vale sempre quanto segue: fanno e possono fare solo ciò che i loro programmatori hanno programmato.
Non ha niente a che fare con l’intelligenza. Il prerequisito per l ‘”intelligenza artificiale” è che il programma sviluppi la fiducia in se stessi, e fino ad ora non è stato così. Ma se ci fosse, potrebbe essere davvero pericoloso per l’umanità. Un tale programma non darebbe la priorità alla propria “sopravvivenza”, come dare la priorità alla propria alimentazione rispetto a tutto il resto? Un programma veramente intelligente potrebbe farlo, e quindi le leggi per i robot di Isaac Asimov devono essere al primo posto in qualsiasi programma che si suppone sia “intelligente”.