Guarda il video in fondo all’articolo
Mai avremmo immaginato di parlare di intelligenza artificiale, grazie al fatto che di intelligenze ne esistono diverse. Alcune persone, addirittura, provano un certo imbarazzo proprio quando si parla di intelligenza in generale.
Al dibattito è stato dato avvio già da un po’ di tempo, e i sostenitori di questa o quella tesi sono (guarda caso) i grandi businessman del pianeta, i ricconi, per usare altre parole. Ma anche un nutrito numero di scienziati mette in guardia dai pericoli dell’intelligenza artificiale, paragonandoli a quelli che corriamo in caso di pandemia e di guerra.
Volendo essere ottimisti, possiamo dire che alla pandemia siamo sopravvissuti, mentre alla guerra, diciamo che nutriamo speranze, per ora ce la caviamo.
Perché i grandi businessman ci avvertono sui pericoli dell’intelligenza artificiale? La domanda nasce spontanea. Perché tutto questo interesse per il bene dell’umanità? Di un virus in arrivo non se ne sapeva nulla? Delle guerre, i padroni del mondo, possibile non ne conoscano le conseguenze?
Prima che l’intelligenza artificiale si interessi a noi, forse, sarà meglio che ce ne interessiamo noi.e che impariamo a difenderci. Come abbiamo fatto con i virus, come facciamo con le guerre, con le ingiustizie, come ci difendiamo dai social, dalle fake news, da tutti quelli che dicono di volere il nostro bene e così via. A questo punto potremmo anche fermarci, ma andiamo avanti.
Intelligenza artificiale, cosa dice la scienza?
Il pericolo che corriamo è paragonabile a quello delle pandemie e delle guerre nucleari. L’allarme lo lancia un comitato di 350 scienziati, che ha studiato il fenomeno.
La nostra specie è a rischio di estinzione, e ciò per colpa e opera dell’uomo. Come l’inquinamento, la guerra, le pandemie, il cambiamento climatico. Autodistruzione.
Anche i dirigenti di OpenAI, Google DeepMind, Anthropic e altre aziende omologhe hanno annunciato i pericoli che l’umanità corre con le intelligenze artificiali.
Non è la prima volta che i leader del settore alimentano l’allarmismo generale, però certe affermazioni servono solo a creare confusione, e forse, hanno qualche scopo in particolare?
Il 30 maggio scorso, il Center of AI Safety ha pubblicato sul suo portale uno statement siglato da alcuni dei nomi più noti della scena tech. L’obiettivo dichiarato dai firmatari è quello di evidenziare come «mitigare il rischio di estinzione da parte delle IA debba essere una priorità globale al pari di rischi di vasta scala quali le pandemie e le guerre nucleari».
Nel testo non vi sono soluzioni valide, idee o qualcosa di utile per non estinguerci.
L’intelligenza artificiale nel cinema
Si chiama fantascienza, quel genere di film in cui si descrivono scenari apocalittici, menti artificiali che sottomettono l’umanità, poi arriva però l’eroe, che ci salva.
Gli scienziati, in ogni caso, sottolineano il fatto che una deriva è lontana, si riferiscono sempre a scenari possibili futuri. Cosa abbiamo imparato dai social media? Anche loro nascondono un lato oscuro e una deriva. Infatti, troppo spesso, l’attaccamento ai social network diventa una patologia seria. La deriva nasce quando non si utilizza il buon senso e l’intelligenza naturale. I capi delle grandi aziende Tech propongono una nuova regolamentazione, nuove leggi, che evidentemente non toccano, in alcun modo il loro interessi, anzi, al contrario.
Intelligenza artificiale, allarmismo
Prima di parlare e di annunciare cambiamenti, i milionari si assicurano bene che quei cambiamenti che vanno a proporre non siano di intralcio alle loro attività, ma che al contrario, li aiutino a creare un oligopolio che controlli il mondo.
Sam Altman, CEO di OpenAI e diversi suoi colleghi hanno idee precise su come andrebbero gestite le intelligenze artificiali. Infatti, hanno suggerito che l’argomento sia affrontato dalle alle Nazioni Unite. Così come il nucleare può fare affidamento alla International Atomic Energy Agency (IAEA), anche le intelligenze artificiali meriterebbero un proprio organo di vigilanza di portata internazionale.
Si dà il caso che la IAEA abbia un ruolo marginale, per la sua scarsa indipendenza e per l’assenza di un potere esecutivo che possa obbligare i singoli Governi a sottostare effettivamente ai patti concordati. Altman si è espresso a favore di leggi che richiedano ai creatori dei modelli di IA più avanzati di registrarsi per ottenere una licenza all’uso regolamentata dai governi.
Se davvero un pericolo esiste, bisogna individuarlo, senza occhi annebbiati dalla sete di potere e denaro. Ogni strumento può diventare pericoloso se si utilizza in modo non corretto. E concentrare il potenziale potere dell’intelligenza artificiale nelle mani di pochi (come avviene anche con i social, con le armi nucleari e con tutto ciò che è in grado di controllare le masse) è il vero pericolo.
Tra le tante cose, cosa si può fare con l’intelligenza artificiale? Molto. Basti pensare alla manipolazione della voce e dei volti. I pericoli sono truffe, raggiri ecc.
AI, scenari possibili
Il rischio va tutelato, e i primi attori ad entrare in scena saranno le assicurazioni. Nella maggior parte dei casi si tratterà di autocertificazioni. Le procedure di controllo notificate, svolte tipicamente da enti privati di certificazione, saranno l’eccezione.
Cosa vuol dire tutto ciò? Che i produttori potranno autovalutare la conformità agli standard della maggior parte dei sistemi ad alto rischio. Solo per le applicazioni elencate nell’ambito dell’identificazione biometrica e della classificazione degli individui dovranno fare ricorso a questi enti, dei quali peraltro, nella proposta di direttiva sulle responsabilità per l’uso di questi sistemi (Ai liability) non si parla mai.
Molte delle regole che si ipotizzano potrebbero essere un filtro a responsabilità più grandi e ovviamente ai rischi, che cadrebbero sulle assicurazioni. Quindi, a cosa servirebbero le leggi?
Uno dei rischi dell’intelligenza artificiale: La manipolazione
C’è qualcosa che la graduatoria dei rischi sottovaluta?
In teoria, l’Ai act vieta di produrre o vendere sistemi di intelligenza artificiale manipolativa “destinati a distorcere il comportamento umano”. Va anche detto, che difficilmente, i produttori dichiareranno di perseguire tale scopo. Introdotta un alegge, si troverà sempre il modo di eluderla.
Mascherare il reale mercato a cui certe tecnologie sono indirizzate è già una pratica comune: consideriamo gli stalkerware, i software in grado di monitorare tutto quello che viene fatto su un certo dispositivo, dall’invio di messaggi all’uso dei social media, dall’ascolto delle telefonate alla cronologia del browser, fino ovviamente all’accesso a tutti i dati personali.
Tali software sono perfettamente legali e venduti come sistemi per monitorare le attività dei bambini sui dispositivi digitali. Cosa impedisce a un regime oppressivo di riconfigurarli per manipolare?
Dittature e intelligenza artificiale
Persino Putin e Xi Jinping hanno detto che chi controlla l’Ia controlla il mondo. E se lo dicono loro, che di queste cose se ne intendono.
Bisogna ancora capire se controlleremo l’Ia oppure se sarà il contrario. Nel caso dei due presidenti, forse l’intelligenza artificiale sarebbe una buona soluzione, avrebbe molto più buon senso di loro.
Come si comporterà la Cina, visto che gli Stati Uniti sono ancora in grande vantaggio in questo campo? Il Giappone oggi è molto avanzato in certe aree, per esempio la robotica.
Le piattaforme, gestite da privati, hanno un enorme potere geopolitico, specie in epoche di crisi e di conflitti armati. Un esempio è la funzione di Meta nel conflitto in Birmania.Con la guerra in Ucraina abbiamo scoperto che un conflitto può anche spostarsi on line, soprattutto manipolando le informazioni, secondo le proprie necessità. Ma anche con l’azione degli hacker.
Intelligenza artificiale e buon senso
Essere catastrofisti non serve, le tecnologie intelligenti richiedono regole concordate a livello mondiale e gli effetti vanno studiati da team interdisciplinari e su più livelli.
Musk e gli altri leader tech firmatari della lettera che mette in guardia dai pericoli dell’AI, invocano regole per supervisionare lo sviluppo della tecnologia, paventando il rischio «di perdere il controllo della nostra civiltà». E sottolineano che «tali decisioni non dovrebbero essere delegate a leader tech non eletti».
Ecco dove vogliono arrivare. Dicono no all’intelligenza artificiale a portata di tutti, ma alla loro portata sì. Le regole, dovrebbero essere universali.
L’Onu potrebbe svolgere questa importante funzione e assicurare l’accesso a queste tecnologie anche a chi abbia meno risorse economiche, contrastando il digital divide anche tra Paesi.
Oltre alle regole, il buon senso non potrebbe essere utile anche in questo caso?
ASCOLTA L’ARTICOLO
Immagine: Free Pixabay

Lascia un commento