Oggigiorno sentiamo sempre più spesso la presenza dell’IA in qualsiasi contesto: a scuola, al lavoro, nella vita comune, e persino nell’arte e nei più disparati progetti. Ma ci capita mai di chiederci che peso abbia sulla nostra vita questa oppressione guidata dalle grandi compagnie?Oramai non si può nemmeno più cercare un’informazione sul web che il primo risultato disponibile è proprio quello generato da un’Intelligenza Artificiale: e ciò non è preoccupante? L’IA è diventata un business model a discapito delle persone, in quanto non prende in considerazione i possibili rischi associati e ciò crea indignazione. Andiamo ad analizzare i problemi principali.
Un eccessivo utilizzo dell’IA può causare una riduzione significativa dell’attività cerebrale e una minore capacità di memorizzazione. Quando si utilizza un chatbot di intelligenza artificiale, infatti, le facoltà cognitive del cervello umano si attivano solo parzialmente. Ciò è stato dimostrato da uno studio del MIT, coordinato dalla Dott.ssa Nataliya Kosmyna, nel quale veniva richiesto ad alcuni studenti universitari di scrivere un saggio in venti minuti di tempo, e subito dopo essi venivano sottoposti ad elettroencefalogramma. Gli studenti sono stati suddivisi in tre gruppi a seconda degli strumenti a disposizione con cui avrebbero potuto scrivere il testo. Un primo gruppo ha scritto senza alcun aiuto esterno, un secondo potendo utilizzare un motore di ricerca mentre ad un terzo è stato chiesto di scrivere con l’assistenza del modello GPT-4o di Open AI. Rispetto al gruppo incaricato di utilizzare esclusivamente capacità intellettuali proprie, quello che utilizzava il motore di ricerca ha riscontrato un’attivazione cerebrale inferiore tra il 34% e il 48%, mentre il gruppo che usufruiva dell’intelligenza artificiale ha invece mostrato una riduzione fino al 55%.
L’IA ormai fa così tanto parte della nostra realtà e della nostra quotidianità che i cosiddetti chatbot permettono agli utenti di intraprendere vere e proprie conversazioni interagendo con i dispositivi digitali proprio come se parlassero a persone reali. L’uso dei chatbot per creare interazioni sta crescendo sempre di più, tecnicizzando le nostre esperienze relazionali. La domanda, quindi, è una: “in futuro, la comunicazione tra persone potrebbe essere sostituita dall’IA?” Ovviamente, grazie all’utilizzo di queste nuove tecnologie siamo riusciti ad ampliare le forme di risposta al nostro volere di esprimerci e di parlare. Tuttavia, la decrescente predisposizione alla socializzazione può portare a cambiamenti importanti dal punto di vista relazionale. Infatti, potrebbe aumentare l’incapacità di instaurare legami o le persone potrebbero isolarsi eccessivamente. Se da un lato, grazie all’IA, si riescono a creare dei surrogati di relazioni per chi ha difficoltà a comunicare con gli altri, dall’altro si sta verificando una riduzione del tempo medio dedicato all’ascolto reciproco. L’uso della tecnologia può portare a grandi vantaggi, ma anche a grandi problemi. Proprio per questo motivo bisogna essere consapevoli e bisogna moderare le proprie attività virtuali. La comunicazione è un processo in continua evoluzione, così come evolve anche la tecnologia ma un giorno, l’IA potrebbe arrivare a sostituire l’amicizia umana?
Bisogna considerare anche i bias cognitivi insiti nell’IA: essi sono un modello di deviazione dalla razionalità nei processi mentali di giudizio. In psicologia, un bias indica la tendenza umana a costruire una propria realtà soggettiva, che non sempre corrisponde all’evidenza oggettiva. Questa realtà si sviluppa sulla base dell’interpretazione personale delle informazioni disponibili, portando a modifiche nel giudizio e nell’esposizione dei fatti. Dal punto di vista dell’intelligenza artificiale, un bias si manifesta in vari modi. Può verificarsi quando le informazioni utilizzate per addestrare un modello sono esse stesse distorte o incomplete, oppure quando i dati riflettono giudizi umani preesistenti e influenzati da pregiudizi. Questo porta l’algoritmo a produrre risultati irreali o discriminatori. Un’IA che apprende in tempo reale è particolarmente vulnerabile all’influenza dei comportamenti degli utenti, i quali sono naturalmente ricchi di bias. Di conseguenza, l’intelligenza artificiale può involontariamente amplificare questi bias umani, replicando le informazioni distorte per utilizzarle in decisioni future…
Anche l’Unione Europea è stata causa di indignazione per la mancanza di leggi o per proposte di leggi viste come fuori luogo o in contraddizione: notiamo, per esempio, che mancano ancora proposte di legge sull’uso dell’IA nel contesto del plagio. Molti artisti si stanno ritirando dal pubblicare i propri lavori online per evitare il problema dello scraping, ovvero dei bot che scaricano il loro prodotto, violando così il diritto d’autore, per usarlo come fonte di addestramento del modello. Purtroppo non solo gli artisti non si sentono rappresentati dai propri governi per la mancanza di tutela nei loro confronti.
L’altro grande problema, infatti, arriva dalle proposte dell’Online Safety Act nel Regno Unito, e dalla proposta del Chat Control nella UE. L’Online Safety Act richiede che, per accedere a svariati siti, si carichi una foto del proprio volto, per poi farla analizzare da un modello di intelligenza artificiale gestito da un’azienda esterna al governo britannico. Così la privacy degli utenti non è tutelata, perché non è dato sapere se l’azienda terrà o no i dati usati per verificare l’età.
La seconda proposta, invece, ha scatenato ancora più indignazione, non solo nelle menti del popolo europeo, ma anche in quelle di alcune aziende fra le più quotate in borsa: il Chat Control. Esso prevede una scansione dello schermo durante la scrittura di messaggi, ancora prima che vengano inviati, che va a minare completamente la funzione della criptazione end-to-end usata da tutti i servizi di messaggistica, nonché lo standard dettato dalla stessa Unione Europea. Colossi del web, come i rappresentanti di Meta, hanno addirittura detto che piuttosto che adempiere al Chat Control, interromperebbero i loro servizi in Unione Europea.
L’aspetto che hanno in comune queste due proposte di legge è che in tanti hanno pensato che ci fosse più un tentativo di presa di potere autoritaria che un tentativo genuino di proteggere la comunità europea, il che ha portato anche a diverse proteste nei paesi dell’Unione, tra cui la Germania. Proprio questo Stato ha votato “no” alla prima versione del Chat Control e, dopo le sue proteste, è stato respinto il primo disegno di legge inerente.
Oltre agli artisti prima citati, l’intelligenza artificiale è ormai diventata uno strumento (troppo) potente anche sul posto di lavoro: per questo motivo è importante saperla utilizzare e che essa sia un aiuto, e non una sostituzione, all’essere umano. Nelle aziende, infatti si sta optando di più per una automatizzazione parziale, rispetto a quella totale: gli umani vengono assistiti da macchine, aumentando così la loro produttività; tuttavia, ci sono altri settori, come quello manifatturiero e logistico, dove l’intelligenza artificiale sta eliminando tantissimi posti di lavoro. Nonostante ciò, l’IA crea, in verità, anche posti di lavoro: questa tecnologia richiede nuove figure professionali (come machine learning specialist, data scientist, prompt engineer, etc), ed entro il 2027 avrà generato 69 milioni nuovi posti di lavoro.
Dunque, alla luce di ciò, la nostra indignazione è motivata? Ai posteri l’ardua sentenza.

















