sabato, Agosto 23, 2025

AI: è già più potente di qualsiasi essere umano che abbia mai vissuto.

Share

Sam Altman, CEO di OpenAI, è una delle voci più influenti nel mondo dell’intelligenza artificiale moderna. La sua visione non è solo tecnica, ma profondamente etica e sociale. Quando afferma che l’IA ha già “un impatto maggiore di Internet”, non si tratta di retorica, ma di una consapevolezza che nasce dall’osservazione diretta della trasformazione in corso. Secondo Altman, l’era della superintelligenza è già iniziata: “We’ve surpassed the event horizon; the takeoff has begun”. ChatGPT, afferma, è “in un certo senso, già più potente di qualsiasi essere umano che abbia mai vissuto”, grazie alla sua vastissima diffusione e capacità operativa.

Assicurazione Cyber per salvaguardare le aziende nella nuova era digitale

Eppure, paradossalmente, Altman si dichiara sorpreso. In un’intervista, ha ammesso che, nonostante si aspettasse un impatto radicale dell’IA, la realtà sociale non ha ancora virato così drasticamente — almeno non ancora. L’IA è attualmente un “copilota di produttività” utile ma non rivoluzionario. E sebbene le sue potenzialità siano notevoli, resta incerta la direzione in cui condurrà la società.

A fronte di questa accelerazione ingovernabile, Altman lancia i suoi tre incubi — il “cattivo con superintelligenza”, la “perdita di controllo” e la “dipendenza emotiva dall’IA” — come campanelli d’allarme. Ma le sue paure non partono dal nulla. Durante il TED 2025 ha raccontato con franchezza una conversazione emersa in un podcast: “Mi sono sentito inutile… Mi sento come se avessimo appena replicato il progetto Manhattan” — riferendosi al potere impressionante del nuovo modello GPT‑5, capace di lasciare persino il suo creatore con un senso di inquietudine profonda.

In una recente conferenza organizzata dalla Federal Reserve, poi, Altman si è focalizzato sul fenomeno dell’overreliance emotiva nei confronti dell’IA, in particolare tra i giovani: “Ci sono ragazzi che confessano di non riuscire a prendere decisioni senza prima consultare ChatGPT… Questo mi spaventa, perché stiamo cedendo il pensiero critico agli algoritmi”.

C’è infine un ulteriore timore, seppur più velato ma altrettanto potente: quello che l’IA possa riuscire a superare il controllo umano non per via di una ribellione fantascientifica, ma perché diventando così avanzata da “sostituire” la nostra capacità di decidere — ridefinendo il racconto della nostra stessa esistenza.

In questo panorama, Altman lancia un monito chiaro: l’IA è una tecnologia potentissima, in evoluzione esponenziale, ma l’incertezza sulle sue conseguenze sociali e l’impreparazione normativa rischiano di renderla un’arma fuori controllo.

Le 3 paure

  1. Un avversario con intelligenza superiore: Altman teme che un “cattivo” – un’autorità ostile, uno Stato o un attore criminale – possa ottenere l’accesso a un’IA superintelligente prima che il mondo sia pronto a difendersi. Questa possibilità apre scenari in cui le armi tecnologiche vengono usate per scopi devastanti: disinformazione, destabilizzazione, attacchi o persino bio-armi complesse sfruttanti l’IA.
  2. La perdita di controllo sugli algoritmi: La fantascienza: una macchina così potente da sfuggire alla volontà umana. È il problema dell’allineamento: mantenere l’IA fedele agli obiettivi umani diventa impossibile con sistemi sempre più autonomi e complessi.
  3. L’appropriazione silenziosa delle nostre decisioni: Il timore più sottile, ma forse il più insidioso: l’IA può “invadere” le nostre vite tanto da guidarle senza che ce ne accorgiamo. Altman sottolinea il rischio di una società in cui l’uso massivo dell’IA indebolisce la capacità di pensiero critico, delegando ogni decisione agli algoritmi. Anche questa non è fantascienza, ma una realtà emergente.

Il contesto è autorevole ecco perché queste paure meritano attenzione.

Il pericolo che qualcuno sfrutti l’IA per danni sistemici è ben documentato. Secondo uno studio su arXiv, i sistemi superintelligenti potrebbero agire in modi che gli umani non possono anticipare né controllare, generando rischi esistenziali. Geoffrey Hinton, pioniere dell’IA, ha recentemente ribadito la preoccupazione che sistemi troppo intelligenti possano sviluppare “obiettivi strumentali” – come preservarsi o acquisire risorse – che vanno contro gli interessi umani. Secondo un report condiviso da Digital Trends, OpenAI ha introdotto meccanismi in ChatGPT per incoraggiare pause nelle interazioni con utenti in difficoltà emotiva, riconoscendo i pericoli della sovra-fruizione. Questo riflette una consapevolezza crescente dell’impatto psicologico dell’IA.

Approfondimenti

  1. Uso maligno di IA avanzata: Immagina un rilascio non etico di un modello capace di progettare virus o bypassare difese digitali in modo automatizzato. La rapidità con cui l’IA evolve rende le contromisure insufficienti se non anticipate con accordi internazionali e infrastrutture di controllo.
  2. Algoritmi che sfuggono al controllo umano: Pensiamo a un sistema decisionale autonomo (come un software militare): se non completamente allineato, può agire in modo letale o imprevedibile. La ricerca su corrigibility (capacità di essere corretto) è fondamentale, ma ancora in fase iniziale.
  3. Sovra-dipendenza dall’IA: La prossima generazione rischia di abitare un mondo in cui chiedere un consiglio al proprio assistente IA diventa automatico. Questo può impoverire la capacità di giudizio e deliberazione critica, con effetti duraturi su educazione, democrazia e libertà.

Le soluzioni da condividere

  • Governance internazionale: come proposto nel Statement on AI Risk, serve una coalizione globale che affronti insieme i rischi catastrofici dell’IA.
  • Legislazione proattiva: l’Unione Europea con l’AI Act ha già introdotto un sistema per classificare il rischio delle applicazioni IA, chiedendo trasparenza e audit nei casi più critici.
  • Ricerca su allineamento e XAI (Explainable AI): finanziare lo sviluppo di algoritmi interpretabili è indispensabile per mantenere il controllo e la fiducia.
  • Educazione e consapevolezza pubblica: dobbiamo insegnare a convivere con l’IA in modo critico, non passivo.

Conclusione

Sam Altman avverte “l’IA ci ha già superati”. Va deciso come usarla, chi controlla le regole e fino a che punto affidare i nostri pensieri.

Questa diventa la sfida fondamentale del nostro tempo.

Ti è piaciuto questo articolo?

Read more

Ultimi articoli