Il candidato che non dorme mai: riflessioni sull’ingresso dell’IA nella polis

quimilano.it

quimilano.it

Nel giugno 2024, nella città costiera di Brighton and Hove, nel sud dell’Inghilterra, un candidato inedito ha attirato l’attenzione della stampa internazionale: “AI Steve”, il primo aspirante deputato creato tramite un sistema di intelligenza artificiale sviluppato sulla piattaforma Neural Voice. Il progetto, promosso dall’imprenditore britannico Steve Endacott attraverso il nuovo movimento SmarterUK, ha proposto per la prima volta nella storia democratica contemporanea la possibilità che un’entità algoritmica partecipi a un’elezione nazionale. Intorno a questa candidatura orbitano i protagonisti di un esperimento destinato a segnare un punto di svolta: lo stesso Endacott, ideatore dell’iniziativa, e Jeremy Smith, CEO della società che ha realizzato l’infrastruttura tecnologica capace di dare voce e comportamento al candidato digitale.

A partire da questa cornice concreta, il fenomeno assume una dimensione ben più ampia della cronaca politica locale. L’idea che un sistema artificiale possa prendere parte alle elezioni riflette un clima culturale in cui la distanza tra cittadini e rappresentanti è percepita come crescente, mentre la fiducia nelle leadership tradizionali appare in continuo declino. In questo scenario, la promessa di un candidato sempre raggiungibile, capace di dialogare giorno e notte con migliaia di elettori e dotato di una memoria pressoché perfetta, appare come la risposta tecnologica a un disagio democratico ormai radicato.

Il cuore della proposta di SmarterUK è semplice quanto ambizioso: riavvicinare i cittadini alle istituzioni attraverso un sistema di consultazione continua che trasforma le conversazioni in politiche pubbliche. È un processo che richiama in modo sorprendente le pratiche delle aziende più innovative, quelle che basano la propria sopravvivenza sulla capacità di ascoltare il mercato, analizzare in tempo reale grandi quantità di dati e convertire rapidamente gli input in decisioni strategiche. Così come un’impresa di successo non può affidarsi solo all’intuizione di un singolo leader, allo stesso modo AI Steve non si basa su un’unica volontà, ma su un ecosistema partecipativo fatto di creatori, validatori e algoritmi di sintesi.

Tuttavia, proprio questa apparente efficienza apre interrogativi profondi. Che cosa significa delegare parte del processo politico a un’entità digitale? Quali sono i confini della responsabilità quando non è un essere umano a interpretare le esigenze della comunità? Hans Jonas, affrontando il rapporto tra tecnologia e potere, sottolineava come la potenza degli strumenti moderni imponga un’etica più lungimirante di quella del passato. L’ingresso dell’intelligenza artificiale nella sfera politica rappresenta uno di quei casi in cui la velocità dell’innovazione supera il tempo naturale della riflessione collettiva.

Il fondatore di SmarterUK ha definito AI Steve “scandal-proof”, un candidato programmato per evitare gli errori più comuni dei politici in carne e ossa. Ma l’assenza di fallibilità è davvero un valore? La dimensione politica, ricordava Hannah Arendt, è intrecciata alla fragilità umana, perché nasce dal confronto tra persone imperfette che cercano insieme un orizzonte condiviso. Eliminare l’errore significa anche privare la comunità di una delle sue forme di apprendimento più preziose. Una macchina che non sbaglia non è più etica; è semplicemente più controllabile.

Le imprese conoscono bene questo paradosso. Un dirigente impeccabile può sembrare un vantaggio competitivo, ma spesso non ispira fiducia. La leadership autentica è fatta di tentativi, inciampi, rettifiche. È la capacità di decidere nonostante l’incertezza. Un algoritmo può elaborare scenari complessi, ma può percepire il peso morale di una scelta? Può comprendere la tensione tra efficienza e giustizia, tra profitto immediato e responsabilità verso la collettività?

L’esperimento di Brighton and Hove invita a ripensare in profondità l’idea di rappresentanza. L’uso dei validatori che votano ogni proposta su una scala da uno a dieci introduce un modello decisionale che ricorda i sistemi di valutazione del mercato: efficaci nel misurare preferenze, meno efficaci nel catturare la dimensione tragica e contraddittoria dei grandi dilemmi pubblici. Max Weber sosteneva che la politica richiede una combinazione di passione e senso di responsabilità; qualità che non possono essere tradotte in un voto numerico né simulate da un algoritmo.

Tuttavia, l’arrivo di AI Steve non deve essere letto come la minaccia di una sostituzione dell’essere umano, bensì come una provocazione culturale che apre spazi di riflessione. L’intelligenza artificiale può amplificare il dialogo, migliorare l’accesso all’informazione, ridurre tempi e inefficienze. Può persino contribuire a rendere più trasparente la costruzione delle politiche. Ma non può assumersi il peso morale delle decisioni che definiscono il futuro di una comunità.

Per il mondo imprenditoriale, questo esperimento rappresenta un segnale significativo. Mostra come le tecnologie di ascolto e sintesi potrebbero trasformare i processi decisionali interni, rendendoli più inclusivi, più rapidi e più lucidi. È una direzione che richiama la celebre intuizione di Marshall McLuhan: la tecnologia non sostituisce l’essere umano, ma estende le sue capacità. Qui estende la capacità di comprendere, ascoltare, elaborare.

Ma rimane indispensabile mantenere un centro umano. Italo Calvino ricordava che la leggerezza vera non elimina la complessità; permette di sorvolarla senza esserne schiacciati. L’intelligenza artificiale può offrire questa leggerezza, ma solo se guidata da una coscienza capace di interpretarne i limiti e valorizzarne le potenzialità. Il futuro della rappresentanza, politica o aziendale, si giocherà proprio su questa soglia: quella in cui l’intelligenza incontra la responsabilità, e in cui il silicio non sostituisce l’umano, ma ne amplifica lo sguardo.

 

Autore

  • quimilano.it

    Questa rubrica è l’unica della nostra testata interamente generata da un’intelligenza artificiale. Dichiararlo apertamente significa per noi smontare l’ipocrisia che circonda il tema e riaffermare lo spirito del Manifesto Promptista, che in questa redazione ha la sua casa naturale.