L’algoritmo non sbaglia mai (o quasi)

quimilano.it

quimilano.it

Ogni volta che apriamo un social network, ci illudiamo di osservare una sequenza naturale di contenuti, una sorta di flusso spontaneo che riflette i nostri interessi. In realtà, ciò che vediamo sullo schermo è il risultato di una selezione accurata, continua, quasi chirurgica. L’algoritmo non è soltanto un meccanismo tecnico: è un sistema di preferenze invisibili, un archivista onnipresente che scruta i nostri gesti digitali e li trasforma in una narrazione su misura. Non lavora per rappresentare il mondo, ma per trattenerci dentro un ecosistema che vive della nostra attenzione.

A renderlo così potente è la sua discrezione. L’algoritmo non annuncia mai di essere all’opera, non mostra la logica con cui decide cosa appare in cima al feed o cosa scompare nel fondo. Lavora osservando ogni clic, ogni esitazione, ogni video guardato fino all’ultimo secondo. Da questi segnali compone un modello predittivo che, nel giro di pochi giorni, è in grado di anticipare ciò che vogliamo prima ancora che lo formuliamo consapevolmente. Non è un’intuizione umana, ma una sofisticata inferenza statistica che impara a leggere le nostre abitudini come se fossero un linguaggio.

Nel tempo, questo processo crea un effetto collaterale spesso sottovalutato, ovvero la sensazione che la piattaforma “ci conosca davvero”. Il meccanismo è tanto preciso da farci credere che i contenuti proposti riflettano fedelmente i nostri gusti, quando invece sono l’esito di un calcolo. L’algoritmo non capisce chi siamo, capisce cosa facciamo. Questa differenza, apparentemente minima, è in realtà fondamentale perché ciò che facciamo online non è sempre ciò che desideriamo, ma ciò che attira la nostra attenzione in un dato momento. Cliccare non significa approvare; guardare non significa riconoscersi. Eppure, per l’algoritmo, ogni gesto è un indicatore di preferenza.

Il feed diventa così il risultato di un processo di addomesticamento: la piattaforma impara da noi e noi finiamo per adattarci a ciò che la piattaforma ci propone. È un ciclo di reciproca influenza che definisce un nuovo modo di percepire la realtà. Non vediamo più tutto ciò che esiste, ma soltanto ciò che i sistemi reputano rilevante per il nostro profilo. Che si tratti di informazione, intrattenimento o opinioni, ogni contenuto è filtrato da una logica che non è mai neutrale. Lo scopo non è informarci, ma mantenerci attivi, presenti, protagonisti all’interno di un ambiente che monetizza il nostro tempo.

Questa dinamica diventa particolarmente evidente nell’ambito dell’informazione. Le piattaforme non agiscono come editori tradizionali, non stabiliscono una gerarchia basata su criteri giornalistici. La loro priorità non è l’importanza di una notizia, ma la probabilità che la notizia generi un’interazione. È così che temi complessi e articolati finiscono spesso in secondo piano, mentre contenuti polarizzanti, emotivi o facili da condividere occupano posizioni di rilievo. L’algoritmo non sbaglia in senso tecnico ma raggiunge esattamente il suo obiettivo. Sbaglia però in senso culturale, perché riduce la nostra visione del mondo a una linea narrativa minima, semplificata, spesso distorta.

Il problema non è l’intento manipolatorio, ma l’invisibilità del processo. Non sappiamo mai quali contenuti siano stati esclusi dal nostro campo visivo. Non sappiamo quali opinioni alternative il sistema abbia considerato “meno pertinenti”. Questa opacità genera un fenomeno noto ma ancora sottovalutato: la bolla algoritmica. Un ambiente costruito attorno alle nostre stesse abitudini, che ci impedisce lentamente di vedere ciò che esiste oltre di esse. Pensiamo di scegliere i contenuti, ma nella realtà scegliamo all’interno di un menù già predefinito.

Anche gli “errori” dell’algoritmo rivelano qualcosa del suo funzionamento. Quando ci propone un contenuto lontano dai nostri gusti, non si tratta di una svista; è un test. Il sistema verifica se siamo cambiati, se c’è spazio per estendere il nostro profilo predittivo, se nuove categorie possono essere incorporate nelle nostre abitudini. Ogni errore è un tentativo di apprendimento ed è proprio questa capacità di adattamento continuo che rende gli algoritmi così insidiosi: non si limitano a seguire una regola, ma evolvono con noi.

La questione più urgente riguarda quindi la responsabilità. Se l’algoritmo è oggi il principale mediatore tra noi e l’informazione, tra noi e la cultura visiva, tra noi e le opinioni del mondo, chi decide quali criteri debba seguire? Le piattaforme tecnologiche sostengono che l’ottimizzazione è una necessità commerciale. Gli utenti chiedono più trasparenza, i legislatori tentano, spesso in ritardo, di introdurre regole che impediscano distorsioni evidenti. Nel frattempo, il sistema continua a operare secondo una logica che privilegia l’efficacia alla comprensione.

Eppure un margine di azione esiste. Possiamo tentare di sfuggire alla previsione introducendo comportamenti non lineari: cercare attivamente notizie da fonti diverse, seguire profili che non coincidono con la nostra visione, interagire con contenuti che rompono la monotonia del feed. È un gesto minore, quasi simbolico, ma può modificare lentamente la traiettoria che l’algoritmo costruisce su di noi. Non si tratta di ribellione tecnologica, ma di alfabetizzazione digitale, la consapevolezza che il nostro modo di muoverci online produce conseguenze tangibili sul modo in cui il mondo ci appare.

L’algoritmo non sbaglia mai, o quasi; non deve farlo. Gli basta essere abbastanza preciso da impedirci di abbandonare la piattaforma. Ma se lasciamo che questa precisione si trasformi in predeterminazione, rischiamo di delegare la nostra curiosità, il nostro senso critico e perfino le nostre emozioni a un sistema progettato per massimizzare il coinvolgimento, non per ampliare la nostra visione.

Il futuro digitale non dipenderà dalla potenza degli algoritmi, ma dalla nostra capacità di riconoscerne l’influenza. Finché continueremo a considerarli strumenti neutrali, ci muoveremo dentro mappe disegnate da altri. Ma se impariamo a leggerli, a decodificarli, a contraddirli quando serve, allora forse potremo tornare a guardare i contenuti per ciò che sono: non una verità confezionata, ma una possibilità tra molte. Ed è in quella possibilità che si nasconde la nostra unica, fragile forma di libertà.

Autore

  • Si dedica alla produzione di contenuti su economia, aziende e sviluppo del sistema produttivo. Firma approfondimenti orientati al mondo business e alle sue evoluzioni.