L’algoritmo non ti guarda: ti studia, ti addestra. Il rischio è che decida per te
C’è un equivoco di fondo quando parliamo di algoritmi. Pensiamo che siano strumenti neutri, righe di codice che si limitano a mostrarci ciò che ci interessa. In realtà l’algoritmo non è uno specchio: è un interprete. Osserva, registra, deduce. E poi agisce. Non decide al posto nostro in modo diretto, ma costruisce il perimetro entro cui le nostre decisioni diventano più probabili di altre. È qui che il confine tra comodità e manipolazione si fa sottile. Ed è qui che entra in gioco la responsabilità individuale, soprattutto in un ecosistema dominato da grandi piattaforme, che hanno fatto dell’analisi dei comportamenti il cuore del loro modello di business.
Per capire fino a che punto l’algoritmo incida sulla nostra vita quotidiana, bisogna partire da una domanda semplice e tutt’altro che innocua. Noi l’abbiamo rivolta a Nicola Bernardi, presidente di Federprivacy, che ha scritto un interessantissimo volume con diversi contributi dal titolo: ‘Smetti di farti spiare, difendi la tua privacy‘.

Nicola Bernardi, presidente Federprivacy
L’algoritmo domina alcune scelte nella nostra inconsapevolezza. Quali attenzioni possiamo avere per gestirlo, invece che essere totalmente gestiti?
Bisogna innanzitutto chiarire cos’è davvero un algoritmo, senza demonizzarlo ma nemmeno idealizzarlo. In modo semplice, è un meccanismo che studia ogni nostro comportamento, ogni abitudine, ogni preferenza. Lo fa con obiettivi molto precisi: conoscerci meglio, forse persino meglio di quanto conosciamo noi stessi. Da qui partono una serie di azioni che, in alcuni casi, possono anche essere vantaggiose per l’utente. Pensiamo alle offerte per un viaggio nel momento giusto, o a un prodotto che desideriamo da tempo e che compare a un prezzo conveniente. Il problema è che non finisce lì. Lo stesso metodo di analisi può essere usato anche a nostro danno, orientando le scelte senza che ce ne rendiamo conto. Compriamo qualcosa che non è davvero l’opzione migliore, ma che ci viene proposta in modo più visibile e persuasivo. E il rischio più serio arriva quando l’influenza non riguarda più solo i consumi, ma il modo in cui pensiamo.
In che senso l’algoritmo può arrivare a condizionare scelte più profonde, non solo commerciali?
Il punto critico è la progressività. L’algoritmo non impone, suggerisce. Non stravolge, accompagna. Nel tempo può portarci a considerare accettabili, e talvolta desiderabili, idee o comportamenti che inizialmente avremmo rifiutato. Questo vale per ambiti filosofici, politici, sessuali. Funziona come una persuasione lenta, costruita sull’abitudine. Più interagiamo, più l’algoritmo affina il tiro. E più il perimetro delle nostre scelte si restringe, anche se a noi sembra di essere liberi.
In questo scenario, la privacy diventa una forma di difesa?
Sì, ma il vero problema è che abbiamo smesso di percepirla come tale. Ci siamo abituati, se non rassegnati, all’idea che i nostri dati siano in circolazione e sotto dominio pubblico. Non è successo per caso. È stata una strategia precisa delle big tech, che hanno trasformato i dati nel nuovo petrolio e ci hanno convinti che “non avere nulla da nascondere” fosse sinonimo di trasparenza. Abbiamo profili social, usiamo app, navighiamo continuamente, e così abbiamo normalizzato l’idea di rendere pubblica la nostra vita privata. Solo quando esplode una gogna mediatica, quando una persona viene travolta dall’odio online, ci ricordiamo quanto la privacy sia fragile. Nei casi più estremi, soprattutto tra gli adolescenti, abbiamo visto conseguenze drammatiche. È lì che capiamo che il web non è solo uno spazio neutro, ma può diventare un ambiente tossico e pericoloso.


Cosa possiamo fare, concretamente, per difenderci?
Il primo passo è smettere di cliccare in automatico. Le piattaforme fanno leva sulle emozioni e sull’urgenza: “accetta per continuare”, “abbiamo a cuore la tua privacy”, “clicca qui”. Questi meccanismi hanno un nome preciso: dark pattern. Sono progettati per non farci riflettere. Il problema è che, quando apriamo un sito o un’app, non percepiamo di avere davanti qualcuno che potrebbe trarre vantaggio dalla nostra distrazione. Fermarsi, anche solo per leggere cosa stiamo accettando, è già una forma di resistenza.
Ma non esiste anche un lato oscuro che non possiamo controllare, come spyware e intrusioni?
Esiste, ma non dobbiamo cadere nella paranoia. Le tecnologie davvero invasive sono costose e generalmente utilizzate da governi o servizi di intelligence. Il rischio quotidiano è molto più banale e molto più diffuso. Riguarda i permessi che concediamo alle app, l’accesso al microfono, alla webcam, alla posizione. Qui entrano in gioco le regole europee, come il GDPR, che obbligano le aziende a dichiarare cosa fanno con i nostri dati. Spesso è tutto scritto, solo che non leggiamo. La tutela esiste, ma richiede attenzione. E torniamo sempre allo stesso punto: consapevolezza.
C’è qualcosa che non dovrebbe mai essere pubblicato sui social?
Siamo diventati troppo abituati a condividere tutto. Pubblicare una foto in vacanza significa dire che non siamo a casa. Ma il tema più delicato riguarda i minori. Internet, e in particolare le sue zone d’ombra, è frequentato anche da persone con cattive intenzioni. Volti, abitudini, luoghi, orari sono informazioni sensibili. Oggi chiamiamo “amico” qualcuno che in realtà non conosciamo. Prima di pubblicare dovremmo chiederci che effetto avrà su chi guarda e se chi guarda è davvero chi pensiamo. Siamo liberi di esporre noi stessi, ma non abbiamo il diritto di esporre gli altri, soprattutto i più vulnerabili.
Alla fine, la questione non è smettere di usare la tecnologia. È imparare a usarla senza spegnere il pensiero critico. L’algoritmo continuerà a esistere. La differenza sta nel decidere se vogliamo esserne utenti consapevoli o semplici bersagli ben profilati.



Ultime Notizie
10 Marzo 2026






