Ciao!
Questa settimana partiamo da una domanda: chi costruisce il nostro sguardo sul mondo? La risposta potrebbe sembrare semplice: i giornali, le persone che seguiamo, le fonti a cui ci affidiamo. La realtà diventa però più complessa non appena ci spostiamo nel digitale, dove ogni contenuto che vediamo è il risultato del calcolo di un algoritmo.
Nella newsletter di oggi proveremo ad affrontare una piccola parte di questa grande complessità con una parola, una notizia e un’intervista.
Iniziamo? Iniziamo.
La comfort zone delle filter bubble
Se ti è mai capitato di pensare, scrollando sui social, che i contenuti che vedi sembrano essere selezionati apposta per te è perché, beh, le cose stanno proprio così.
È l’effetto delle
filter bubble, in italiano “bolle di filtraggio”, il fenomeno per cui veniamo esposti quasi esclusivamente a contenuti che rispecchiano ciò che già pensiamo, proviamo o crediamo. Il termine è stato coniato nel 2011 da Eli Pariser, nel saggio “
The Filter Bubble: What the Internet Is Hiding from You” e descrive un meccanismo molto semplice:
ogni azione che compiamo sui social viene registrata e analizzata dagli algoritmi per personalizzare il nostro feed e mostrarci ciò che (secondo le analisi dell’algoritmo) ci interessa di più. Tutto ciò che contrasta o che viene ritenuto lontano o inutile viene automaticamente escluso.
Questo sistema, presente su tutte le principali piattaforme, ha delle conseguenze potentissime: alimenta la polarizzazione, rafforzando esclusivamente le nostre opinioni, genera intolleranza, impoverendo il pensiero critico con l’assenza di punti di vista diversi, e favorisce l’ostilità, soprattutto nei casi di utenti che abitano bolle particolarmente estreme. Nel tempo, questo circolo di conferme finisce per rafforzare i nostri pregiudizi, ridurre la varietà informativa e minare la nostra capacità di mettere in discussione ciò in cui crediamo. Il feed si trasforma in uno specchio che non riflette la realtà, ma una versione su misura della nostra visione del mondo, priva di qualsiasi forma di diversità culturale, politica e sociale.
Qual è la soluzione, allora? L’antidoto agli effetti collaterali delle filter bubble non sta nella quantità, perché il punto non è tanto il numero di informazioni che leggiamo quanto lo sguardo con cui lo facciamo.
Serve più consapevolezza critica.
Serve iniziare a riconoscere che i feed sono costruiti per tenerci incollati allo schermo, per intrattenerci, per farci cliccare e consumare sempre più contenuti, e non per tenerci informati.
Serve iniziare a chiederci perché stiamo vedendo un determinato contenuto, da chi è stato costruito e quali punti di vista, rispetto a quello che ci racconta, non stiamo considerando.
Ovviamente questo non vuol dire diffidare di tutto quello che leggiamo o iniziare a cercare le fonti per verificare se il TikTok del gabbiano sul monopattino (che ha fatto impazzire tutto il team di Parole O_Stili qualche tempo fa) sia reale oppure generato dall’IA. Al contrario, è un invito a imparare a navigare la complessità e ad accogliere quello che ci chiama a mettere in discussione le nostre certezze, accompagnandoci fuori dalla nostra comfort zone digitale per costruire un pensiero più ampio, rispettoso e capace di confronto.
La campagna Google ai danni di Francesca Albanese
Francesca Albanese è una relatrice speciale delle Nazioni Unite sui territori palestinesi occupati, incaricata dal 2022 di monitorare e denunciare le violazioni dei diritti umani nell’area. È anche vittima di una campagna di discriminazione e delegittimazione online ad opera della Israeli Government Advertising Agency, agenzia che opera come gruppo di comunicazione per il governo di Benjamin Netanyahu. Digitando il suo nome su Google, infatti, ci si può imbattere in un annuncio sponsorizzato che la accusa di aver “violato i principi di imparzialità, universalità e integrità professionale, fondamentali per il suo mandato alle Nazioni Unite” e di contiguità con Hamas.
La vicenda,
riportata da un’inchiesta di Fanpage.it, non sarebbe un episodio isolato ma parte di una
strategia comunicativa più ampia, una vera e propria campagna digitale
volta a delegittimare voci critiche sul conflitto a Gaza attraverso strumenti come la pubblicità online, i social e i video generati con l’intelligenza artificiale.
Albanese, recentemente sanzionata dagli Stati Uniti e accusata di antisemitismo e di essere fautrice di «una campagna di guerra politica ed economica contro gli Stati Uniti e Israele», è da tempo al centro di una conversazione estremamente polarizzata attorno alle sue posizioni. Ma al di là della questione politica, questa vicenda ci costringe a interrogarci su una questione fondamentale: cosa succede quando gli spazi dell’informazione diventano luoghi di pressione, dove la narrazione viene costruita non solo con le parole, ma con il denaro e con gli algoritmi?
Ne abbiamo parlato con Enrico Marchetto, marketer e Founder di Noiza.
Cosa ci dice il caso Francesca Albanese sul potere degli strumenti pubblicitari digitali quando sono usati non per vendere prodotti, ma per influenzare l'opinione pubblica o screditare una persona?
Il caso di Francesca Albanese è davvero lampante.
Lampante di come da un lato lo strumento pubblicitario online non sia usato solo per vendere proteine solubili ma per influenzare l'opinione pubblica e, in questo caso, screditare "il nemico". Dall'altro lato è l'ennesimo pezzo del puzzle che va a comporre l'ingegneria del consenso.
Ma andiamo con calma e spieghiamo meglio.
Da un punto di vista tattico, quello a cui assistiamo è una pratica che assomiglia, per esempio, alle tante forme di "Brand Protection" presenti sul motore di ricerca. Perdonate la semplificazione ma proviamo a capirci meglio: io ho un hotel e faccio delle inserzioni in modo tale da assicurarmi il primo posto su Google e non essere scavalcato dai vari Booking, Trivago e tutte le piattaforme che provano ad agire come intermediari con la mia struttura.Nel caso di Francesca Albanese, il principio è molto simile: per scavalcare l'ovvio primo posto di una biografia su Wikipedia, il primo punto di atterraggio visibile sarà un link che la scredita. Per fortuna questo non accade perché se al momento cerchiamo "Francesca Albanese" sul motore di ricerca il link sponsorizzato del governo israeliano è l'ultimo link presenta nella SERP (Search Engine Results Page). Quindi l'effetto, seppur indubbiamente presente, è relegato a una porzione di visibilità ridotta.
Cosa ci dice tutto questo?
- Che sto usando l'advertising per imporre una narrazione di parte e la sto mostrando a tutto il volume delle search (5 milioni di ricerche).
- Che cerco autorevolezza, "sono su Google, sono il Governo Israeliano, sono un risultato in prima pagina".
- Che posso targetizzare su un pubblico ben preciso, per rafforzare il consenso oppure fare prospecting, cioè andare a influenzare persone nuove che si stanno informando in questo momento sul caso Albanese
- Che riesco a essere persistente, perché se ho budget infinito allora posso tenere l'annuncio all'infinito – a differenza di qualsiasi altro media, che dopo un po' va in archivio surclassato dal posizionamento di informazioni più recenti.
- Ultimo ma non ultimo, il fatto stesso che io stia facendo advertising su Francesca Albanese diventa "notiziabile", moltiplicandone l'effetto.
Quando una piattaforma come Google ospita un annuncio, gli dà automaticamente credibilità. Ma da un punto di vista tecnico, quanto sono davvero responsabili le piattaforme per i contenuti che approvano? E quali limiti ci sono, se ci sono?
Non è detto che la comparsa di un annuncio sia immediatamente un attestato di credibilità. In questo caso Google agisce da editore: ospita gli annunci di chi lo paga. In realtà per policy non dovrebbe pubblicare annunci diffamatori ma, evidentemente in questo caso l'algoritmo non ha ravvisato questo tipo di pratica.
Immagino che dalla moderazione automatica si dovrebbe passare urgentemente a una moderazione umana,che prenda in considerazione il possibile tentativo di screditamento della persona. Le piattaforme sono sicuramente responsabili di ciò che pubblicano, ma ci sono una marea di limiti tecnici e spesso operativi: il volume di annunci caricato ogni giorno, il limite del controllo algoritmico, il confine molto sottile (e inquietante) tra la libertà di parola e la disinformazione, la poca rapidità di azione ovvero l'accorgersi di una pubblicazione diffamatoria quando il danno è già stato fatto.
Perché siamo così propensi a credere a quello che leggiamo online, soprattutto quando conferma le nostre idee?
È una questione che dura dalla notte dei tempi, è un centinaio di anni che la sociologia della comunicazione si occupa di manipolazione mediatica.
Lascio tre spunti legati principalmente al marketing online:
- Bias di conferma, la tendenza continua a cercare informazioni che vanno a confermare la mia credenza preesistente. Ho dei dubbi su una narrazione mainstream? Cerco gli elementi che mi rafforzino il dubbio. Solo che nel 2025 non serve più cercare perché l'algoritmo traghetta verso di te uno stimolo confermativo
- Polarizzazione. L'elemento divisivo genera ingaggio, l'ingaggio genera visibilità, la visibilità genera ulteriore ingaggio e via dicendo. L'ingaggio sia pro che contro è sempre complice della risonanza del messaggio. Sì, purtroppo anche questa intervista, in parte, è complice.
- Overload informativo. E come si risponde all'overload informativo? Con la semplificazione. L'approccio critico è faticoso e spesso siamo in attesa che qualcuno ce l'abbia al posto nostro.