Posizionare disinformazione su Google costa meno di una campagna pubblicitaria

Posizionare disinformazione su Google costa meno di una campagna pubblicitaria

Un esperimento recente ha dimostrato che inserire contenuti falsi nei primi risultati di Google è operativamente semplice. Ciò rivela preoccupazioni profonde sulla fiducia nel business.

Andrés MolinaAndrés Molina18 marzo 20267 min
Condividi

L'esperimento che nessuno voleva confermare

Roger Montti, editor senior di Search Engine Journal, ha pubblicato a metà marzo 2026 i risultati di un esperimento che l'industria del marketing digitale sospettava da tempo, ma che preferiva non nominare direttamente: ottimizzare contenuti falsi utilizzando tecniche standard di posizionamento sui motori di ricerca è, nelle sue parole, triviale. Il contenuto disinformativo non solo ha raggiunto rapidamente posizioni di rilievo su Google, ma si è anche propagato ad altri siti, amplificando il proprio raggio d’azione in modo organico.

Non sono stati impiegati risorse straordinarie. Non c'era accesso privilegiato agli algoritmi. Solo un’applicazione metodica delle stesse tools che qualsiasi team di marketing utilizza quotidianamente per posizionare un articolo di blog o una pagina di prodotto.

Il caso non è isolato. Il sviluppatore del progetto NanoClaw, con oltre 18.000 stelle su GitHub e copertura stampa verificabile, ha riferito che Google posizionava un sito impostore sopra il progetto legittimo. Un test indipendente di Edward Sturm ha mostrato che un video su una tattica SEO ha raggiunto il primo posto su Google in meno di 24 ore dalla sua pubblicazione su piattaforme di contenuto generato dagli utenti, accumulando oltre 18.000 visualizzazioni su Instagram Reels. Il modello è consistente: la velocità di adozione dell'algoritmo supera di gran lunga la sua capacità di verifica.

Quando l'algoritmo premia l'esecuzione, non la verità

Per un analista del comportamento del consumatore, questo fenomeno non descrive un difetto tecnico di Google. Descrive un difetto strutturale nel modo in cui i leader aziendali hanno concepito la loro strategia di visibilità digitale, assumendo che il miglior contenuto vinca per merito.

Questa assunzione non è mai stata completamente vera, ma nel 2026 è operativamente pericolosa. Lo studio di SISTRIX su oltre 100 milioni di parole chiave in Germania ha rivelato che le AI Overviews di Google hanno ridotto il tasso di clic sul primo risultato organico dal 27% all'11%, una caduta del 59%. Questo significa che anche il contenuto che riesce a posizionarsi correttamente riceve una frazione del traffico storico. Lo spazio di attenzione si è contratto mentre il costo di invadere quel spazio con contenuti falsi è rimasto basso.

Ciò che emerge è una geometria degli incentivi perversa: gli attori che investono in autenticità e rigore ricevono meno traffico di prima, mentre gli attori che investono in manipolazione tecnica accedono allo stesso inventario di attenzione con minore frizione operativa. Per un’azienda che ha costruito il proprio pipeline clienti basato su SEO organico, ciò non è un’anomalia dell'algoritmo; è una minaccia diretta all'economia del proprio canale di acquisizione.

Il modello E-E-A-T di Google, che priorizza esperienza, competenza, autorità e fiducia, esiste precisamente per creare una barriera contro questo tipo di manipolazione. Ma le evidenze recenti suggeriscono che quella barriera ha lo spessore di una politica ben redatta e la resistenza di un foglio di carta di fronte a chi conosce le regole tecniche del sistema.

La psicologia del consumatore che nessuno sta leggendo bene

Qui è dove i leader aziendali commettono l'errore più costoso: confondono la fiducia dell'algoritmo con la fiducia del consumatore, come se fossero la stessa variabile. Non lo sono, e la differenza ha conseguenze finanziarie dirette.

Il barometro di fiducia Edelman 2024 ha documentato che l'88% dei consumatori cita la fiducia come fattore determinante nelle proprie decisioni d'acquisto. Non è un dato di branding; è una metrica di conversione. Quando un consumatore incontra contenuti falsi su una categoria di prodotto, non solo scarta quel contenuto specifico. Attiva uno stato di ansia generalizzata verso l'intera categoria, comprese le marche legittime che la popolano.

Questo è ciò che gli algoritmi non possono misurare e i team di marketing ignorano frequentemente: la disinformazione che non influisce direttamente sulla tua marca può erodere la domanda dell'intera categoria. Il meccanismo è comportamentale, non tecnico. Quando l'utente percepisce che l'ambiente informativo di una categoria è inaffidabile, la sua euristica di valutazione diventa più conservativa. Tarda di più a decidere. Esige più segnali di verifica. Abbandona il processo d'acquisto con maggiore frequenza. Il costo di quell’abbandono non compare in alcun dashboard di SEO, ma appare nelle percentuali di conversione.

La proliferazione di contenuti generati dagli utenti nei risultati di Google, inclusi forum, Reddit e video brevi, non è un capriccio dell'algoritmo. È la risposta adattiva del sistema alla percezione del consumatore che i blog tradizionali siano contaminati da contenuti generati automaticamente senza supervisione editoriale. L'utente migra verso formati che percepisce come più difficili da falsificare. Le marche che non comprendono questo spostamento percettivo continueranno a ottimizzare per un canale la cui credibilità percepita è in declino strutturale.

Cosa devono auditare i leader prima che qualcun altro lo faccia per loro

La discussione tecnica su quanto sia facile posizionare la disinformazione su Google è rilevante per i team SEO. Per i dirigenti, la domanda operativa è diversa e più urgente: quanto del capitale reputazionale della mia azienda riposa su un canale che un attore malintenzionato può erodere con risorse inferiori a quelle di una campagna pubblicitaria a portata moderata?

I dati disponibili permettono di costruire uno scenario concreto. Se il traffico organico verso la posizione uno è diminuito del 59% a causa dell'introduzione delle AI Overviews, e contemporaneamente quello stesso spazio è vulnerabile all'occupazione da parte di contenuti falsi, le aziende che non hanno diversificato le proprie fonti di credibilità prima del 2025 stanno operando con un cuscinetto di fiducia molto più sottile di quanto le loro metriche di traffico suggeriscano.

La diversificazione non è concettuale. Ha componenti specifiche: verifica dell'autore con identità rintracciabili, presenza attiva in forum e comunità dove il consumatore sta già filtrando segnali, e strutture di contenuto che lasciano evidenza verificabile di esperienza diretta, non solo di conoscenza dichiarata. Edward Sturm e altri specialisti hanno documentato che rivelare l'identità del creatore non è più solo una buona pratica etica; è una barriera tecnica contro essere catalogati come tattica di sombrero nero dagli algoritmi stessi.

Ciò che questo esperimento espone con più chiarezza di qualsiasi vulnerabilità tecnica è il costo di aver scommesso tutta la strategia di visibilità per far brillare il contenuto proprio, senza costruire simultaneamente le strutture che attenuerebbero la sfiducia del consumatore di fronte a un ambiente informativo sempre più rumoroso. I leader che continuano a misurare il successo della propria strategia di contenuti esclusivamente in base al volume di traffico organico stanno confondendo la mappa con il territorio: la mappa può indicare che sei al primo posto, mentre il territorio ha già cambiato proprietario.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche