Un nuovo strumento mostra come variano i risultati di Google nel mondo

Un portavoce di Google ha affermato che le differenze nei risultati non sono state causate dalla censura e che i contenuti sul massacro di Piazza Tiananmen sono disponibili tramite Ricerca Google in qualsiasi lingua o impostazione locale. Le immagini turistiche acquistano risalto in alcuni casi, ha detto il portavoce, quando il motore di ricerca rileva l’intenzione di viaggiare, il che è più probabile per chi effettua ricerche più vicine a Pechino o digita in cinese. La ricerca di Piazza Tiananmen dalla Thailandia o dagli Stati Uniti utilizzando l’impostazione della lingua cinese di Google richiede anche immagini recenti e pulite del sito storico.

“localizziamo i risultati nella tua regione e lingua preferite in modo da poter accedere rapidamente alle informazioni più affidabili”, ha affermato il portavoce. Gli utenti di Google possono ottimizzare i propri risultati modificando l’impostazione della posizione e la lingua.

I collaboratori di Search Atlas hanno anche creato mappe e visualizzazioni che mostrano come i risultati di ricerca possono differire in tutto il mondo. Uno mostra come la ricerca di immagini di “Dio” produca immagini cristiane barbute in Europa e nelle Americhe, immagini di Buddha in alcuni paesi asiatici e caratteri arabi per Allah nel Golfo Persico e nell’Africa nord-orientale. Il portavoce di Google ha affermato che i risultati riflettono il modo in cui il suo servizio di traduzione converte il termine inglese “Dio” in parole con significati più specifici per alcune lingue, come Allah in arabo.

Altri confini di informazioni tracciati dai ricercatori non vengono mappati direttamente sui confini nazionali o linguistici. I risultati di “come combattere il cambiamento climatico” tendono a dividere le nazioni insulari e i paesi dei continenti. In paesi europei come la Germania, le parole più comuni nei risultati di Google relative a misure politiche come il risparmio energetico e gli accordi internazionali; per isole come Mauritius e le Filippine, era più probabile che i risultati citassero l’enormità e l’immediatezza della minaccia di un cambiamento climatico, o danni come l’innalzamento del livello del mare.

Search Atlas è stato presentato il mese scorso alla conferenza accademica Designing Interactive Systems; i suoi creatori stanno testando una versione beta privata del servizio e stanno valutando come ampliare l’accesso ad esso.

Search Atlas non può rivelare perché diverse versioni di Google ritraggono il mondo in modo diverso. I redditizi sistemi di classificazione dell’azienda sono tenuti strettamente e l’azienda dice poco su come sintonizza i risultati in base alla geografia, alla lingua o all’attività di una persona.

Qualunque sia la ragione esatta per cui Google mostra, o non mostra, risultati particolari, hanno un potere troppo facilmente trascurato, afferma Ye, co-creatore di Search Atlas. “Le persone chiedono ai motori di ricerca cose che non chiederebbero mai a una persona e le cose che vedono nei risultati di Google possono cambiare le loro vite”, afferma Ye. “Potrebbe essere ‘Come faccio ad abortire?’ ristoranti vicino a te, o come voti o fai un vaccino”.

Gli esperimenti di WIRED hanno mostrato come le persone nei paesi vicini potrebbero essere indirizzate da Google a informazioni molto diverse su un argomento scottante. Quando WIRED ha interrogato Search Atlas sulla guerra in corso nella regione etiope del Tigray, l’edizione Etiopia di Google ha indicato pagine e blog di Facebook che criticavano la pressione diplomatica occidentale per ridurre il conflitto, suggerendo che gli Stati Uniti e altri stavano cercando di indebolire l’Etiopia. I risultati per il vicino Kenya e per la versione statunitense di Google hanno messo in evidenza in modo più evidente la copertura di notizie esplicative da fonti come la BBC e Il New York Times.

Ochigame e Ye non sono i primi a sottolineare che i motori di ricerca non sono attori neutrali. Il loro progetto è stato in parte ispirato dal lavoro di Safiya Noble, cofondatore e condirettore del Center for Critical Internet Inquiry dell’UCLA. Il suo libro 2018 2018 Algoritmi di oppressione ha esplorato il modo in cui le ricerche su Google che utilizzano parole come “nero” o “ispanico” hanno prodotto risultati che riflettono e rafforzano i pregiudizi della società nei confronti di alcune persone emarginate.

Noble afferma che il progetto potrebbe fornire un modo per spiegare la vera natura dei motori di ricerca a un pubblico più ampio. “È molto difficile rendere visibili i modi in cui i motori di ricerca non sono democratici”, afferma.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.