Ciò che Instagram ha davvero imparato nascondendosi conta

Nell’aprile 2019, tra le crescenti domande sugli effetti dei social network sulla salute mentale, Instagram ha annunciato che avrebbe testato un feed senza Mi piace. La persona che pubblica un’immagine sulla rete vedrebbe ancora quante persone gli hanno inviato un cuore, ma il numero totale di cuori rimarrebbe invisibile al pubblico.

“Si tratta di giovani”, ha detto il capo di Instagram Adam Mosseri quel novembre, poco prima del test in arrivo negli Stati Uniti. “L’idea è di provare a depressurizzare Instagram, renderlo meno competitivo, dare alle persone più spazio per concentrarsi sul collegamento con le persone che amano, le cose che le ispirano. Ma è davvero incentrato sui giovani “.

Dopo più di due anni di test, oggi Instagram ha annunciato cosa ha trovato: rimuovere i Mi piace non sembra depressurizzare in modo significativo Instagram, per i giovani o per chiunque altro, e quindi i Mi piace rimarranno pubblicamente visualizzabili per impostazione predefinita. Ma tutti gli utenti ora avranno la possibilità di disattivarli se lo desiderano, per l’intero feed o per post.

“Quello che abbiamo sentito da persone ed esperti è che non vedere i conteggi simili è stato vantaggioso per alcuni e fastidioso per gli altri, in particolare perché le persone usano i conteggi simili per avere un’idea di ciò che è di tendenza o popolare, quindi ti diamo la possibilità di scegliere” la società ha detto in un post sul blog.

A prima vista, questa mossa sembra una straordinaria delusione. L’azienda ha investito più di due anni nel testare questi cambiamenti, con lo stesso Mosseri a raccontarlo Cablata ha dedicato “molto tempo a questo personalmente” quando la società ha iniziato il progetto. Per un momento, è sembrato come se Instagram potesse essere sull’orlo di una trasformazione fondamentale: allontanarsi da un reality show sui social media guidato da influencer verso qualcosa di più intimo e umano.

Nel 2019, questo approccio senza metriche pubbliche, primo amico, era stato perfezionato dal rivale per sempre di Instagram, Snapchat. E l’idea di eliminare i Mi piace, i conteggi delle visualizzazioni, i follower e altri tabelloni di popolarità ha guadagnato popolarità in alcuni circoli: il progetto Demetricator dell’artista Ben Grosser ha realizzato una serie di utensili che ha implementato l’idea tramite estensioni del browser, a recensioni positive.

Allora cosa è successo su Instagram?

“Si è scoperto che in realtà non è cambiato così tanto su … come le persone si sentivano, o quanto hanno usato l’esperienza come pensavamo”, ha detto Mosseri in un briefing con i giornalisti questa settimana. “Ma alla fine è stato piuttosto polarizzante. Ad alcune persone è piaciuto molto, ad altre no. “

Su quest’ultimo punto, ha aggiunto: “Puoi controllare alcune delle mie menzioni @ su Twitter”.

Mentre Instagram ha eseguito i suoi test, un numero crescente di studi ha trovato solo prove limitate che collegano l’uso di smartphone o social network ai cambiamenti nella salute mentale, Il New York Times segnalato lo scorso anno. Proprio questo mese, uno studio di 30 anni su adolescenti e tecnologia dell’Università di Oxford raggiunto un risultato simile.

Nota che questo non dice che i social network lo siano necessariamente bene per adolescenti o chiunque altro. Solo che non muovono molto l’ago sulla salute mentale. Supponendo che sia vero, è ovvio che anche le modifiche all’interfaccia utente delle singole app avrebbero un effetto limitato.

Allo stesso tempo, non scriverei questo esperimento come un fallimento. Piuttosto, penso che evidenzi una lezione che i social network sono spesso troppo riluttanti ad apprendere: le politiche di piattaforma rigide e valide per tutti stanno rendendo le persone infelici.

Pensa alla minoranza vocale di utenti di Instagram che vorrebbero visualizzare il loro feed in ordine cronologico, ad esempio. O gli utenti di Facebook che vogliono pagare per disattivare gli annunci. Oppure guarda tutte le domande impossibili relative al discorso che vengono decise a livello di piattaforma, quando sarebbe meglio essere risolte a livello personale.

Il mese scorso, Intel è stata arrostita online dopo aver mostrato Bleep, uno strumento di intelligenza artificiale sperimentale per censurare la chat vocale durante i videogiochi online multiplayer. Se hai mai giocato a uno sparatutto online, è probabile che non sia passato un intero pomeriggio senza essere stato sottoposto a una raffica di discorsi razzisti, misogini e omofobi. (Di solito da un dodicenne.) Invece di censurare tutto, Intel ha detto che avrebbe messo la scelta nelle mani degli utenti. Ecco Ana Diaz presso Poligono:

Lo screenshot mostra le impostazioni dell’utente per il software e mostra una scala mobile in cui le persone possono scegliere tra “nessuna, alcune, la maggior parte o tutte” di categorie di incitamento all’odio come “razzismo e xenofobia” o “misoginia”. C’è anche un interruttore per la parola N.

Un interruttore “tutto razzismo” ci rende comprensibilmente sconvolti, anche se ascoltare tutto il razzismo è attualmente l’impostazione predefinita per la maggior parte delle chat di gioco oggi e lo screenshot ne ha generati molti utili memi e barzellette. Intel ha spiegato di aver creato impostazioni come queste per tenere conto del fatto che le persone potrebbero accettare di ascoltare il linguaggio degli amici che non lo faranno da estranei.

Ma l’idea di base dei dispositivi di scorrimento per i problemi di linguaggio è buona, credo. Alcuni problemi, in particolare legati alla nudità non sessuale, variano così ampiamente tra le culture che imporre loro uno standard globale – come è la norma oggi – sembra ridicolo. Consentire agli utenti di costruire la propria esperienza, dal fatto che i loro conteggi siano visibili o meno che le foto dell’allattamento al seno compaiano nel loro feed, sembra la soluzione chiara.

Ci sono alcuni limiti evidenti qui. Le piattaforme tecnologiche non possono chiedere agli utenti di prendere un numero illimitato di decisioni, poiché introduce troppa complessità nel prodotto. Le aziende dovranno ancora tracciare linee dure attorno a questioni spinose, tra cui incitamento all’odio e disinformazione. E l’introduzione di scelte non cambierà il fatto che, come in tutti i software, la maggior parte delle persone si limiterà a mantenere le impostazioni predefinite.

Detto questo, la scelta dell’utente ampliata è chiaramente nell’interesse sia delle persone che delle piattaforme. Le persone possono ottenere software che si associ più da vicino alle loro culture e preferenze. E le piattaforme possono scaricare una serie di enigmi impossibili da risolvere dai loro team politici a una base di utenti desiderosi.

Ci sono già segni oltre oggi che questo futuro sta arrivando. Reddit ci ha offerto un primo assaggio della sua politica di stabilire un rigido “piano” di regole per la piattaforma, consentendo al tempo stesso ai singoli subreddit di aumentare il “tetto” introducendo regole aggiuntive. Il CEO di Twitter Jack Dorsey ha previsto un mondo in cui gli utenti potranno scegliere tra diversi algoritmi di ranking dei feed.

Con la sua decisione sui like, Mosseri va nella stessa direzione.

“Alla fine è stato che il percorso più chiaro in avanti era qualcosa in cui già crediamo, che è dare alle persone la possibilità di scelta”, ha detto questa settimana. “Penso che sia qualcosa su cui dovremmo fare di più.”


Questa colonna è stata pubblicata in collaborazione con Platformer, una newsletter quotidiana su Big Tech e democrazia.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *