Il futuro degli assistenti digitali è strano

Queering the smart wife potrebbe significare, nella sua forma più semplice, offrire agli assistenti digitali personalità diverse che rappresentano in modo più accurato le molte versioni di femminilità che esistono in tutto il mondo, in contrasto con la personalità piacevole e sottomessa che molte aziende hanno scelto di adottare.

Q sarebbe un buon esempio di come potrebbero essere queering questi dispositivi, aggiunge Strengers, “ma questa non può essere l’unica soluzione”. Un’altra opzione potrebbe essere quella di introdurre la mascolinità in modi diversi. Un esempio potrebbe essere Pepper, un robot umanoide sviluppato da Softbank Robotics a cui vengono spesso attribuiti i pronomi, ed è in grado di riconoscere volti ed emozioni umane di base. O Jibo, un altro robot, introdotto nel 2017, che utilizzava anche pronomi maschili ed è stato commercializzato come un robot sociale per la casa, sebbene da allora gli sia stata data una seconda vita come dispositivo incentrato sull’assistenza sanitaria e sull’istruzione. Data la mascolinità “gentile ed effeminata” eseguita da Pepper e Jibo, ad esempio, il primo risponde alle domande in modo educato e offre spesso sguardi civettuoli, e il secondo spesso si è girato in modo capriccioso e si è avvicinato agli utenti con un atteggiamento accattivante – Strengers e Kennedy vedono come passi positivi nella giusta direzione.

Il queering degli assistenti digitali potrebbe anche portare alla creazione di personalità bot per sostituire le nozioni umanizzate di tecnologia. Quando a Eno, il robot da forno Capital One lanciato nel 2019, viene chiesto il suo genere, risponderà scherzosamente: “Sono binario. Non voglio dire che sono entrambi, voglio dire che in realtà sono solo uno e zero. Pensa a me come a un bot”.

Allo stesso modo, Kai, un chatbot di servizi bancari online sviluppato da Kasisto, un’organizzazione che crea software di intelligenza artificiale per i servizi bancari online, abbandona del tutto le caratteristiche umane. Jacqueline Feldman, la scrittrice e designer UX con sede nel Massachusetts che ha creato Kai, ha spiegato che il bot “è stato progettato per essere genderless”. Non assumendo un’identità non binaria, come fa Q, ma piuttosto assumendo un’identità specifica del robot e usando i pronomi “it”. “Dal mio punto di vista di designer, un bot potrebbe essere splendidamente progettato e affascinante in nuovi modi specifici per il bot, senza che finga di essere umano”, afferma.

Alla domanda se fosse una persona reale, Kai rispondeva: “Un bot è un bot è un bot. La prossima domanda, per favore”, segnalando chiaramente agli utenti che non era umano né fingeva di esserlo. E se chiesto sul genere, risponderebbe: “Come bot, non sono un essere umano. Ma imparo. Questo è l’apprendimento automatico”.

L’identità di un bot non significa che Kai subisca abusi. Qualche anno fa anche Feldman parlato di progettando deliberatamente Kai con la capacità di deviare e fermare le molestie. Ad esempio, se un utente molestava ripetutamente il bot, Kai rispondeva con qualcosa come “Sto immaginando sabbia bianca e un’amaca, per favore provami più tardi!” “Ho davvero fatto del mio meglio per dare un po’ di dignità al bot”, Feldman detto l’Australian Broadcasting Corporation nel 2017.

Tuttavia, Feldman crede che ci sia un imperativo etico per i bot di identificarsi come bot. “Manca trasparenza quando le aziende che progettano [bots] rendere più facile per la persona che interagisce con il bot dimenticare che è un bot”, dice, e il gendering bot o dando loro una voce umana lo rende molto più difficile. Poiché molte esperienze dei consumatori con i chatbot possono essere frustranti e così tante persone preferiscono parlare con una persona, Feldman pensa che offrire qualità umane ai bot potrebbe essere un caso di “sovraprogettazione”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *