Twitter alertará a sus usuarios sobre el uso de lenguaje "perjudicial" en sus publicaciones
Twitter pondrá a prueba una nueva opción que alertará a los usuarios acerca del uso de lenguaje 'dañino' en sus respuestas a otros tuits antes de que estas sean publicadas.
La plataforma dio a conocer que está "llevando a cabo un experimento limitado al [sistema operativo] iOS con un aviso que da la opción de revisar su respuesta antes de que se publique si utiliza un lenguaje que podría ser perjudicial".
When things get heated, you may say things you don't mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.
— Twitter Support (@TwitterSupport) May 5, 2020
A pesar de que el anuncio no especifica las palabras que entrarían en esa categoría, la política relativa a las conductas de incitación al odio de la compañía, ya establece la prohibición del uso de imágenes o lenguaje que incite a la violencia o fomente la discriminación por motivos de género, ideología, raza u orientación sexual.
Del mismo modo, la red social tampoco indicó si los mensajes que reciban la advertencia serán publicados o eliminados. Según la plataforma, esta opción permitirá "repensar una respuesta" que tal vez exprese "cosas que no quieres decir".