Twitter pondrá a prueba una nueva opción que alertará a los usuarios acerca del uso de lenguaje 'dañino' en sus respuestas a otros tuits antes de que estas sean publicadas.
La plataforma dio a conocer que está "llevando a cabo un experimento limitado al [sistema operativo] iOS con un aviso que da la opción de revisar su respuesta antes de que se publique si utiliza un lenguaje que podría ser perjudicial".
A pesar de que el anuncio no especifica las palabras que entrarían en esa categoría, la política relativa a las conductas de incitación al odio de la compañía, ya establece la prohibición del uso de imágenes o lenguaje que incite a la violencia o fomente la discriminación por motivos de género, ideología, raza u orientación sexual.
Del mismo modo, la red social tampoco indicó si los mensajes que reciban la advertencia serán publicados o eliminados. Según la plataforma, esta opción permitirá "repensar una respuesta" que tal vez exprese "cosas que no quieres decir".