X

Mensaje a RT

Nombre * Error message here
Correo electrónico * Error message here
Su comentario *
1 800 Error message here
feedback
Imprimir https://es.rt.com/6x0x

Científicos financiados por Facebook traducen señales cerebrales a texto

Publicado: 31 jul 2019 13:16 GMT | Última actualización: 31 jul 2019 14:56 GMT

Esos especialistas desarrollaron algoritmos de aprendizaje automático capaces de descodificar sonidos del habla específicos.

Científicos financiados por Facebook traducen señales cerebrales a texto
BSIP / Universal Images Group / Gettyimages.ru
Síguenos en Facebook

Una investigación financiada por Facebook ha permitido que científicos de la Universidad de California en San Francisco (Estados Unidos) descifren por primera vez palabras y frases a partir de señales cerebrales en tiempo real, una técnica que se podría usar para conocer qué intentaría decir una persona convaleciente, según un estudio publicado este martes en la revista Nature.

Este avance permitiría ayudar a pacientes que hayan perdido su capacidad de hablar de manera parcial o total debido a parálisis faciales a raíz de derrames cerebrales, lesiones de la médula espinal, enfermedades neurodegenerativas u otras afecciones y mantengan intactas las regiones del cerebro que controlan los músculos de mandíbula, labios, lengua y laringe.

Hoy en día, las personas que se encuentran en esa situación controlan "una interfaz de computadora" mediante "movimientos oculares residuales o contracciones musculares" para "deletrear palabras muy lentamente" pero, "en muchos casos", la información para producir un discurso fluido "todavía está presente en sus cerebros" y "solo" necesitarían "la tecnología que les permita expresarla", explicó el neurocirujano Edward Chang, uno de los autores del estudio.

Descodificación precisa

Estos especialistas colocaron un pequeño parche de electrodos colocado en la superficie de los cerebros de tres pacientes con epilepsia que se iban a someter a neurocirugías para identificar el origen de sus ataques y desarrollaron un conjunto de algoritmos de aprendizaje automático equipados con modelos de habla fonológica capaces de descodificar sonidos del habla específicos de la actividad cerebral de una persona.

Los voluntarios tuvieron que contestar a diversas preguntas y leer una lista de potenciales respuestas. Tras varios ensayos, los algoritmos de aprendizaje lograron identificar de manera casi inmediata qué pregunta había escuchado el paciente y cuál era su respuesta —con una precisión del 75 % y el 61 %, respectivamente— solo a partir de señales cerebrales.

Mientras que la mayoría de iniciativas anteriores solo se centraban en el discurso del paciente, estos expertos mostraron "el valor de descifrar "ambas partes de una conversación", detalló Chang. Asimismo, "es la primera vez que se utiliza este enfoque para identificar palabras y frases habladas", aunque "con un vocabulario muy limitado", destacó David Moses, coautor del estudio.

¿Un modo de revelar los pensamientos?

Este sistema detecta las señales cerebrales que controlan la 'maquinaria' del habla, pero en ciertos pacientes con lesiones o enfermedades neurodegenerativas podría ser insuficiente, porque requerirían formas más sofisticadas de descodificar las señales del cerebro.

Sin embargo, personas como Winston Chiong, un académico del mismo centro educativo que no participó en este estudio, estima importante debatir los problemas éticos que podrían plantear las herramientas de este tipo, como si "podría una 'neuroprótesis del habla' revelar involuntariamente los pensamientos más íntimos de las personas", declaró al diario británico The Guardian.

Al respecto, Edward Chang aseguró que descifrar lo que alguien intenta decir abiertamente resulta muy difícil y extraer sus pensamientos internos es prácticamente imposible. Además, confirmó que no le interesa "desarrollar una tecnología para descubrir lo que la gente piensa, incluso si fuera posible".

Si te ha gustado, ¡compártelo con tus amigos!

RT

Etiquetas:

Últimas noticias

Este sitio web utiliza cookies, puede obtener más información aquí

Aceptar Cookies