Para la mayoría de las personas moverse y comunicarse son acciones cotidianas. Sin embargo, existen trastornos neurológicos poco comunes en los que pacientes presentan dificultades para realizar movimientos y expresar sus pensamientos. El proyecto Fondecyt de Iniciación que se encuentra desarrollando la Dra. Carolina Saavedra, académica de la Universidad Técnica Federico Santa María (USM), se asocia con estos casos, ya que estudia nuevos componentes para aplicar en señales de interfase cerebro – computador (BCI). La idea, comentó la profesora del Departamento de Informática, es «desarrollar componentes de tiempo-frecuencia para redes neuronales profundas y así mejorar específicamente la identificación de patrones en electroencefalografía (EEG), que miden la actividad eléctrica generada en el cerebro «. Según indicó la Dra. Saavedra, lo que buscan es la integración de métodos tiempo-frecuencia en redes neuronales profundas, ya que así esperan mejorar el rendimiento en la identificación de patrones EEG. Redes neuronales para decodificar el pensamiento Para entender el proceso, la académica de la USM explicó que un ejemplo de este tipo de interfaz consiste en presentar al usuario una matriz de letras en una pantalla. Estas se iluminan de forma aleatoria y, «cuando la persona fija su atención en una letra específica, se produce un patrón cerebral distintivo conocido como potencial evocado, el cual aparece aproximadamente 300 milisegundos después del estímulo. Estos patrones pueden ser detectados por algoritmos para interpretar lo que el paciente desea comunicar». Sobre estas señales la Dra. Carolina Saavedra trabaja en el Fondecyt «Incorporación de transformaciones tiempo-frecuencia en redes neuronales profundas para mejorar la identificación de patrones en EEG.», que tiene una duración de tres años, y cuyos desafíos son « mejorar los sistemas actuales para que reconozcan con mayor precisión cuándo una persona quiere seleccionar una letra o realizar una acción, todo solo con su pensamiento». El proyecto también considera la creación de una librería de software libre que permitirá compartir los algoritmos desarrollados con la comunidad científica. «Queremos que los avances estén disponibles para todos. La idea es que otros investigadores y desarrolladores puedan aprovechar nuestras herramientas para seguir avanzando en el área», concluyó la Dra. Saavedra. Cabe señalar que el equipo del proyecto no trabaja directamente con pacientes, utiliza bases de datos públicas disponibles en internet y colabora la Dra. Inga Griškova-Bulanova de la Universidad de Vilnius, quien graba señales EEG para validar sus métodos. «Además del ámbito médico, otras áreas como los videojuegos están muy interesadas en esta tecnología. Imagínate poder jugar solo con la mente «, puntualiza la académica.
El lenguaje se ha considerado durante mucho tiempo un rasgo exclusivamente humano, con características que lo distinguen de la comunicación de todas las demás especies. Sin embargo, una nueva investigación ha descubierto la misma estructura estadística que caracteriza el lenguaje humano en los sonidos, comúnmente referidos como cantos, que emiten las ballenas jorobadas, también conocidas como yubartas. El estudio lo ha realizado un equipo integrado, entre otros, por Ellen Garland de la Universidad de St Andrews en el Reino Unido, Inbal Arnon de la Universidad Hebrea de Jerusalén en Israel y Emma Carroll de la Universidad de Auckland en Nueva Zelanda. El canto de las ballenas jorobadas es uno de los ejemplos más sorprendentes de comportamiento socialmente aprendido y transmitido culturalmente en un animal no humano. El canto de las ballenas exhibe una estructura sistemática, pero hasta ahora había pocas pruebas de que esta estructura fuera como la del lenguaje humano. Uno de los grandes retos a los que se enfrentan las investigaciones sobre la comunicación no humana es averiguar cuáles son las partes relevantes del sistema. La clave para el hallazgo realizado en el nuevo estudio fue utilizar conocimientos sobre cómo los bebés descubren palabras en el habla y aplicarlos a ocho años de datos sobre el canto de ballenas jorobadas recogidos en Nueva Caledonia. Los autores del estudio descubrieron que el canto de las ballenas investigadas mostraba las mismas propiedades estadísticas clave presentes en todas las lenguas humanas conocidas. Detectaron partes recurrentes cuya frecuencia seguía de cerca una distribución sesgada particular, no encontrada anteriormente en ningún otro animal no humano. Este estudio revela un asombroso punto en común entre dos especies no relacionadas (el ser humano y la ballena jorobada) unidas por el hecho de que su sistema de comunicación se transmite culturalmente. Esto subraya el papel crucial del aprendizaje y la transmisión de conocimientos en la aparición de estructuras dentro de tales sistemas. Los aspectos fundamentales del lenguaje humano, que antes se consideraban el sello distintivo de la singularidad humana, pueden ser compartidos por especies evolutivamente distantes. El estudio se titula “Whale song shows language-like statistical structure”. Y se ha publicado en la revista académica Science. (Fuente: NCYT de Amazings)
Para la mayoría de las personas moverse y comunicarse son acciones cotidianas. Sin embargo, existen trastornos neurológicos poco comunes en los que pacientes presentan dificultades para realizar movimientos y expresar sus pensamientos. El proyecto Fondecyt de Iniciación que se encuentra desarrollando la Dra. Carolina Saavedra, académica de la Universidad Técnica Federico Santa María (USM), se asocia con estos casos, ya que estudia nuevos componentes para aplicar en señales de interfase cerebro – computador (BCI). La idea, comentó la profesora del Departamento de Informática, es «desarrollar componentes de tiempo-frecuencia para redes neuronales profundas y así mejorar específicamente la identificación de patrones en electroencefalografía (EEG), que miden la actividad eléctrica generada en el cerebro «. Según indicó la Dra. Saavedra, lo que buscan es la integración de métodos tiempo-frecuencia en redes neuronales profundas, ya que así esperan mejorar el rendimiento en la identificación de patrones EEG. Redes neuronales para decodificar el pensamiento Para entender el proceso, la académica de la USM explicó que un ejemplo de este tipo de interfaz consiste en presentar al usuario una matriz de letras en una pantalla. Estas se iluminan de forma aleatoria y, «cuando la persona fija su atención en una letra específica, se produce un patrón cerebral distintivo conocido como potencial evocado, el cual aparece aproximadamente 300 milisegundos después del estímulo. Estos patrones pueden ser detectados por algoritmos para interpretar lo que el paciente desea comunicar». Sobre estas señales la Dra. Carolina Saavedra trabaja en el Fondecyt «Incorporación de transformaciones tiempo-frecuencia en redes neuronales profundas para mejorar la identificación de patrones en EEG.», que tiene una duración de tres años, y cuyos desafíos son « mejorar los sistemas actuales para que reconozcan con mayor precisión cuándo una persona quiere seleccionar una letra o realizar una acción, todo solo con su pensamiento». El proyecto también considera la creación de una librería de software libre que permitirá compartir los algoritmos desarrollados con la comunidad científica. «Queremos que los avances estén disponibles para todos. La idea es que otros investigadores y desarrolladores puedan aprovechar nuestras herramientas para seguir avanzando en el área», concluyó la Dra. Saavedra. Cabe señalar que el equipo del proyecto no trabaja directamente con pacientes, utiliza bases de datos públicas disponibles en internet y colabora la Dra. Inga Griškova-Bulanova de la Universidad de Vilnius, quien graba señales EEG para validar sus métodos. «Además del ámbito médico, otras áreas como los videojuegos están muy interesadas en esta tecnología. Imagínate poder jugar solo con la mente «, puntualiza la académica.
El lenguaje se ha considerado durante mucho tiempo un rasgo exclusivamente humano, con características que lo distinguen de la comunicación de todas las demás especies. Sin embargo, una nueva investigación ha descubierto la misma estructura estadística que caracteriza el lenguaje humano en los sonidos, comúnmente referidos como cantos, que emiten las ballenas jorobadas, también conocidas como yubartas. El estudio lo ha realizado un equipo integrado, entre otros, por Ellen Garland de la Universidad de St Andrews en el Reino Unido, Inbal Arnon de la Universidad Hebrea de Jerusalén en Israel y Emma Carroll de la Universidad de Auckland en Nueva Zelanda. El canto de las ballenas jorobadas es uno de los ejemplos más sorprendentes de comportamiento socialmente aprendido y transmitido culturalmente en un animal no humano. El canto de las ballenas exhibe una estructura sistemática, pero hasta ahora había pocas pruebas de que esta estructura fuera como la del lenguaje humano. Uno de los grandes retos a los que se enfrentan las investigaciones sobre la comunicación no humana es averiguar cuáles son las partes relevantes del sistema. La clave para el hallazgo realizado en el nuevo estudio fue utilizar conocimientos sobre cómo los bebés descubren palabras en el habla y aplicarlos a ocho años de datos sobre el canto de ballenas jorobadas recogidos en Nueva Caledonia. Los autores del estudio descubrieron que el canto de las ballenas investigadas mostraba las mismas propiedades estadísticas clave presentes en todas las lenguas humanas conocidas. Detectaron partes recurrentes cuya frecuencia seguía de cerca una distribución sesgada particular, no encontrada anteriormente en ningún otro animal no humano. Este estudio revela un asombroso punto en común entre dos especies no relacionadas (el ser humano y la ballena jorobada) unidas por el hecho de que su sistema de comunicación se transmite culturalmente. Esto subraya el papel crucial del aprendizaje y la transmisión de conocimientos en la aparición de estructuras dentro de tales sistemas. Los aspectos fundamentales del lenguaje humano, que antes se consideraban el sello distintivo de la singularidad humana, pueden ser compartidos por especies evolutivamente distantes. El estudio se titula “Whale song shows language-like statistical structure”. Y se ha publicado en la revista académica Science. (Fuente: NCYT de Amazings)