Desde los albores de la humanidad, leer lo que pasa por la mente de una persona ha sido un anhelo tan antiguo como misterioso. Durante siglos, esta idea perteneció dentro del terreno de la mitología y la ciencia ficción. ¿Quién no ha soñado alguna vez con transmitir una idea sin necesidad de palabras, o saber exactamente qué están pensando los demás?, Lo que parecía misticismo, hoy empieza a cobrar forma de la mano de los avances científicos y tecnológicos, gracias a la neurociencia y la inteligencia artificial. Bienvenidos al fascinante mundo de las interfaces cerebro-máquina, o BCI por sus siglas en inglés (Brain-Computer Interfaces), una tecnología que promete traducir la actividad de nuestro cerebro en órdenes para las máquinas, un puente invisible entre la mente y la materia. ¿Qué son las interfaces cerebro-máquina? Las BCI son sistemas tecnológicos que permiten a un cerebro humano comunicarse directamente con un dispositivo externo, sin necesidad de utilizar los músculos. Para ello, se basan en distintas etapas, como la captación de la actividad cerebral, el análisis de dicha actividad, detección de patrones cerebrales y normalmente la clasificación mediante inteligencia artificial de dichos patrones. Existen distintas tecnologías para registrar la actividad cerebral, algunas son invasivas, es decir, se debe practicar algún tipo de cirugía para implantar un conjunto de electrodos sobre el córtex cerebral, y otras son no invasivas, donde no es necesaria ninguna intervención quirúrgica, en este último grupo se encuentra el electroencefalograma, pieza principal en la construcción de sistemas BCI. La electronecegalografía (EEG) mide la actividad eléctrica en la superficie del cráneo mediante un conjunto de electrodos cuidadosamente posicionados. Cuando registramos la actividad eléctrica cerebral, podemos detectar distintas frecuencias de funcionamiento, que dependiendo en qué zonas del córtex cerebral se producen, nos están indicando una actividad cognitiva concreta. Por ejemplo, en la zona central del cráneo, si colocamos unos electrodos, podemos detectar variaciones en las ondas alpha (8-12 Hz) que nos estarían indicando imaginación motora, es decir, que la persona está imaginando mover ciertas extremidades de su cuerpo. El papel decisivo de la inteligencia artificial Una vez tenemos el registro de las señales cerebrales y las hemos procesado, necesitamos que entre en juego la inteligencia artificial, ya que es de gran ayuda para los investigadores, al poder entrenar algoritmos de aprendizaje automático y redes neuronales profundas capaces de reconocer patrones ocultos en dichas señales. Estos sistemas no solo detectan cuándo una persona intenta mover un brazo, sino que avanzan hacia objetivos más ambiciosos como descifrar palabras que no se han pronunciado, reconstruir imágenes que la persona está visualizando mentalmente o incluso interpretar intenciones antes de que se traduzcan en acciones físicas. Un ejemplo asombroso es el de investigadores que han logrado, utilizando modelos de inteligencia artificial, traducir la actividad cerebral en frases completas con una precisión notable. O los experimentos en los que, a partir de datos cerebrales, se han reconstruido imágenes visualizadas por los sujetos con un nivel de detalle que hace apenas una década habría parecido ciencia ficción. Además, la IA permite personalizar el descifrado: cada cerebro es distinto, como una huella dactilar. El entrenamiento específico de los algoritmos para cada individuo mejora enormemente la precisión, haciendo que las interfaces cerebro-máquina sean cada vez más eficaces. Aplicaciones presentes y futuras Las posibilidades de esta tecnología son casi infinitas. En el presente, las BCI ya permiten a personas con discapacidades motoras controlar prótesis robóticas, operar ordenadores o incluso moverse en sillas de ruedas mediante el pensamiento. Empresas como Neuralink, fundada por Elon Musk, buscan ir más allá. Su objetivo es integrar dispositivos sobre el córtex cerebral que permitan una interacción fluida y bidireccional entre el cerebro y las máquinas. Otros proyectos, más modestos, pero no por ello menos interesantes, están explorando cómo las BCI pueden mejorar la vida coditidana, desde el uso de videojuegos controlados con la mente, hasta métodos de rehabilitación cognitiva para pacientes que han sufrido un ictus. A largo plazo, los investigadores sueñan con escenarios más audaces: comunicación directa entre cerebros —lo que algunos llaman telepatía tecnológica—, mejorar de las capacidades cognitivas humanas mediante conexiones neuronales artificiales o, incluso, la posibilidad de preservar pensamientos y recuerdos en soportes digitales. ¿Una nueva forma de comunicación? Aunque todavía estamos lejos de lograr una “lectura total” de la mente como la imaginada en películas de ciencia ficción, los avances actuales marcan el inicio de una nueva forma de comunicación. Imaginemos un mundo en el que las personas puedan enviarse pensamientos complejos sin pronunciar una sola palabra. Un mundo donde las limitaciones del lenguaje verbal queden superadas por una transmisión directa de conceptos e ideas. Esto no solo revolucionaría la forma en que nos comunicamos, sino que también tendría implicaciones profundas en áreas como la educación, el entretenimiento o las relaciones humanas. ¿Podría una conexión tan íntima entre cerebros fortalecer la empatía? ¿O, por el contrario, exponernos a nuevas formas de manipulación mental? La lectura de la mente mediante la inteligencia artificial está dejando de ser un sueño lejano para convertirse en un reto actual, no sabemos con precisión hacia donde puede llevarnos dicha tecnología, pero una cosa es segura, el antiguo sueño de leer la mente nunca ha estado tan cerca de hacerse realidad. Y, como suele ocurrir con los grandes avances, será la humanidad quien decida si los utilizamos para liberarnos o para encerrarnos en nuestras propias mentes.
De acuerdo con The New York Times (NYT), Meta ha fichado a Alexandr Wang, de 28 años, fundador y director ejecutivo de la empresa emergente de IA Scale AI, para unirse al nuevo laboratorio de Meta, y podría invertir más de 10.000 millones de dólares en su empresa como parte de un acuerdo que también incorporaría a otros empleados de Scale AI. El rotativo también señala que Meta ha ofrecido cifras multimillonarias a docenas de investigadores de empresas líderes en IA como OpenAI y Google, y algunos han aceptado unirse. Según Bloomberg, Zuckerberg ha liderado personalmente la contratación del equipo de unas 50 personas, e incluso ha reorganizado las oficinas de Meta para que los nuevos empleados se sienten cerca de él. Ambos medios apuntan que Zuckerberg se ha sentido frustrado con el ritmo de desarrollo de la IA de Meta -matriz de Facebook, Instagram y WhatsApp -, así como por varios lanzamientos de productos que fracasaron, y ha optado por una estrategia más práctica para acelerar el progreso. El mes pasado, Meta retrasó el lanzamiento de su modelo insignia de IA, «Behemoth», debido a las preocupaciones sobre sus capacidades, según informó el Wall Street Journal. OpenAI, Google y otras tecnológicas ya han anunciado que su objetivo es desarrollar una inteligencia artificial general (IAG), máquina que por ahora solo es ficción. En esta carrera tecnológica se está invirtiendo mucho dinero: Microsoft ha invertido más de 13.000 millones de dólares en OpenAI, y Amazon ha invertido 8.000 millones de dólares en la emergente (startup) de inteligencia artificial Anthropic. Zuckerberg creó el primer laboratorio dedicado a IA de la compañía en 2013, tras perder la oportunidad frente a Google al intentar adquirir una emergente pionera llamada DeepMind. DeepMind es ahora el centro de la IA de Google.
Desde los albores de la humanidad, leer lo que pasa por la mente de una persona ha sido un anhelo tan antiguo como misterioso. Durante siglos, esta idea perteneció dentro del terreno de la mitología y la ciencia ficción. ¿Quién no ha soñado alguna vez con transmitir una idea sin necesidad de palabras, o saber exactamente qué están pensando los demás?, Lo que parecía misticismo, hoy empieza a cobrar forma de la mano de los avances científicos y tecnológicos, gracias a la neurociencia y la inteligencia artificial. Bienvenidos al fascinante mundo de las interfaces cerebro-máquina, o BCI por sus siglas en inglés (Brain-Computer Interfaces), una tecnología que promete traducir la actividad de nuestro cerebro en órdenes para las máquinas, un puente invisible entre la mente y la materia. ¿Qué son las interfaces cerebro-máquina? Las BCI son sistemas tecnológicos que permiten a un cerebro humano comunicarse directamente con un dispositivo externo, sin necesidad de utilizar los músculos. Para ello, se basan en distintas etapas, como la captación de la actividad cerebral, el análisis de dicha actividad, detección de patrones cerebrales y normalmente la clasificación mediante inteligencia artificial de dichos patrones. Existen distintas tecnologías para registrar la actividad cerebral, algunas son invasivas, es decir, se debe practicar algún tipo de cirugía para implantar un conjunto de electrodos sobre el córtex cerebral, y otras son no invasivas, donde no es necesaria ninguna intervención quirúrgica, en este último grupo se encuentra el electroencefalograma, pieza principal en la construcción de sistemas BCI. La electronecegalografía (EEG) mide la actividad eléctrica en la superficie del cráneo mediante un conjunto de electrodos cuidadosamente posicionados. Cuando registramos la actividad eléctrica cerebral, podemos detectar distintas frecuencias de funcionamiento, que dependiendo en qué zonas del córtex cerebral se producen, nos están indicando una actividad cognitiva concreta. Por ejemplo, en la zona central del cráneo, si colocamos unos electrodos, podemos detectar variaciones en las ondas alpha (8-12 Hz) que nos estarían indicando imaginación motora, es decir, que la persona está imaginando mover ciertas extremidades de su cuerpo. El papel decisivo de la inteligencia artificial Una vez tenemos el registro de las señales cerebrales y las hemos procesado, necesitamos que entre en juego la inteligencia artificial, ya que es de gran ayuda para los investigadores, al poder entrenar algoritmos de aprendizaje automático y redes neuronales profundas capaces de reconocer patrones ocultos en dichas señales. Estos sistemas no solo detectan cuándo una persona intenta mover un brazo, sino que avanzan hacia objetivos más ambiciosos como descifrar palabras que no se han pronunciado, reconstruir imágenes que la persona está visualizando mentalmente o incluso interpretar intenciones antes de que se traduzcan en acciones físicas. Un ejemplo asombroso es el de investigadores que han logrado, utilizando modelos de inteligencia artificial, traducir la actividad cerebral en frases completas con una precisión notable. O los experimentos en los que, a partir de datos cerebrales, se han reconstruido imágenes visualizadas por los sujetos con un nivel de detalle que hace apenas una década habría parecido ciencia ficción. Además, la IA permite personalizar el descifrado: cada cerebro es distinto, como una huella dactilar. El entrenamiento específico de los algoritmos para cada individuo mejora enormemente la precisión, haciendo que las interfaces cerebro-máquina sean cada vez más eficaces. Aplicaciones presentes y futuras Las posibilidades de esta tecnología son casi infinitas. En el presente, las BCI ya permiten a personas con discapacidades motoras controlar prótesis robóticas, operar ordenadores o incluso moverse en sillas de ruedas mediante el pensamiento. Empresas como Neuralink, fundada por Elon Musk, buscan ir más allá. Su objetivo es integrar dispositivos sobre el córtex cerebral que permitan una interacción fluida y bidireccional entre el cerebro y las máquinas. Otros proyectos, más modestos, pero no por ello menos interesantes, están explorando cómo las BCI pueden mejorar la vida coditidana, desde el uso de videojuegos controlados con la mente, hasta métodos de rehabilitación cognitiva para pacientes que han sufrido un ictus. A largo plazo, los investigadores sueñan con escenarios más audaces: comunicación directa entre cerebros —lo que algunos llaman telepatía tecnológica—, mejorar de las capacidades cognitivas humanas mediante conexiones neuronales artificiales o, incluso, la posibilidad de preservar pensamientos y recuerdos en soportes digitales. ¿Una nueva forma de comunicación? Aunque todavía estamos lejos de lograr una “lectura total” de la mente como la imaginada en películas de ciencia ficción, los avances actuales marcan el inicio de una nueva forma de comunicación. Imaginemos un mundo en el que las personas puedan enviarse pensamientos complejos sin pronunciar una sola palabra. Un mundo donde las limitaciones del lenguaje verbal queden superadas por una transmisión directa de conceptos e ideas. Esto no solo revolucionaría la forma en que nos comunicamos, sino que también tendría implicaciones profundas en áreas como la educación, el entretenimiento o las relaciones humanas. ¿Podría una conexión tan íntima entre cerebros fortalecer la empatía? ¿O, por el contrario, exponernos a nuevas formas de manipulación mental? La lectura de la mente mediante la inteligencia artificial está dejando de ser un sueño lejano para convertirse en un reto actual, no sabemos con precisión hacia donde puede llevarnos dicha tecnología, pero una cosa es segura, el antiguo sueño de leer la mente nunca ha estado tan cerca de hacerse realidad. Y, como suele ocurrir con los grandes avances, será la humanidad quien decida si los utilizamos para liberarnos o para encerrarnos en nuestras propias mentes.
De acuerdo con The New York Times (NYT), Meta ha fichado a Alexandr Wang, de 28 años, fundador y director ejecutivo de la empresa emergente de IA Scale AI, para unirse al nuevo laboratorio de Meta, y podría invertir más de 10.000 millones de dólares en su empresa como parte de un acuerdo que también incorporaría a otros empleados de Scale AI. El rotativo también señala que Meta ha ofrecido cifras multimillonarias a docenas de investigadores de empresas líderes en IA como OpenAI y Google, y algunos han aceptado unirse. Según Bloomberg, Zuckerberg ha liderado personalmente la contratación del equipo de unas 50 personas, e incluso ha reorganizado las oficinas de Meta para que los nuevos empleados se sienten cerca de él. Ambos medios apuntan que Zuckerberg se ha sentido frustrado con el ritmo de desarrollo de la IA de Meta -matriz de Facebook, Instagram y WhatsApp -, así como por varios lanzamientos de productos que fracasaron, y ha optado por una estrategia más práctica para acelerar el progreso. El mes pasado, Meta retrasó el lanzamiento de su modelo insignia de IA, «Behemoth», debido a las preocupaciones sobre sus capacidades, según informó el Wall Street Journal. OpenAI, Google y otras tecnológicas ya han anunciado que su objetivo es desarrollar una inteligencia artificial general (IAG), máquina que por ahora solo es ficción. En esta carrera tecnológica se está invirtiendo mucho dinero: Microsoft ha invertido más de 13.000 millones de dólares en OpenAI, y Amazon ha invertido 8.000 millones de dólares en la emergente (startup) de inteligencia artificial Anthropic. Zuckerberg creó el primer laboratorio dedicado a IA de la compañía en 2013, tras perder la oportunidad frente a Google al intentar adquirir una emergente pionera llamada DeepMind. DeepMind es ahora el centro de la IA de Google.