
“`html
En un escenario donde las grandes corporaciones tecnológicas parecen conocernos mejor que nosotros mismos, la inquietud por nuestra privacidad se encuentra en el centro de atención. Por esta razón, es lógico que se activen todas las alarmas cada vez que Meta informa que está desarrollando algún proyecto para poder «interpretar nuestros pensamientos». Esto ha ocurrido en diversas ocasiones, generando tanto preocupación como interés.
Así que, Meta lo ha hecho nuevamente. Sin embargo, en esta ocasión, ha querido evitar caer en el mismo error y ha tomado precauciones, aclarando que esta nueva indagación tiene objetivos sociales y médicos, y no fines comerciales.
Interpretar señales del cerebro y convertirlas en palabras
Meta se halla en la creación de un nuevo método para poder interpretar nuestros pensamientos. Este se fundamenta en la conversión de los pensamientos en habla. Tal como ha indicado la compañía en un anuncio, este procedimiento se concentra en «dos tecnologías no invasivas: electroencefalografía (EEG) y magnetoencefalografía (MEG), que estiman las variaciones de campos eléctricos y magnéticos generados por la actividad neuronal, respectivamente. En términos prácticos, ambos sistemas pueden capturar aproximadamente 1.000 instantáneas de la actividad cerebral a gran escala por segundo, utilizando ciertos sensores».
Funcionamiento de este sistema
Para llevar a cabo el proyecto, Meta ha utilizado cuatro conjuntos de datos de EEG y MEG, gracias a más de 150 horas de grabaciones de 169 participantes que, para la prueba, escucharon audiolibros y oraciones aisladas en inglés y holandés. Posteriormente, como explican, «ingresamos dichas grabaciones de EEG y MEG en un “cerebro” que se compone de una red convolucional profunda con conexiones residuales. Finalmente, nuestra arquitectura aprende a alinear la salida de este modelo cerebral con las representaciones profundas de los sonidos del habla que se presentaron a los participantes».
De esta manera, mediante la colocación de sensores en la cabeza de un individuo, podrían recopilarse grabaciones de EEG y MEG que se traducirían en palabras. Como se ilustra en el esquema siguiente:

En cuanto a los resultados que Meta ha estado obteniendo con este sistema: «Con solo tres segundos de actividad cerebral, nuestros resultados indican que nuestro modelo puede decodificar los segmentos de voz relacionados con una precisión de hasta el 73% entre las 10 principales palabras de un vocabulario de 793 términos, es decir, una gran proporción de las palabras que normalmente empleamos a diario».
Más allá de las típicas bromas sobre la curiosidad de Meta por indagar en nuestros cerebros, este podría representar un gran avance médico y la apertura de un nuevo horizonte para todos aquellos que padecen algún tipo de lesión cerebral.
Meta posee un extenso historial de intentos de leer pensamientos
En 2017, cuando la empresa matriz aún
“`operaba bajo el nombre de Facebook, esta ya había empezado a coquetear con la idea de acceder a nuestras mentes. Durante su conferencia F8 de ese año, se discutieron varias ideas visionarias para facilitar la participación en entornos virtuales. Sin embargo, en cuanto se hizo mención de la opción de implantar un chip en nuestros cerebros, se generó un ambiente de inquietud y desconfianza general.
Posteriormente, en 2019, Facebook (Meta) adquirió CTRL-Labs, una startup tecnológica que estaba desarrollando un brazalete que permite a sus usuarios dirigir un avatar digital utilizando únicamente sus pensamientos. Este brazalete monitorizaba la actividad de las neuronas en el brazo del usuario, determinando el movimiento en el que estaba pensando, incluso si la persona permanece inmóvil. Esta actividad neuronal es convertida en movimiento en la pantalla, es decir, podría interpretar tus pensamientos y hacer que tu avatar se desplace tal y como lo imaginas.
“Tus manos podrían estar en tus bolsillos, o detrás de ti” comentó Thomas Reardon, director general de CTRL-Labs, durante una conferencia de la industria en diciembre de 2018. “Es la intención de moverse, no el movimiento en sí mismo lo que dirige el avatar”.
“El brazalete interpretará estas señales (neuronales) y las convertirá en una señal digital que su dispositivo pueda procesar”, mencionó Andrew Bosworth, líder de AR y realidad virtual de Facebook en una declaración pública. “Captura tu intención para que puedas compartir una imagen con un amigo usando un gesto imperceptible, o simplemente con tu deseo de hacerlo”.
Como puedes notar, Meta ha tenido la meta de leerte la mente desde hace bastante tiempo, y no duda en invertir cualquier suma de dinero para conseguirlo.