El CEO de Meta, Mark Zuckerberg, ha insinuado que su empresa está avanzando en sus primeras "interfaces neuronales de consumo", dispositivos portátiles no invasivos capaces de interpretar señales cerebrales para controlar ordenadores.

“Una de las cosas que más me entusiasman es que creo que pronto empezaremos a tener interfaces neuronales de consumo. Creo que va a ser una locura.”

Sin embargo, a diferencia del chip cerebral Neuralink de Elon Musk, Zuckerberg explicó que estos dispositivos no serían algo que "se conecta a tu cerebro", sino algo que se puede llevar en la muñeca y que puede "leer las señales neuronales que tu cerebro envía a través de tus nervios a tu mano para básicamente moverla de diferentes maneras sutiles".

Meta empezó a hablar por primera vez del desarrollo de la "interacción basada en la muñeca" en marzo de 2021 como parte de Facebook Reality Labs Research.

La pulsera de Meta funciona utilizando la electromiografía (EMG) para interpretar las señales cerebrales sobre los gestos deseados de la mano y traducirlas en comandos para controlar dispositivos.

"Básicamente, somos capaces de leer esas señales y utilizarlas para controlar gafas u otros dispositivos informáticos", añadió.

Los comentarios más recientes se produjeron durante una entrevista el 18 de abril entre el cofundador de Facebook y el empresario tecnológico y YouTuber Roberto Nickson.

“Todavía estamos al principio del viaje porque no hemos lanzado la primera versión del producto, pero jugando con él internamente es... es realmente genial... realmente interesante de ver.”

A principios de este año, el CEO de Meta afirmó que esta pulsera neuronal podría convertirse en un producto de consumo en unos pocos años, utilizando la inteligencia artificial para superar las limitaciones del seguimiento de gestos basado en cámaras.

Mark Zuckerberg habla de las interfaces neuronales de consumo. Fuente: YouTube

También ha previsto que las interfaces neuronales funcionen con las gafas inteligentes de realidad aumentada Ray-Ban de Meta.

Comentando sobre las gafas inteligentes de la empresa, dijo que la "característica estrella" era integrar la IA en ellas. "Estamos muy cerca de conseguir una inteligencia artificial multimodal [...] no basta con hacerle una pregunta con texto o voz, sino que puedes preguntarle sobre lo que ocurre a tu alrededor, ver lo que ocurre y responder a las preguntas [...] es una locura", añadió.

Por su parte, los legisladores de Estados Unidos ya están trabajando en una legislación destinada a proteger la privacidad en el incipiente campo de la neurotecnología.

Esta semana se ha aprobado en Colorado la Ley de Protección de la Privacidad de los Datos Biológicos, que amplía la definición de "datos sensibles" a los datos biológicos y neuronales.

En otro orden de cosas, Meta acaba de lanzar una nueva versión de Meta AI, el asistente que funciona en todas las aplicaciones y gafas de la firma. "Nuestro objetivo es construir la IA líder en el mundo", dijo Zuckerberg.

Meta AI se está actualizando con el nuevo "modelo de IA de última generación Llama 3, del que somos open-sourcing", añadió.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión