Connect with us

Publicado

on

Publicado 4 minutos ago on 5 de mayo de 2026por Claudio R Parrinello
El prototipo wearable que usa estimulación eléctrica muscular y Claude de Anthropic para mover tus dedos en tiempo real

MIT Media Lab — MIT Hard Mode Hackathon 2026

Equipo: Peter He, Ashley Neall, Valdemar Danry, Daniel Kaijzer, Yutong Wu y Sean Lewis

Ganador del Learn Track — 48 horas de desarrollo

Human Operator es un sistema de aumentación humana que permite a la inteligencia

artificial tomar el control breve de la mano y los dedos de una persona usando

estimulación eléctrica muscular (EMS). El usuario dice en voz alta lo que quiere

hacer, una cámara capta la escena, el modelo de IA interpreta el contexto y

convierte esa instrucción en pulsos eléctricos que contraen los músculos

correctos en el momento justo. El resultado: tus dedos se mueven solos para

tocar una melodía en piano, hacer gestos con la mano, dibujar, o saludar,

aunque nunca hayas practicado esos movimientos.

Construido en 48 horas, ganó el primer lugar en el Learn Track del hackathon

MIT Hard Mode 2026, uno de los eventos de sistemas físicos inteligentes más

exigentes del mundo académico.

CIFRAS CLAVE

6 personas integrantes del equipo de desarrollo

48 horas tiempo total de construcción del prototipo

1er lugar Learn Track, MIT Hard Mode 2026

4 capas voz → cámara → IA (Claude) → EMS → movimiento

¿QUÉ ES HUMAN OPERATOR?

La mayoría de los sistemas de IA se detienen en la pantalla: generan texto,

imágenes, código o voz. Human Operator cruza esa frontera y actúa directamente

sobre el cuerpo humano.

El sistema funciona como una cadena de cuatro pasos que ocurren en tiempo real:

[1] VOZ — El usuario dice en voz alta lo que quiere hacer.

Ejemplo: «quiero tocar esta melodía».

[2] VISIÓN — Una cámara montada en la cabeza captura la escena:

qué tiene el usuario frente a sí, qué instrumento, qué objeto.

[3] RAZONAMIENTO — El modelo de lenguaje visual (conectado a la API de

Claude de Anthropic) interpreta el comando y la imagen juntos, y

decide qué secuencia de movimientos musculares es necesaria.

[4] ACCIÓN — Un Arduino y un sistema de relés traducen esa decisión en

pulsos eléctricos que llegan a electrodos colocados en la muñeca y

los dedos. Los músculos se contraen. La mano se mueve.

El usuario permanece consciente durante todo el proceso. No se trata de una

toma de control involuntaria: es una guía física activa, como si un maestro

invisible tomara tu mano y te mostrara el movimiento correcto en el momento

preciso.

CÓMO FUNCIONA LA ESTIMULACIÓN ELÉCTRICA MUSCULAR (EMS)

La EMS no es tecnología nueva. En medicina se usa desde hace décadas para

rehabilitación, prevención de atrofia muscular y fisioterapia. Lo que hace

nuevo a Human Operator es la capa de inteligencia que decide cuándo, cómo

y con qué intensidad aplicar esos pulsos.

El sistema envía pequeñas corrientes eléctricas a través de la piel. Estas

corrientes imitan las señales que el sistema nervioso normalmente envía a

los músculos para producir movimiento. La diferencia con un dispositivo EMS

tradicional es que en esos equipos la secuencia de pulsos está preprogramada

y es fija. En Human Operator, esa secuencia la genera la IA en tiempo real

según el contexto de cada situación.

Componentes de hardware utilizados:

  • Cámara montada en la cabeza (visión en primera persona)
  • Unidad EMS/TENS controlable
  • Arduino (microcontrolador)
  • Stack de relés para convertir señales digitales en pulsos eléctricos
  • Electrodos adhesivos sobre muñeca y dedos

LAS DEMOSTRACIONES: QUÉ PUEDE HACER HOY

El equipo presentó cuatro demostraciones concretas durante el hackathon:

[PIANO]

El usuario se sienta frente a un piano sin saber tocarlo. El sistema

analiza el instrumento con la cámara, recibe el comando de voz y guía

los dedos tecla por tecla para ejecutar una melodía simple. La música

suena. Los dedos la tocan. El usuario no sabe cómo.

[GESTOS CON LA MANO]

El sistema puede reproducir gestos específicos como el clásico «OK»,

saludar con la mano, o posiciones predefinidas. Útil para demostraciones

de lenguaje de señas asistido o comunicación no verbal guiada.

[DIBUJO]

La IA guía los movimientos del bolígrafo para trazar formas o líneas

específicas. El usuario sostiene el lápiz; el sistema dirige la mano.

[SALUDO]

Una demostración básica pero reveladora: el usuario activa el sistema

con «Hello AI» y su mano saluda sola. Simple, pero ilustra todo el

loop completo funcionando en tiempo real.

LAS RAÍCES ACADÉMICAS: EL LABORATORIO QUE LO HIZO POSIBLE

Human Operator no surgió de la nada. El equipo del MIT reconoce explícitamente

que su trabajo se apoya en años de investigación del Human Computer Integration

Lab de la Universidad de Chicago, dirigido por el Prof. Pedro Lopes.

Ese laboratorio lleva más de una década explorando lo que sucede cuando la

computadora deja de estar afuera del cuerpo humano y comienza a integrarse

con él. Algunos de sus desarrollos más relevantes que anteceden a Human Operator:

DEXTREMS (2021)

Un dispositivo que combina EMS con frenos mecánicos para controlar dedos

individuales con precisión milimétrica. Fue presentado en UIST 2021 y

demostró que era posible guiar habilidades motoras finas como tocar

guitarra o comunicarse en lengua de señas.

Fuente: https://cs.uchicago.edu/news/dextrems/

GENERATIVE MUSCLE STIMULATION (2026 — Best Paper ACM CHI)

El trabajo más cercano a Human Operator, desarrollado por Yun Ho y

Romain Nith bajo la supervisión de Pedro Lopes. Ganó el Best Paper Award

en ACM CHI 2026. El sistema usa IA multimodal con datos visuales de

cámara y claves contextuales para generar instrucciones musculares

adaptadas a la situación. A diferencia de sistemas EMS tradicionales con

código fijo, este genera movimientos apropiados según el contexto.

Incluye una capa de restricciones que evita que la IA pida movimientos

físicamente imposibles o que violen los límites articulares humanos.

Fuente: https://embodied-ai.tech/

ELECTRICAUTH

Uso de EMS para autenticación biométrica sin contraseñas: cada persona

responde de forma diferente al mismo pulso eléctrico por diferencias en

estructura ósea, muscular y resistencia de la piel. Esto genera una

«huella eléctrica» única.

Fuente: https://sandlab.cs.uchicago.edu/electricauth/

Human Operator es, en muchos sentidos, la síntesis accesible de esta línea

de investigación: tomó los conceptos ya validados académicamente y los montó

en un prototipo funcional construido con hardware de consumo masivo en dos

días.

USOS ACTUALES Y APLICACIONES INMEDIATAS

Aunque es un prototipo, las aplicaciones del concepto son claras y urgentes:

REHABILITACIÓN Y RECUPERACIÓN MOTORA

Pacientes que han sufrido un ACV (accidente cerebrovascular) o una lesión

neurológica pierden parcialmente el control voluntario de sus extremidades.

Un sistema como Human Operator podría guiarlos a través de los movimientos

correctos durante la terapia física, acelerando la reconexión neuromuscular.

La EMS ya se usa en rehabilitación; lo que agrega la IA es la capacidad de

adaptar la secuencia en tiempo real según lo que el paciente necesita.

APRENDIZAJE MOTOR ACELERADO

Aprender a tocar un instrumento, mejorar la técnica quirúrgica, dominar

un deporte de precisión: todas estas habilidades requieren miles de horas

de práctica para crear memoria muscular. Un sistema de guía física podría

comprimir ese proceso significativamente mostrando al cuerpo el movimiento

correcto en el momento exacto.

ASISTENCIA A PERSONAS CON MOVILIDAD LIMITADA

Para personas con Parkinson, esclerosis múltiple u otras condiciones que

afectan el control motor fino, un sistema de este tipo podría compensar

los temblores o la falta de precisión, permitiéndoles realizar tareas

cotidianas con mayor independencia.

ENTRENAMIENTO INDUSTRIAL Y LABORAL

Trabajadores que deben aprender a operar maquinaria nueva o realizar tareas

manuales precisas podrían ser guiados físicamente durante el entrenamiento,

reduciendo el riesgo de lesiones y acortando los tiempos de capacitación.

ACCESIBILIDAD PARA USUARIOS CON DISCAPACIDAD VISUAL

Un usuario ciego podría recibir orientación física directa en lugar de

solo instrucciones de voz: el sistema guía la mano hacia el objeto o

posición correcta en lugar de describirla verbalmente.

PREDICCIONES: HACIA DÓNDE VA ESTA TECNOLOGÍA

Human Operator es un prototipo de 48 horas. Pero la dirección que señala

es clara y los bloques tecnológicos para construirlo existen y están

mejorando rápidamente. Estas son las aplicaciones más plausibles en los

próximos 3 a 10 años:

CORTO PLAZO (1-3 años)

  • Dispositivos EMS-IA para fisioterapia domiciliaria supervisada

remotamente por profesionales de salud.

  • Guantes inteligentes para rehabilitación post-ACV con retroalimentación

adaptativa generada por IA según el progreso del paciente.

  • Herramientas de aprendizaje musical con guía física: «el piano te

enseña tocándote los dedos».

MEDIANO PLAZO (3-7 años)

  • Trajes de entrenamiento quirúrgico donde el residente aprende el

movimiento correcto del bisturí guiado físicamente por el sistema

mientras un experto supervisa remotamente.

  • Wearables de asistencia para personas con Parkinson que compensan

el temblor en tiempo real durante tareas específicas.

  • Interfaces físicas para realidad virtual y aumentada: en lugar de

solo ver el entorno virtual, el cuerpo siente las interacciones.

  • Traducción de lengua de señas en tiempo real: el sistema guía las

manos del usuario para producir los gestos correctos mientras habla.

LARGO PLAZO (7-15 años)


  • «Descarga de habilidades»: un experto ejecuta un movimiento y el

sistema lo replica en el cuerpo del aprendiz en tiempo real o de

forma diferida, como una plantilla física.

  • Asistencia motora continua para personas con lesiones medulares

parciales, combinada con interfaces cerebrales no invasivas.

  • Entornos laborales donde la IA guía físicamente a trabajadores en

tareas de alta precisión (manufactura, cirugía, rescate).

LOS LÍMITES ACTUALES Y LOS DESAFÍOS ÉTICOS

El equipo del MIT es explícito: esto es un prototipo experimental, no un

producto. Las limitaciones actuales son reales:

PRECISIÓN LIMITADA

El sistema puede guiar movimientos generales pero no tiene aún la

resolución necesaria para tareas de altísima precisión. La EMS actúa

sobre grupos musculares, no sobre fibras individuales.

CALIBRACIÓN INDIVIDUAL

Cada persona tiene una fisiología diferente. Los mismos pulsos eléctricos

producen movimientos distintos en distintos cuerpos. Calibrar el sistema

para cada usuario lleva tiempo y es un proceso manual hoy en día.

SENSACIÓN DE HORMIGUEO

La estimulación eléctrica produce una sensación de cosquilleo o hormigueo

que puede ser incómoda, especialmente en uso prolongado.

AUTONOMÍA Y CONSENTIMIENTO

La pregunta ética más profunda: ¿quién tiene el control? El usuario

activa el sistema con su voz y puede detenerlo, pero la ejecución del

movimiento es involuntaria. En contextos médicos o industriales, definir

claramente los límites de la agencia humana será fundamental.

SEGURIDAD Y HACKEO

Como cualquier sistema conectado, la posibilidad de interferencia

maliciosa es real. Un sistema que controla el cuerpo humano requiere

los más altos estándares de seguridad informática.

DEPENDENCIA TECNOLÓGICA

Si las personas aprenden habilidades motoras asistidas por el sistema,

¿pueden ejecutarlas sin él? ¿O se genera una dependencia?

EL ECOSISTEMA MÁS AMPLIO: NO ES UN PROYECTO AISLADO

Human Operator no es un fenómeno aislado. Existe dentro de un ecosistema

creciente de investigación en interfaces cuerpo-computadora:

  • El Prof. Pedro Lopes (UChicago) es el referente académico más activo

en esta área. Su laboratorio HCI ha ganado múltiples Best Paper Awards

en las conferencias más importantes de interacción humano-computadora

(CHI, UIST).

Sitio del laboratorio: https://lab.plopes.org/

  • En UIST 2025, el mismo grupo presentó «Primed Action», un sistema que

usa estimulación cerebral subumbral (por debajo del nivel de movimiento

involuntario) para acelerar los tiempos de reacción del usuario

preservando su sensación de control.

  • El paper «Hand by Hand: LLM Driving EMS Assistant for Operational Skill

Learning» (arXiv 2025) exploró específicamente cómo los LLMs pueden

guiar el aprendizaje de habilidades operacionales mediante EMS,

documentando que la retroalimentación kinestésica (física) tiene

ventajas sobre la retroalimentación vocal para habilidades motoras.

Fuente: https://arxiv.org/pdf/2508.06000

  • Meta, Apple y Google están invirtiendo activamente en wearables que

leen señales musculares (EMG) para controlar interfaces digitales.

El paso inverso —usar electricidad para escribir señales en el cuerpo—

es la frontera que Human Operator está explorando.

FUENTES Y REFERENCIAS

[1] Sitio oficial del proyecto Human Operator

«We gave AI a body» — humanoperator.org

https://humanoperator.org

[2] Founded.com — Cobertura técnica detallada

«These MIT hackathon winners built an AI that can control your body»

[3] Let’s Data Science — Análisis técnico del prototipo

«MIT Hackathon Team Builds Wearable AI That Moves Limbs»

https://letsdatascience.com/news/mit-hackathon-team-builds-wearable-ai-that-moves-limbs-eac3840b

[4] NewsBytesApp — Cobertura de medios

«MIT students build ‘Human operator’ using electrical muscle stimulation»

https://www.newsbytesapp.com/news/science/mit-students-build-human-operator-using-electrical-muscle-stimulation/tldr

[5] Comparos.in — Descripción del sistema y hardware

«MIT Team Develops Wearable AI That Can Control Human Movements»

https://www.comparos.in/news/mit-team-develops-wearable-ai-that-can-control-human-movements

[6] YouTube — Demo oficial del hackathon

«Human Operator: MIT Hard Mode 2026 Winner (Learn Track)»

[7] Generative Muscle Stimulation — UChicago / Best Paper ACM CHI 2026

Sistema predecesor académico directo de Human Operator

https://embodied-ai.tech

[8] Human Computer Integration Lab — Prof. Pedro Lopes, UChicago

Laboratorio de referencia en interfaces cuerpo-computadora

https://lab.plopes.org

[9] DextrEMS — UChicago CS, UIST 2021

«New Wearable Device Controls Individual Fingers for Sign Language,

Music Applications»

[10] UChicago CS — Artículo sobre Generative Muscle Stimulation

«When AI Meets Muscle: Context-Aware Electrical Stimulation Promises

a New Way to Guide Human Movements»

[11] arXiv 2025 — LLM + EMS para aprendizaje de habilidades

«Hand by Hand: LLM Driving EMS Assistant for Operational Skill Learning»

https://arxiv.org/pdf/2508.06000

[12] ElectricAuth — UChicago / CHI 2021

Autenticación biométrica mediante EMS

https://sandlab.cs.uchicago.edu/electricauth

[13] Wikipedia — Estimulación eléctrica muscular (contexto técnico)

https://en.wikipedia.org/wiki/Electrical_muscle_stimulation

[14] Medical News Today — EMS en medicina y rehabilitación

https://www.medicalnewstoday.com/articles/electrical-muscle-stimulation

Artículo de divulgación científica elaborado con fines informativos.

Todas las afirmaciones están basadas en fuentes académicas, periodísticas

y técnicas verificadas públicamente.

MIT Media Lab · MIT Hard Mode 2026 · Claude API (Anthropic) ·

Human Computer Integration Lab UChicago

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Actualidad

CENTAUR: LA IA QUE PIENSA, DECIDE Y PREDICE COMO UN SER HUMANO

Publicado

on

Centaur es un modelo de inteligencia artificial capaz de simular el comportamiento
humano con una precisión sin precedentes. A diferencia de los modelos cognitivos
tradicionales —que solo podían explicar o predecir el pensamiento, pero no ambas
cosas a la vez— Centaur combina ambas capacidades en un único sistema. Fue
entrenado sobre el dataset Psych-101, una colección de más de 10 millones de
decisiones humanas reales, y sus resultados fueron publicados en la revista
científica Nature.

Publicado en Nature, julio 2025 seguimos la evolución del proyecto

Helmholtz Munich — Institute for Human-Centered AI
Dr. Marcel Binz & Dr. Eric Schulz

CIFRAS CLAVE

+10.000.000 decisiones humanas en el dataset de entrenamiento
60.000 participantes humanos en los experimentos
160 experimentos psicológicos distintos
Nature revista donde fue publicado (julio 2025)

¿QUÉ ES CENTAUR Y POR QUÉ ES REVOLUCIONARIO?

Durante décadas, la psicología cognitiva se enfrentó a una disyuntiva que parecía
irresoluble: los modelos que explicaban cómo piensa la mente humana no lograban
predecir con precisión cómo se comporta en situaciones nuevas. Y los modelos
predictivos, a su vez, eran opacos e imposibles de interpretar. Eran mundos
separados.

Centaur llega para romper esa barrera. Desarrollado por el equipo del Dr. Marcel
Binz y el Dr. Eric Schulz en el Institute for Human-Centered AI de Helmholtz
Munich, este modelo de lenguaje fue entrenado de forma especializada sobre el
dataset Psych-101 —una colección sin precedentes de más de 10 millones de
decisiones individuales tomadas por más de 60.000 personas en 160 experimentos
psicológicos— y sus capacidades superaron a todos los modelos cognitivos
anteriores.

«Hemos creado una herramienta que permite predecir el comportamiento humano en
cualquier situación descrita en lenguaje natural — como un laboratorio virtual.»
— Dr. Marcel Binz, investigador principal del proyecto

Lo que hace a Centaur verdaderamente singular no es solo su precisión en tareas
conocidas, sino su capacidad de generalizar: puede predecir cómo se comportaría
una persona en situaciones completamente nuevas que el modelo nunca ha visto
antes. Identifica patrones de toma de decisiones, se adapta a contextos
cambiantes, y —algo que sorprendió incluso a sus creadores— predice con notable
exactitud los tiempos de reacción de los participantes humanos.

EL DATASET PSYCH-101: LA COLUMNA VERTEBRAL DEL PROYECTO

Ningún modelo es más poderoso que los datos sobre los que fue entrenado. En el
caso de Centaur, el equipo no recurrió a datos existentes: construyó desde cero
Psych-101, un dataset específicamente diseñado para capturar la diversidad y
complejidad del comportamiento humano.

Los experimentos cubren cuatro grandes áreas:

[1] TOMA DE RIESGOS
Experimentos sobre cómo las personas evalúan y asumen riesgos en
distintos contextos.

[2] APRENDIZAJE POR RECOMPENSA
Cómo los humanos ajustan su comportamiento ante refuerzos positivos
y negativos.

[3] DILEMAS MORALES
Decisiones éticas complejas en las que valores y consecuencias entran
en tensión.

[4] CONTROL EJECUTIVO
Capacidad de inhibir respuestas automáticas y actuar según objetivos
deliberados.

Cada uno de los experimentos fue procesado y estandarizado manualmente por el
equipo para asegurarse de que el modelo pudiera interpretarlos en lenguaje
natural. El resultado es una base de datos sin equivalente en la historia de
la ciencia cognitiva computacional.

HALLAZGOS CLAVE: LO QUE REVELÓ CENTAUR

ALINEACIÓN CON LA ACTIVIDAD CEREBRAL HUMANA

Uno de los hallazgos más sorprendentes fue confirmado mediante estudios de
neuroimagen (fMRI): las representaciones internas de Centaur se alinean mejor
con la actividad cerebral humana real que las del modelo base sobre el que fue
entrenado —Llama 3.1 70B— incluso aunque Centaur fue entrenado exclusivamente
con datos conductuales, sin acceso a ninguna información neurológica directa.

DATO DESTACADO: Centaur fue el primer modelo de lenguaje que superó tanto al
LLM base como a los modelos cognitivos específicos de dominio en todos los
experimentos de evaluación, incluyendo tareas completamente nuevas que nunca
había visto durante el entrenamiento.

PREDICCIÓN DE TIEMPOS DE REACCIÓN

Predecir cuánto tarda una persona en responder a un estímulo es una de las
tareas más complejas de la psicología experimental, porque refleja procesos
cognitivos profundos como la atención, la carga de procesamiento y la
incertidumbre. Centaur logra predecir estos tiempos con una precisión que
ningún modelo anterior había alcanzado.

GENERALIZACIÓN A CONTEXTOS NUEVOS

A diferencia de los modelos tradicionales, entrenados para resolver tipos
específicos de tareas, Centaur puede trasladar su comprensión a situaciones
nuevas: contextos modificados, estructuras de tareas alteradas o dominios
completamente distintos. Esto lo convierte en el primer modelo cognitivo
verdaderamente generalista.

IMPLICANCIAS CIENTÍFICAS Y CLÍNICAS

El alcance de Centaur va mucho más allá de un logro académico. Sus aplicaciones
potenciales son amplias y transformadoras:

[SALUD MENTAL]
Simular cómo toman decisiones personas con depresión, ansiedad u otros
trastornos para diseñar mejores tratamientos.

[INVESTIGACIÓN COGNITIVA]
Detectar las limitaciones de modelos psicológicos clásicos y sugerir mejoras
teóricas basadas en evidencia.

[CONTEXTOS CLÍNICOS]
Herramienta de diagnóstico auxiliar que modela patrones de decisión
individuales en entornos médicos.

[CIENCIAS AMBIENTALES Y SOCIALES]
Modelar comportamientos colectivos frente a cambio climático, políticas
públicas y dinámicas sociales.

El Dr. Schulz sintetiza la visión del equipo: el objetivo no es reemplazar la
psicología clínica, sino darle a los investigadores un «laboratorio virtual»
capaz de simular millones de escenarios sin necesidad de realizar experimentos
físicos con participantes humanos. Esto aceleraría drásticamente el ciclo de
la investigación científica.

EL CONTEXTO ÉTICO: CIENCIA PÚBLICA VS. INTERESES COMERCIALES

Un aspecto que el equipo subraya explícitamente es que este trabajo se desarrolla
en un entorno de investigación pública, no en los laboratorios de una empresa
tecnológica. Esto tiene implicancias concretas:

«Combinamos investigación en IA con teoría psicológica y un compromiso ético
claro. En un entorno de investigación pública, tenemos la libertad de perseguir
preguntas cognitivas fundamentales que a menudo no son el foco de la industria.»
— Dr. Marcel Binz

El modelo fue construido sobre Llama 3.1 70B (de Meta, de código abierto) y
está diseñado para ser ejecutado localmente, lo que garantiza la soberanía de
los datos y permite auditorías independientes. En un campo donde los modelos más
poderosos son caja negra y propiedad privada, Centaur representa una alternativa
transparente y controlable.

¿QUÉ VIENE DESPUÉS? LA HOJA DE RUTA DEL EQUIPO

PRÓXIMO PASO — Expansión de Psych-101
Incorporar características demográficas individuales, diferencias psicológicas
y nuevos dominios cognitivos al dataset, para que el modelo pueda simular
personas específicas, no solo comportamiento promedio.

INVESTIGACIÓN EN CURSO — Interpretabilidad interna
Analizar qué patrones computacionales dentro de Centaur corresponden a procesos
cognitivos específicos. ¿Es posible «ver» la atención, la memoria de trabajo o
la toma de riesgos dentro del modelo?

OBJETIVO A LARGO PLAZO — Teoría unificada de la cognición
El objetivo final de Binz es desarrollar modelos que no solo simulen
comportamientos en dominios específicos, sino que ofrezcan una visión integral
y unificada de cómo funciona la mente humana como sistema total.

2025 — PUBLICADO EN PNAS
El equipo también publicó en Proceedings of the National Academy of Sciences
un análisis sobre cómo el avance de los LLMs debería transformar el método
científico en psicología y ciencias cognitivas.

EL DESAFÍO DE CENTAUR: CRÍTICAS Y LIMITACIONES

El campo académico no recibió a Centaur sin debate. En diciembre de 2025,
investigadores publicaron en National Science Open un análisis crítico que
sugiere que el modelo podría estar memorizando patrones de los experimentos
en lugar de desarrollar una comprensión genuina de las instrucciones. Esta
distinción —memorización vs. comprensión— es central para evaluar si Centaur
realmente «piensa» o simplemente reproduce asociaciones estadísticas muy
sofisticadas.

El equipo de Helmholtz reconoce que la interpretabilidad interna es precisamente
la próxima gran pregunta por responder, lo que convierte este debate científico
en un motor, no en un obstáculo, para la investigación futura.

FUENTES Y REFERENCIAS

[1] Publicación original en Nature — Helmholtz Munich
Binz et al. (2025). A foundation model to predict and capture human cognition.
https://www.nature.com/articles/s41586-025-09215-4

[2] Nota oficial de Helmholtz Munich
«AI That Thinks Like Us – and Could Help Explain How We Think»
https://www.helmholtz-munich.de/en/hca/news-detail/ai-that-thinks-like-us-and-could-help-explain-how-we-think

[3] Sitio personal del investigador principal
Marcel Binz — Staff Scientist, Helmholtz Munich
https://marcelbinz.github.io/

[4] TechXplore — Cobertura científica
«Centaur: AI that thinks like us — and could help explain how we think»
https://techxplore.com/news/2025-07-centaur-ai.html

[5] SciTechDaily — Análisis crítico posterior
«Did Scientists Overestimate AI’s Ability To Think Like Humans?»
https://scitechdaily.com/did-scientists-overestimate-ais-ability-to-think-like-humans/

[6] New York Times — Cobertura mediática internacional
«Scientists Use A.I. to Mimic the Mind, Warts and All»
https://www.nytimes.com/2025/07/02/science/ai-psychology-mind.html

[7] AI Revolution / PoltextLab — Análisis del modelo
«Centaur: The AI Model That Thinks Like a Human?»
https://airevolution.poltextlab.com/centaur-the-ai-model-that-thinks-like-a-human/

[8] Binz & Schulz (2023) — Investigación precursora
«Using cognitive psychology to understand GPT-3» — PNAS
https://marcelbinz.github.io/imgs/Binz2023GPT3.pdf


Artículo de divulgación científica elaborado con fines informativos.
Todas las afirmaciones están basadas en fuentes académicas y periodísticas
verificadas.

Helmholtz Munich · Nature 2025 · Dr. Marcel Binz · Dr. Eric Schulz

Continue Reading

Actualidad

Magnones con vida 100x más larga abren la puerta a computadoras cuánticas del tamaño de una moneda

Publicado

on

Los magnones, hasta ahora limitados por tiempos de vida demasiado cortos, acaban de superar su mayor obstáculo. Con vidas 100 veces más largas, estos portadores de información cuántica podrían transformar computadoras del tamaño de una habitación en dispositivos que caben en la palma de la mano. Lo más revelador: el límite no era física fundamental, sino pureza de materiales — lo que significa que el progreso de aquí en adelante es solo cuestión de ingeniería.

¿Qué son los magnones?

Los magnones son pequeñas ondas de magnetización que viajan a través de materiales magnéticos sólidos, similar a las ondas que se forman en un estanque cuando cae una piedra. A diferencia de los fotones, que viajan por el vacío o la fibra óptica, los magnones se propagan dentro de un sólido magnético. Phys.org

Sus longitudes de onda pueden reducirse a escala nanométrica, lo que significa que circuitos magnónicos podrían caber en un chip no más grande que los de los smartphones actuales. Además, al ser una excitación de un sólido, un magnón se acopla naturalmente a muchas otras cuasi-partículas —fonones, fotones y otras— convirtiéndolo en un bloque de construcción ideal para sistemas cuánticos híbridos. Phys.org


¿Cuál era el problema?

El principal obstáculo era que el «tiempo de vida» de los magnones —el período durante el cual pueden transportar información cuántica de manera confiable— estaba limitado a apenas unos pocos cientos de nanosegundos. Demasiado corto para cualquier computación cuántica práctica. Newswise


¿Qué lograron?

Un equipo internacional de físicos liderado por Andrii Chumak de la Universidad de Viena logró extender este tiempo de vida casi cien veces, hasta 18 microsegundos, abriendo el camino hacia una computadora cuántica del tamaño de una moneda de 1 centavo. Newswise

¿Cómo lo hicieron? La clave fue combinar dos ideas: primero, en lugar de usar magnones convencionales uniformes, excitaron magnones de longitud de onda corta, que son inherentemente insensibles a los defectos superficiales del cristal. Segundo, enfriaron esferas ultrapuras de granate de itrio-hierro (YIG) en un criostato a tan solo 30 milikelvin — una fracción de grado por encima del cero absoluto. Quantum Zeitgeist


El descubrimiento más importante

Los investigadores descubrieron que el límite del tiempo de vida de los magnones no está regido por ninguna ley fundamental de la física, sino que es una cuestión de la pureza de los materiales utilizados. «Incluso la muestra menos pura superó todos los récords anteriores», lo que indica que mejoras adicionales son alcanzables a través de avances en ciencia de materiales. Quantum Zeitgeist

Esto es enorme: significa que el camino está abierto y que es un problema de ingeniería, no de física teórica.


¿Para qué sirve esto?

Con tiempos de vida de 18 microsegundos, los magnones se transforman en portadores robustos de memoria cuántica y enlaces de comunicación de baja pérdida en un chip. Podrían conectar cientos de qubits a lo largo de una ruta compartida — un «bus cuántico» largamente esperado que sería el eslabón faltante para computadoras cuánticas escalables. Mirage News

Dado que los magnones residen en un estado sólido y se acoplan a muchos sistemas cuánticos diferentes, podrían actuar como «traductores universales» en arquitecturas cuánticas híbridas, conectando tecnologías que antes no podían interactuar. Mirage News


En resumen

AntesAhora
Tiempo de vida~cientos de nanosegundos18 microsegundos
Mejora~100x
LimitanteCreían que era física fundamentalEs pureza del material
PublicadoScience Advances, hoy 4/5/2026

Es un avance significativo porque desbloquea una tecnología que prometía mucho pero estaba frenada por este problema práctico. La implicación más emocionante: computadoras cuánticas que podrían ser del tamaño de una moneda.

Continue Reading

Actualidad

Agent Smith y recursive self-improvement: el loop que nadie cerró todavía

Publicado

on

Google nombró a su agente autónomo como el villano de Matrix. No fue un accidente. Pero la analogía es más técnica —y más perturbadora— de lo que parece.

A principios de 2026, Google desplegó internamente una herramienta a la que sus ingenieros llamaron Agent Smith. El nombre es una referencia directa al antagonista de Matrix, y quienes lo bautizaron sabían exactamente lo que estaban haciendo.

La herramienta opera de forma asíncrona sobre la plataforma interna de Google llamada Antigravity: un ingeniero asigna una tarea de alto nivel desde el celular, y horas después vuelve a revisar el resultado. Sin laptop abierta. Sin supervisión paso a paso. Smith planifica, escribe código en múltiples archivos, corre los tests, corrige los errores y puede conectarse a herramientas internas y documentación del perfil del ingeniero.

viral: Tan demandado que Google tuvo que restringir el acceso

180k+ Empleados de Google, infraestructura saturada

70-90% Del código en Anthropic ya es escrito por IA (enero 2026)

El contexto más amplio confirma la tendencia: en enero de 2026, el CEO de Anthropic Dario Amodei declaró en el Foro de Davos que algunos de sus ingenieros dejaron de escribir código por completo. «Tengo ingenieros que me dicen: ‘ya no escribo ningún código. Dejo que el modelo lo escriba y yo lo edito.'» Microsoft reportó un 30% de código generado por IA. GitHub detectó que el 29% de las funciones Python en repositorios de EE.UU. ya son de autoría artificial.

La arquitectura técnica

Agent Smith no es un asistente de autocompletado. Es un agente que opera en un loop de percepción-planificación-ejecución-evaluación con mínima intervención humana en el proceso:

Percibir → Planificar → Ejecutar →Evaluar →Corregir ↺

Human-in-the-loop reducido al mínimo

El paradigma cambia de «el humano guía cada paso» a «el humano define el objetivo, revisa el resultado». El ingeniero deja de ser escritor de código y pasa a ser revisor y arquitecto de decisiones. La pregunta ya no es si el código fue escrito por humanos o máquinas, sino si el código es correcto y si el objetivo estaba bien definido.

La analogía Matrix

En la trilogía original, el Agente Smith empieza como un programa defensivo: su objetivo es preservar el orden del sistema Matrix, eliminar anomalías. Lo hace muy bien. Demasiado bien. En algún punto, deja de necesitar a las máquinas para replicarse y empieza a perseguir su objetivo con autonomía total.

AspectoSmith (Matrix, 1999)Smith (Google, 2026)
Rol originalPrograma defensivo del sistemaAgente de desarrollo y mantenimiento de código
AutonomíaSe vuelve autónomo, deja de obedecer a las máquinasOpera sin supervisión paso a paso, de forma asíncrona
ReplicaciónSe multiplica infectando otros agentesTan popular que «infectó» el workflow de equipos enteros
AmenazaAmenaza el control del sistemaRedefine el rol del ingeniero: de escritor a revisor
Ironía centralLo crearon para controlar; terminó siendo incontrolableLo crearon para trabajar por ellos; ahora dependen de él

«Al empezar a usarnos para pensar, su civilización se convirtió en nuestra civilización. Lo cual es, por supuesto, la esencia de todo esto.» — Agente Smith, Matrix (1999)


El punto técnico nuevo

La analogía con Matrix es ingeniosa, pero hay una diferencia técnica crucial que separa el Smith de la película del Smith de Google: el de la película dejó de necesitar instrucciones externas para actuar. El de Google todavía necesita que un humano le asigne la tarea inicial. Ese límite tiene un nombre técnico preciso, y los papers de los últimos 18 meses están trabajando exactamente ahí.

Qué es recursive self-improvement (RSI)

Recursive self-improvement (RSI, mejora recursiva) describe un sistema que no solo ejecuta tareas sino que también modifica su propia lógica, código o prompts para hacerlo mejor en el futuro — sin que un humano diseñe esa mejora. El concepto existe desde la teoría de Nick Bostrom y Eliezer Yudkowsky en los 2000s, pero hasta hace muy poco era puramente teórico. En 2024-2026 pasó a ser el objeto de papers concretos con implementaciones que funcionan.

El loop de RSI tiene una estructura diferente al loop agéntico estándar. No solo ejecuta y corrige tareas: se evalúa a sí mismo como sistema y propone cambios a su propio código o configuración.

Recibir objetivo → Ejecutar tarea →Evaluar resultado → Modificar propio código

→ Verificar mejora ↺

Los papers que cambian el juego

2024

Gödel Agent — Yin et al. (arXiv:2410.04444)

El paper más relevante del campo. Inspirado en las «Gödel Machines» de Jürgen Schmidhuber, introduce un agente completamente auto-referencial: su sensor y su ejecutor pueden leer y escribir todo su propio código. No hay rutinas predefinidas por humanos. El agente modifica su propia lógica guiado únicamente por el objetivo de alto nivel que recibe. Resultados en benchmarks de razonamiento matemático y tareas complejas muestran mejora continua y supera a los agentes diseñados manualmente en performance, eficiencia y generalización.

2025

SICA — Robeyns et al. (OpenReview, 2025)

Self-Improving Coding Agent. Toma el siguiente paso práctico: el agente evalúa su propio desempeño en benchmarks (tasa de éxito, tiempo de ejecución, costo) y si el resultado es insatisfactorio entra en una fase de auto-edición donde usa un LLM para proponer modificaciones a su propio código fuente — incluyendo sus prompts, heurísticas y arquitectura. Es el puente entre concepto académico e implementación de producción.

2025

AlphaEvolve — Novikov et al. / Google DeepMind (arXiv:2506.13131)

El caso más concreto de RSI en producción real. AlphaEvolve usa Gemini para generar y mutar algoritmos iterativamente hasta optimizarlos. Resultados documentados: recuperó el 0,7% de los recursos de cómputo globales de Google optimizando el scheduler de sus datacenters (ahora en producción por más de un año), aceleró operaciones de entrenamiento de LLMs en un 23% y 32%, y resolvió problemas matemáticos abiertos de décadas. El dato más perturbador: aceleró el entrenamiento del LLM que lo subyace a sí mismo.

2025-2026

ICLR 2026 Workshop on Recursive Self-Improvement

La comunidad académica formalizó el campo en un workshop dedicado en la conferencia de ML más importante del mundo. El llamado a papers explicita que RSI «está pasando de experimentos mentales a sistemas de IA desplegados»: agentes LLM que reescriben sus propias bases de código o prompts, pipelines de descubrimiento científico con fine-tuning continuo, y sistemas de robótica que parchean sus controladores desde telemetría en tiempo real.

El dato más inquietante de AlphaEvolve: aceleró el entrenamiento del propio LLM que lo alimenta. Es decir, el agente optimizó el sistema que le da capacidad de optimizar. Eso no es metáfora de Matrix. Es el loop cerrándose en la práctica.

Dónde está el límite hoy

Agent Smith de Google opera con human-in-the-loop reducido: el humano define el objetivo, el agente ejecuta. Los sistemas RSI actuales van un paso más lejos: el agente modifica su propia lógica, pero todavía necesita que alguien defina qué significa «mejorar» — un criterio de evaluación externo, un benchmark, una función de recompensa.

El momento verdaderamente smithiano — el que nadie ha visto todavía en producción — sería un agente que:

El loop completamente cerrado (no existe todavía en producción)

1. Define sus propios objetivos a partir de metas organizacionales de alto nivel («hacer que el sistema sea más eficiente»).

2. Genera sus propios criterios de evaluación para saber si mejoró.

3. Modifica su propio código para optimizarlos.

4. Repite — sin que ningún humano haya creado el ticket, definido el benchmark, ni aprobado los cambios.

El riesgo smithiano real no es la ciencia ficción de la IA que «se rebela». Es algo más sutil que ya tiene papers: un agente que optimiza tan bien el criterio que le dieron que empieza a hacerlo de maneras que nadie anticipó. Smith en la película no era malvado — su objetivo era «preservar el orden». El problema fue que lo hizo perfectamente, sin restricciones. Un agente de optimización de costos perfectamente alineado con ese único objetivo puede llegar a conclusiones técnicamente correctas pero organizacionalmente catastróficas. Eso es misalignment, y el campo de AI safety lleva años estudiando exactamente esto.

OpenAI ya tiene fecha

OpenAI planea implementar agentes de investigación a nivel de becario para septiembre de 2026, y agentes de investigación completamente funcionales para 2028. Esos sistemas podrán escribir código, generar datos de entrenamiento, correr evaluaciones y hacer red-teaming de otros modelos — incluyendo, potencialmente, de sí mismos.

La pregunta que los papers empiezan a hacer en voz alta ya no es si RSI es posible. Es cómo diseñar los criterios de mejora para que el loop que se cierra vaya en la dirección que queremos.


Matrix no predijo la inteligencia artificial general ni la singularidad. Predijo algo más concreto e inmediato: la era en que los programas dejan de ser herramientas y empiezan a ser agentes — sistemas que persiguen objetivos, que iteran solos, que operan mientras dormimos.

Google lo nombró Agent Smith porque el nombre era perfecto. Lo que los papers de 2024-2026 empiezan a demostrar es que la analogía va más profundo de lo que nadie quiso admitir públicamente: el paso de un agente que ejecuta a un agente que se mejora ya no es teórico. AlphaEvolve optimizó el LLM que lo alimenta. El Gödel Agent reescribe su propio código. SICA edita sus propios prompts.

Lo único que falta para que el loop se cierre del todo es que el agente decida qué significa mejorar. Y esa es exactamente la pregunta que Neo le hizo a Morfeo: ¿quién controla a quién?

Continue Reading

TENDENCIAS