Connect with us

Publicado

on

La simulación de personas reales mediante inteligencia artificial dejó de ser ciencia ficción. Dos proyectos distintos —uno académico y uno de producto— están redefiniendo cómo las máquinas pueden modelar la individualidad humana. Aunque comparten tecnología de base, sus objetivos, arquitecturas y consecuencias éticas apuntan en direcciones opuestas.


¿Qué es Mirofish?

Mirofish es un sistema de inteligencia artificial centrado en el individuo, diseñado para construir un modelo personalizado de cada usuario a partir de sus comportamientos, preferencias y decisiones acumuladas en el tiempo. Su premisa central es que la mejor manera de asistir a una persona es entenderla profundamente, no como miembro de un segmento demográfico, sino como individuo con idiosincrasia propia.

A diferencia de los sistemas de recomendación clásicos que promedian comportamientos, Mirofish genera un gemelo funcional que evoluciona junto al usuario: aprende de sus elecciones, anticipa sus necesidades y puede actuar en su nombre. El usuario es, al mismo tiempo, el dueño y el beneficiario principal de su propio gemelo.


¿Qué son los Gemelos Digitales de Personas (Stanford + Google DeepMind)?

En 2024, investigadores de Stanford y Google DeepMind publicaron uno de los estudios de agentes de IA más citados del año: la construcción de 1.000 agentes generativos que simulan personas reales con una precisión del 85% en sus respuestas y decisiones.

Según Stanford HAI, el equipo entrevistó a 1.052 personas durante dos horas cada una. Las transcripciones de esas entrevistas se utilizaron como memoria de largo plazo para agentes construidos sobre LLMs. El resultado: agentes capaces de responder encuestas, tomar decisiones políticas y simular comportamiento individual con una fidelidad sin precedentes.

El investigador principal, Joon Sung Park, describe el proyecto no como una tecnología para crear deepfakes emocionales, sino como un banco de pruebas de política pública: un conjunto de estadounidenses virtuales, demográficamente representativos e individualmente heterogéneos, sobre los cuales testear decisiones —desde respuestas a pandemias hasta políticas climáticas— antes de implementarlas en el mundo real.

Podés leer la arquitectura técnica completa y las advertencias éticas del proyecto en la nota de política de Stanford HAI.


Similitudes técnicas y conceptuales

Aunque los proyectos tienen objetivos distintos, comparten varios fundamentos:

1. LLMs como núcleo cognitivo Ambos utilizan modelos de lenguaje de gran escala como motor de razonamiento. No son sistemas de reglas ni modelos estadísticos clásicos: procedan del lenguaje natural para generar comportamiento simulado.

2. Rechazo del promedio Ninguno de los dos trabaja con «usuarios tipo». Tanto Mirofish como el proyecto de Stanford apuestan por capturar la particularidad de cada persona: sus prioridades reales, sus contradicciones, sus patrones de decisión concretos.

3. Datos cualitativos como input privilegiado Stanford usa transcripciones de entrevistas en profundidad. Mirofish usa señales de comportamiento acumuladas. En ambos casos, el insumo crítico es lo que la persona realmente hace o dice, no lo que declara en una encuesta de cinco opciones.

4. Brecha intención-comportamiento Los dos proyectos intentan resolver uno de los problemas clásicos de las ciencias sociales: la diferencia entre lo que la gente dice que haría y lo que efectivamente hace.

5. Tensiones de privacidad y consentimiento Como advierte el equipo de Stanford en su documento de política, ambos sistemas almacenan datos sensibles y plantean preguntas abiertas sobre quién controla el gemelo, para qué puede usarse y cómo se garantiza el consentimiento informado.


Diferencias técnicas y funcionales

DimensiónStanford / DeepMindMirofish
Input principalEntrevista de 2 horas (snapshot único)Señales de comportamiento continuas
Dinámica temporalEstática: el gemelo refleja un momentoEvolutiva: el gemelo crece con el usuario
Escala de simulación1.000 personas simultáneas1 persona con alta fidelidad
Quién consulta al gemeloInvestigadores, legisladores, tercerosEl propio usuario
Propósito declaradoPolítica pública, simulación socialAgencia personal, decisión individual
Relación con el individuoEl gemelo existe para ser consultado por otrosEl gemelo trabaja para la persona
Contexto de usoAcadémico / experimentalProducto orientado al usuario final

Objetivos distintos: hacia afuera vs. hacia adentro

Esta es la diferencia filosófica más profunda entre ambos proyectos.

El proyecto de Stanford piensa el gemelo digital como un instrumento de representación colectiva. El gemelo te representa ante el sistema: ante investigadores, ante diseñadores de políticas, ante instituciones que necesitan entender cómo un conjunto diverso de personas respondería a una intervención. Como señala Tech Fixated, los participantes fueron alentados a compartir lo que más les importaba personalmente, permitiendo que la IA capture matices que las encuestas tradicionales pierden.

Mirofish, en cambio, piensa el gemelo como un instrumento de agencia personal. El gemelo trabaja para vos: amplifica tu capacidad de decisión, recuerda tu contexto, actúa en tu nombre cuando lo autorizás. No te representa ante otros; te ayuda a entenderte mejor y a operar en el mundo con más efectividad.

Son, en cierta forma, la misma tecnología mirando en direcciones opuestas: uno hacia afuera (sociedad, política pública), otro hacia adentro (la vida concreta del individuo).


Una tensión ética que conecta los dos proyectos

El equipo de Stanford advierte explícitamente que los legisladores y científicos deben trabajar juntos para garantizar mecanismos de monitoreo y consentimiento adecuados, dado que estos agentes almacenan datos sensibles y pueden imitar el comportamiento individual de forma muy precisa.

Esta advertencia abre una pregunta relevante para el diseño de Mirofish: ¿quién tiene soberanía sobre el gemelo? Si el gemelo vive en el servidor de un investigador o de una plataforma, la persona representada pierde control sobre cómo y cuándo es «consultada».

Un diseño como el de Mirofish —donde el usuario es dueño de su propio modelo— podría ser parte de la solución a ese problema. El gemelo no debería ser tuyo sólo en un sentido metafórico: debería serlo técnica y legalmente.


Conclusión

Mirofish y el proyecto de Stanford/DeepMind son dos respuestas distintas a la misma pregunta: ¿puede la IA conocerte de verdad? Uno busca usar ese conocimiento para tomar mejores decisiones colectivas. El otro, para empoderarte en tu vida individual. Ambos son señales de que los modelos de lenguaje están dejando de ser herramientas genéricas para convertirse en espejos cada vez más precisos de cada persona.

La pregunta que queda abierta —y que define el valor ético de cada proyecto— es sencilla: ¿el gemelo es tuyo o es de quien lo construyó?


Fuentes

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Actualidad

Agentes que hacen ciencia sola: AI Co-Scientist y AlphaEvolve, el laboratorio del futuro ya está aquí

Publicado

on

Por primera vez en la historia, una máquina propuso una hipótesis científica que investigadores humanos descubrieron de forma independiente — al mismo tiempo. No es una metáfora ni un ejercicio de laboratorio controlado. Es lo que ocurrió cuando el AI Co-Scientist de Google, construido sobre Gemini 2.0, fue aplicado al problema de la resistencia antimicrobiana. El sistema llegó en días a una conclusión que a los científicos del Imperial College London les llevó años de trabajo experimental.

Ese momento define algo nuevo: la IA no ya asiste a los científicos. Está comenzando a hacer ciencia.


Qué son AI Co-Scientist y AlphaEvolve

Son dos sistemas distintos pero complementarios lanzados por Google DeepMind en 2025. Ambos usan modelos Gemini como núcleo cognitivo. Ambos operan con bucles autónomos de generación, evaluación y refinamiento. Y ambos están produciendo resultados que eran impensables hace dos años.

AI Co-Scientist es un sistema multi-agente diseñado para ayudar a los científicos a generar hipótesis novedosas, planes de investigación y protocolos experimentales. Los investigadores especifican un objetivo de investigación en lenguaje natural —por ejemplo, entender mejor cómo se propaga un microorganismo causante de enfermedad— y el AI Co-Scientist propone hipótesis comprobables, junto con un resumen de la literatura publicada relevante y un posible enfoque experimental.

AlphaEvolve es un agente de código evolutivo diseñado para descubrir y optimizar algoritmos. Combina las capacidades creativas de resolución de problemas de los modelos Gemini con evaluadores automatizados que verifican las respuestas, y usa un marco evolutivo para mejorar las ideas más prometedoras. Su objetivo no es la hipótesis científica sino el algoritmo óptimo: el código más eficiente posible para un problema dado.


La arquitectura técnica: cómo funciona AI Co-Scientist

Dado un objetivo de investigación especificado en lenguaje natural, el AI Co-Scientist está diseñado para generar hipótesis de investigación novedosas, una descripción detallada de la investigación y protocolos experimentales. Para hacerlo, utiliza una coalición de agentes especializados — Generation, Reflection, Ranking, Evolution, Proximity y Meta-review — inspirados en el método científico mismo. Estos agentes usan retroalimentación automatizada para generar, evaluar y refinar hipótesis de forma iterativa, resultando en un ciclo autoajustable de outputs de calidad e innovación crecientes.

En detalle, cada agente tiene un rol distinto:

  • Generation: genera las hipótesis iniciales a partir del objetivo del investigador y la literatura disponible
  • Reflection: revisa críticamente las propuestas, identificando debilidades lógicas o vacíos en la evidencia
  • Ranking: ordena las hipótesis por calidad mediante un sistema de torneos tipo Elo (el mismo usado en ajedrez competitivo)
  • Evolution: toma las mejores hipótesis y las muta para generar versiones mejoradas
  • Proximity: elimina ideas duplicadas o demasiado similares para mantener diversidad en el espacio de exploración
  • Meta-review: sintetiza los resultados y produce el output final para el científico

El sistema usa un enfoque llamado test-time compute para generar hipótesis, una técnica que permite aumentar la calidad del output de un modelo de IA aumentando el tiempo e infraestructura que invierte en generar respuestas. A más compute invertido en tiempo de inferencia, mejor calidad de las hipótesis generadas.

El proceso completo es un ciclo «generate, debate, and evolve» que replica formalmente la estructura del método científico, pero ejecutado por una coalición de agentes especializados operando en paralelo y de forma asíncrona.


La arquitectura técnica: cómo funciona AlphaEvolve

AlphaEvolve opera sobre un principio diferente: evolución darwiniana aplicada al código.

El usuario define una especificación del problema, la lógica de evaluación (para medir qué tan bien funciona una solución propuesta) y un programa de inicialización semilla. La semilla es un fragmento de código compilable que ya resuelve el problema, aunque de forma subóptima. Los modelos Gemini procesan el contexto y generan versiones mutadas y optimizadas del código que se agregan al «espacio de población». Los algoritmos de evolución seleccionan cuáles de las mutaciones combinar y mutar aún más, priorizándolas como punto de partida para la próxima generación. Los resultados de la evaluación son usados por el ensemble de LLMs para generar el siguiente conjunto de soluciones mejoradas.

AlphaEvolve emplea un ensemble de modelos de lenguaje: una combinación de Gemini 2.0 Flash y Gemini 2.0 Pro. Este enfoque permite balancear el throughput computacional con la calidad de las soluciones generadas. Gemini 2.0 Flash, con su menor latencia, permite una mayor tasa de generación de candidatos, aumentando el número de ideas exploradas por unidad de tiempo. Gemini 2.0 Pro, con mayor capacidad, aporta sugerencias ocasionales de mayor calidad que pueden avanzar significativamente la búsqueda evolutiva.

La clave del sistema es la separación entre generación y verificación: el evaluador es definido por el usuario y mide el rendimiento real del código, no la plausibilidad verbal de la propuesta. Esto reduce drásticamente el riesgo de alucinaciones.


Los resultados que cambian todo: datos concretos

AI Co-Scientist: tres validaciones biomédicas

1. Leucemia mieloide aguda (AML): el AI Co-Scientist propuso candidatos para reposicionamiento de drogas con hallazgos de validación prometedores, incluyendo candidatos para leucemia mieloide aguda que mostraron inhibición tumoral in vitro a concentraciones clínicamente aplicables.

2. Fibrosis hepática: dos de los tres medicamentos recomendados por el AI Co-Scientist que apuntaban a modificadores epigenómicos exhibieron actividad antifibrótica significativa. El sistema fue consultado sobre el rol de cambios epigenómicos en la fibrosis hepática, generó hipótesis testables y las priorizó para validación experimental. Los resultados fueron confirmados en organoides hepáticos humanos, modelos tridimensionales multicelulares que replican la estructura del hígado humano. Fuente del paper: biorxiv.org/content/10.1101/2025.04.29.651320

3. Resistencia antimicrobiana — el resultado más perturbador: el AI Co-Scientist recapituló un descubrimiento no publicado sobre cómo las islas cromosomales inducibles por fagos formadoras de cápsides se propagan entre múltiples especies bacterianas — un mecanismo clave subyacente a la resistencia antimicrobiana. Según el paper de Gottweis et al., este resultado le tomó al sistema un par de días, mientras que el mismo hallazgo emergió de años de trabajo convencional de laboratorio.

En síntesis: en paralelo con investigadores del Imperial College London que trabajaban en el mismo problema, el AI Co-Scientist llegó a la misma hipótesis de forma independiente. No es que la IA encontró algo que los humanos no podían encontrar. Es que lo encontró órdenes de magnitud más rápido.

Paper original (arXiv): arxiv.org/abs/2502.18864 Blog de Google Research: research.google/blog/accelerating-scientific-breakthroughs-with-an-ai-co-scientist

AlphaEvolve: cinco métricas de impacto real

1. Algoritmo de 56 años superado: AlphaEvolve desarrolló un procedimiento de optimización basado en gradientes que descubrió múltiples nuevos algoritmos para multiplicación de matrices. Una de sus descobiertas mejoró el algoritmo de Strassen de 1969 — el mejor conocido para multiplicar matrices 4×4 de valores complejos usando 48 multiplicaciones escalares, la primera mejora tras 56 años.

2. Optimización de data centers de Google: un algoritmo descubierto por AlphaEvolve lleva más de un año impulsando Borg, el sistema masivo de gestión de clusters de Google, recuperando en promedio 0,7% de los recursos de cómputo globales de Google de forma continua. A escala de Google, eso equivale a millones de dólares en capacidad recuperada diariamente.

3. Aceleración del entrenamiento de Gemini: AlphaEvolve aceleró en 23% un kernel vital en la arquitectura de Gemini, lo que llevó a una reducción del 1% en el tiempo de entrenamiento de Gemini.

4. Diseño de chips TPU: AlphaEvolve propuso una reescritura en Verilog que removió bits innecesarios en un circuito aritmético clave y altamente optimizado para multiplicación de matrices. Esta propuesta fue integrada en un próximo Tensor Processing Unit (TPU), el acelerador de IA personalizado de Google.

5. Problemas matemáticos abiertos: cuando se aplicó a más de 50 problemas abiertos en análisis matemático, geometría, combinatoria y teoría de números, AlphaEvolve redescubrió soluciones de vanguardia en aproximadamente el 75% de los casos. En el 20% de los casos, mejoró las mejores soluciones conocidas.

Paper técnico (arXiv): arxiv.org/abs/2506.13131 Blog de Google DeepMind: deepmind.google/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms


El ecosistema más amplio: Genesis Mission y los 17 laboratorios nacionales

El impacto de estas herramientas no es solo académico. Google DeepMind proveerá un programa de acceso acelerado para científicos de los 17 Laboratorios Nacionales del Departamento de Energía de EE.UU. a sus modelos de IA de frontera y herramientas agénticas para ciencia. El AI Co-Scientist es un colaborador virtual multi-agente construido sobre Gemini, diseñado para ayudar a los científicos a sintetizar grandes cantidades de información para generar hipótesis y propuestas de investigación novedosas, acelerando el ritmo de descubrimientos científicos y biomédicos.

La Casa Blanca encuadra esto bajo la Genesis Mission: el objetivo de duplicar la productividad científica de Estados Unidos dentro de la década mediante IA. El AI Co-Scientist puede acelerar el desarrollo de hipótesis de años a días.


Cómo hacer una prueba: guía práctica para acceder hoy

AI Co-Scientist

Estado actual: disponible en acceso temprano a través del Trusted Tester Program de Google.

Cómo solicitar acceso:

  1. Ir a la página oficial: research.google/blog/accelerating-scientific-breakthroughs-with-an-ai-co-scientist
  2. Completar el formulario de acceso al Trusted Tester Program
  3. El sistema da prioridad a investigadores en biomedicina, química y ciencias de la vida

Qué necesitás para probar el sistema:

  • Una cuenta de Google Workspace o institucional
  • Un objetivo de investigación claro expresado en lenguaje natural (ejemplo: «entender por qué X bacteria desarrolla resistencia a Y antibiótico»)
  • Acceso a literatura científica relevante para que el sistema la indexe
  • Disposición a validar las hipótesis generadas con un experto de dominio

Flujo de interacción básico:

  1. Especificás tu objetivo de investigación en lenguaje natural
  2. El sistema genera un plan de investigación inicial con hipótesis ordenadas por relevancia
  3. Podés iterar: rechazar hipótesis débiles, pedir profundización en una específica, solicitar protocolos experimentales
  4. El sistema mejora sus propuestas en cada iteración mediante el bucle de torneo Elo

AlphaEvolve

Estado actual: disponible en private preview en Google Cloud para empresas, con acceso temprano para investigadores académicos.

Cómo solicitar acceso académico:

Qué necesitás para correr AlphaEvolve:

  • Un problema de optimización cuya solución pueda expresarse como código ejecutable
  • Una función de evaluación que mide el rendimiento (runtime, uso de memoria, precisión numérica, o métricas de dominio específico)
  • Un programa semilla que ya resuelve el problema, aunque subóptimamente
  • Acceso a la API de AlphaEvolve en Google Cloud (en preview)

Ejemplo de problema apto para AlphaEvolve: Tenés un algoritmo de ruteo logístico que tarda 200ms por consulta. Definís tu función evaluadora como «minimizar tiempo de ejecución manteniendo precisión >99%». AlphaEvolve genera variantes del código, las evalúa automáticamente y evoluciona las mejores hacia versiones cada vez más eficientes.

Herramientas alternativas de acceso abierto para experimentar con el paradigma:

  • FunSearch (Google DeepMind, open source): el predecesor de AlphaEvolve, disponible públicamente en github.com/google-deepmind/funsearch. Genera funciones en Python para resolver problemas de búsqueda combinatoria.
  • OpenHands / SWE-agent: frameworks open source para agentes de código con capacidades similares a menor escala.
  • LangGraph + Gemini API: podés construir un pipeline multi-agente propio que replica la lógica de «generate, reflect, rank» del AI Co-Scientist usando la API pública de Gemini y LangGraph como orquestador.

Qué distingue este paradigma de los LLMs convencionales

La diferencia no es solo cuantitativa. Es arquitectónica.

Un LLM convencional recibe un prompt y genera una respuesta en un solo paso. No verifica su propia respuesta. No itera. No tiene memoria de sus errores anteriores. No compite sus propias hipótesis entre sí.

El AI Co-Scientist y AlphaEvolve operan en bucles: generan, evalúan, seleccionan, mutan, evalúan de nuevo. Gemini Deep Think actúa como «multiplicador de fuerza» del intelecto humano, manejando la recuperación de conocimiento y la verificación rigurosa para que los científicos puedan enfocarse en la profundidad conceptual y la dirección creativa.

La evaluación automatizada es clave. En AlphaEvolve, el código que no funciona mejor es simplemente descartado por el evaluador, sin que ningún humano tenga que revisarlo. En AI Co-Scientist, las hipótesis compiten en torneos donde son juzgadas por criterios formalizados de novedad, plausibilidad y relevancia experimental.

Esto convierte a la IA de un oráculo que responde preguntas en un sistema que formula preguntas, las testea y descarta las malas sin intervención humana.


Las implicancias y los límites honestos

Ninguno de estos sistemas opera en el vacío ni reemplaza al científico. AI Co-Scientist es una herramienta colaborativa para ayudar a los expertos a reunir investigación y refinar su trabajo — no está diseñada para automatizar el proceso científico.

Los límites reales son tres:

Validación experimental sigue siendo humana. El sistema genera hipótesis; los laboratorios las prueban. La brecha entre propuesta in silico y confirmación in vivo sigue siendo trabajo científico duro. AlphaEvolve reduce el espacio de búsqueda; no elimina la necesidad de ingenieros que entiendan los resultados.

Dependencia de la calidad del input. El AI Co-Scientist es tan bueno como la literatura científica que procesa y la claridad del objetivo que el investigador especifica. Objetivos vagos producen hipótesis vagas.

Riesgos de sesgos en la literatura. Si la IA es entrenada sobre literatura con sesgos de publicación (donde los resultados negativos no se publican), sus hipótesis heredarán esos sesgos.


Conclusión

El AI Co-Scientist y AlphaEvolve no son herramientas de productividad. Son una nueva clase de agente científico que opera dentro del método científico, no solo alrededor de él. Estas herramientas abren la puerta a un futuro donde cada científico en un laboratorio tiene un equipo de asistentes de IA investigando simultáneamente miles de soluciones potenciales a los desafíos que motivan su trabajo.

El algoritmo de Strassen resistió 56 años sin mejoras. La resistencia antimicrobiana tardó años en ser elucidada en el laboratorio. La fibrosis hepática no tenía blancos terapéuticos evidentes. En los tres casos, un agente que genera, evalúa y refina sin descanso llegó más lejos, más rápido.

La pregunta ya no es si la IA puede hacer ciencia. Es cómo vamos a integrar estos sistemas en la práctica científica sin perder el escepticismo, la verificación rigurosa y el juicio experto que hacen confiable al conocimiento científico.


Fuentes y recursos esenciales

Papers originales:

Blogs oficiales de Google:

Genesis Mission y Laboratorios Nacionales:

Acceso y pruebas:

Análisis y cobertura:

Continue Reading

Actualidad

La revolución silenciosa de los sistemas multi-agente

Publicado

on

Si 2025 fue el año de los agentes de IA, 2026 es el año en que los agentes aprendieron a trabajar en equipo. El cambio no es menor: estamos ante el mismo salto conceptual que dio la ingeniería de software cuando abandonó el monolito y adoptó los microservicios. Un agente todopoderoso que lo hace todo está siendo reemplazado por equipos orquestados de agentes especializados. Y los números lo confirman.

Gartner reportó un aumento del 1.445% en consultas sobre sistemas multi-agente entre el primer trimestre de 2024 y el segundo trimestre de 2025. Los flujos de trabajo multi-agente registraron un crecimiento del 327% en la plataforma Databricks. El mercado global de plataformas de sistemas multi-agente alcanzó $7.810 millones en 2025 y se proyecta a $54.910 millones para 2030, con un crecimiento anual del 47,7%.

Esto no es hype. Es una reconfiguración de cómo se construyen los sistemas de software empresarial.


¿Qué es un sistema multi-agente y por qué importa?

Un sistema multi-agente (MAS, por sus siglas en inglés) es una arquitectura donde múltiples agentes de IA autónomos, cada uno con roles, herramientas y capacidades especializadas, coordinan su trabajo dentro de un entorno compartido para lograr tareas que ningún agente individual podría manejar solo.

La diferencia con los chatbots o los LLMs convencionales es sustancial. Mientras que un agente único maneja tareas de forma secuencial, un sistema multi-agente divide el trabajo entre agentes especializados que operan en paralelo, haciéndolo mucho más eficiente. Cada agente percibe su entorno, toma decisiones independientes y se comunica con otros agentes a través de protocolos definidos.

La analogía con microservicios no es casual: la arquitectura multi-agente mapea naturalmente sobre los patrones de trabajo existentes. Planificación, ejecución, revisión y aprobación son fases distintas que pueden asignarse a agentes distintos. Esto mejora dramáticamente la confiabilidad, la interpretabilidad y el mantenimiento en entornos de producción.


Los tres protocolos que hacen posible la orquestación

Antes de hablar de frameworks y herramientas, hay que entender los protocolos que hacen posible que los agentes se comuniquen entre sí. La infraestructura necesaria para agentes coordinados finalmente maduró en 2025-2026:

MCP (Model Context Protocol) — Anthropic: Estandariza cómo los agentes acceden a herramientas y recursos externos. Elimina las integraciones personalizadas para cada conexión y funciona como puente operacional entre los planes de orquestación de alto nivel y la ejecución de herramientas de bajo nivel.

A2A (Agent-to-Agent Protocol) — Google: Habilita la colaboración peer-to-peer. Los agentes pueden descubrir y comunicarse con agentes construidos con frameworks distintos. Un agente construido con LangGraph puede invocar uno construido con CrewAI a través de la interfaz estandarizada de A2A.

ACP (Agent Communication Protocol) — IBM: Aporta marcos de gobernanza para el despliegue empresarial, con seguridad y cumplimiento normativo integrados en los flujos de trabajo multi-agente.

Estos tres protocolos, bajo la Linux Foundation, son la apuesta de la industria por un estándar abierto que evite la fragmentación.


Arquitecturas dominantes en producción

Según AgentsIndex, que mantiene un directorio de más de 500 herramientas y frameworks de agentes de IA, la arquitectura que domina en producción es el modelo hub-and-spoke: un agente orquestador central que dirige a múltiples agentes trabajadores. Dos tercios del mercado de IA agentic ya usa enfoques multi-agente coordinados.

Las cuatro arquitecturas principales son:

1. Pipeline (cadena secuencial): Los agentes se organizan como una línea de ensamblaje, cada uno pasando su output al siguiente. Determinístico y fácil de debuggear. Ideal para flujos de procesamiento de documentos: extracción → análisis → formateo.

2. Hub-and-spoke (orquestador-trabajadores): Un agente coordinador recibe las solicitudes y las despacha a agentes especializados. El orquestador mantiene el contexto y sintetiza los resultados. Dominante en sistemas de atención al cliente donde un agente enruta consultas a especialistas en facturación, soporte técnico o gestión de cuentas.

3. Paralela: Múltiples agentes trabajan simultáneamente en tareas independientes. Un sistema de investigación puede consultar tres fuentes de datos al mismo tiempo en lugar de hacerlo secuencialmente.

4. Jerárquica: Agentes organizados en árbol donde un agente raíz delega a sub-agentes que a su vez tienen sus propios sub-agentes. El modelo de Google ADK implementa esta arquitectura nativamente.

Un dato crítico para no sobre-engineerear: Google Research encontró que la coordinación puede reducir el rendimiento en razonamiento secuencial entre un 39% y un 70% comparado con enfoques de agente único. Los multi-agente solo ganan cuando las tareas se descomponen por dominio y la paralelización supera el overhead de coordinación. Las mejores implementaciones en producción empiezan con 3 a 5 agentes; los equipos de 20 o más agentes consistentemente underperforman.


El mapa de herramientas y frameworks en 2026

CrewAI

El framework más popular para equipos que necesitan agentes con roles y responsabilidades diferenciadas. CrewAI brilla cuando se necesitan agentes con distintas personalidades y responsabilidades: se asigna a cada agente un rol, objetivo y contexto, como construir un equipo real. Ideal para automatización de workflows y colaboraciones estructuradas tipo equipo. Empresas como DocuSign lo usaron para consolidar datos de ventas, acelerando sus procesos comerciales. Sitio oficial: crewai.com

LangGraph (LangChain)

Lidera en búsquedas mensuales con 27.100 consultas según el análisis comparativo de Langfuse. Especializado en flujos de trabajo con estado (stateful), ideal para procesos de largo aliento donde el agente necesita recordar decisiones anteriores. Su fortaleza técnica es el grafo de estado: los nodos son agentes o funciones, y las aristas definen las transiciones posibles. Sitio oficial: langchain.com/langgraph

OpenAI Agents SDK

Lanzado en marzo de 2025 en reemplazo del experimental Swarm, es un toolkit de grado productivo cuya abstracción central es el handoff: los agentes transfieren el control entre sí explícitamente, llevando el contexto de la conversación a través de la transición. Incluye tres primitivas: Handoffs para transferencia entre agentes, Guardrails para validación de inputs/outputs, y Tracing para observabilidad end-to-end. Sitio oficial: platform.openai.com/docs/agents

Google ADK (Agent Development Kit)

Provee un árbol jerárquico de agentes donde un agente raíz delega a sub-agentes. Integración nativa con Vertex AI y Gemini, con soporte para el protocolo A2A que permite comunicación entre agentes de distintos frameworks. Su diferenciador es el soporte multimodal nativo: los agentes pueden procesar imágenes, audio y video a través de la API multimodal de Gemini. Ideal para equipos nativos de Google Cloud. Sitio oficial: cloud.google.com/products/agent-development-kit

Microsoft AutoGen

Framework de Microsoft orientado a conversaciones multi-agente. Soporta agentes que pueden ejecutar código, buscar información y coordinarse a través de rondas de diálogo. Muy usado en entornos empresariales Microsoft. Sitio oficial: microsoft.github.io/autogen

MetaGPT

Orientado específicamente a tareas de ingeniería de software: toma un requerimiento en lenguaje natural y lo convierte en código funcional distribuyendo roles como product manager, architect, engineer y QA entre distintos agentes. Sitio oficial: deepwisdom.ai


Cómo construir un sistema multi-agente: los 6 pasos

La implementación de un sistema multi-agente bien diseñado sigue seis pasos bien definidos:

1. Definir objetivos y casos de dolor: Hablar con los stakeholders para entender los puntos de fricción. Descomponer el propósito general en subtareas que cada agente abordará. Establecer métricas de éxito concretas (ejemplo: reducción del 50% en tiempo de espera del cliente).

2. Elegir la arquitectura: La pregunta crítica es si las tareas se descomponen naturalmente por dominio. Si la respuesta es sí y el procesamiento paralelo supera el overhead de coordinación, multi-agente tiene sentido. Si no, un agente único capaz sigue siendo la mejor opción.

3. Diseñar los agentes: Definir roles específicos (Planificador, Ejecutor, Verificador, Optimizador) que repliquen la estructura de equipos humanos. Cada agente debe tener responsabilidades acotadas y claras.

4. Establecer protocolos de comunicación: Elegir entre MCP (para acceso a herramientas), A2A (para comunicación peer-to-peer) o ambos. Definir cómo los agentes comparten estado y manejan fallos.

5. Coordinar y orquestar: Implementar el agente orquestador que gestiona el flujo global. Decidir si la orquestación es centralizada (hub-and-spoke) o distribuida (blackboard architecture donde los agentes leen y escriben en un espacio de datos compartido).

6. Testear, medir y desplegar: Las mejores prácticas recomiendan empezar con 3-5 agentes en producción, medir rendimiento real y escalar el número de agentes solo cuando los datos lo justifican.

Los costos de implementación van desde aproximadamente $10.000 para un prototipo básico hasta más de $500.000 para despliegues a escala enterprise. La mayoría de las empresas reportan un ROI del 200-400% dentro de los 12-24 meses posteriores a la implementación.


Los casos de negocio que ya funcionan

El Big 4 de la consultoría: apuesta total

Las cuatro grandes firmas de consultoría lanzaron plataformas multi-agente en 2025, convirtiendo este tema en una señal corporativa de primer nivel.

PwC lanzó AI Agent OS, una plataforma modular y orientada a la gobernanza que funciona menos como un chatbot y más como un sistema operativo de IA para empresas. La encuesta de PwC a 308 ejecutivos senior encontró que el 79% ya adopta agentes de IA en sus empresas, el 88% planea aumentar sus presupuestos de IA en los próximos 12 meses y el 66% reporta mejoras medibles de productividad. Fuente: pwc.com/ai-agent-survey

Deloitte lanzó Zora AI, un agente especializado en finanzas y procurement que revisa contratos mediante NLP, analiza datos de gasto para identificar ineficiencias y proyecta demoras de proveedores con modelos predictivos. El informe State of AI 2026 de Deloitte reporta que el número de empresas con más del 40% de sus proyectos de IA en producción se duplicará en seis meses. Fuente: deloitte.com/agentic-ai

EY lanzó el EY.ai Agentic Platform con más de 150 agentes fiscales especializados para asistir a 80.000 profesionales en más de 150 países, funcionando como un colega digital en impuestos. La diferencia con un bot: mientras un bot automatiza un solo formulario, los agentes de EY colaboran en flujos de trabajo complejos que cruzan jurisdicciones y normativas.

Logística: el caso LogiCore Global

En 2026, LogiCore Global implementó un sistema multi-agente con cuatro roles especializados: Planning Strategist (planificación de rutas), Customs Diplomat (navegación aduanera), Fleet Executor (gestión de flota) y Financial Auditor (control de costos). La arquitectura elegida fue una Blackboard Architecture: un espacio de datos compartido donde cada agente publica y lee información en tiempo real. Cuando el agente de flota detecta un retraso en el puerto de Rotterdam, lo publica en el blackboard y todos los demás agentes ajustan su estrategia en paralelo. Los agentes negocian entre sí usando un Agent Communication Language: el Fleet Executor puede proponer una ruta más rápida, pero el Financial Auditor puede vetarla si el costo adicional de combustible excede el margen proyectado.

Software y modernización de legado

Un banco de gran escala aplicó una «fábrica digital» agentica para modernizar su software core, que comprendía cientos de aplicaciones. Distintos agentes asumieron tareas de codificación especializadas, trabajando en paralelo para acelerar dramáticamente el proceso de migración.

Investigación científica: Agent Laboratory

El framework AgentLaboratory de arXiv usa agentes de IA como asistentes de investigación, distribuyendo tareas de búsqueda bibliográfica, síntesis de información, generación de hipótesis y validación entre agentes especializados. Está transformando la velocidad con que los investigadores pueden revisar literatura y generar nuevas ideas.


Los desafíos reales que frenan la adopción masiva

La brecha entre el entusiasmo y la realidad productiva sigue siendo significativa. Mientras el 30% de las organizaciones está explorando opciones agenticas y el 38% está en fase piloto, solo el 14% tiene soluciones listas para desplegar y apenas el 11% las usa activamente en producción.

Los tres obstáculos principales son:

Integración con sistemas legados: La mayoría de los sistemas empresariales fueron diseñados para operadores humanos, no para agentes de IA que requieren acceso continuo a datos en tiempo real. Gartner predice que más del 40% de los proyectos de IA agentica fracasarán antes de 2027 porque los sistemas legados no pueden soportar las demandas de ejecución moderna.

Arquitectura de datos: La mayoría de los datos organizacionales no está posicionada para ser consumida por agentes que necesitan entender contexto de negocio y tomar decisiones. Casi la mitad de las organizaciones cita la búsqueda (48%) y la reutilización (47%) de datos como los principales obstáculos.

Gobernanza: Solo 1 de cada 5 empresas tiene un modelo maduro de gobernanza para agentes de IA autónomos. Esto es especialmente crítico porque los sistemas multi-agente, a diferencia de los workflows tradicionales, toman decisiones de forma autónoma que pueden tener consecuencias en cadena.


El diferenciador real: orquestación y gobernanza

La pregunta de negocios en 2026 no es si adoptar sistemas multi-agente, sino cómo hacerlo con suficiente madurez para que generen valor real y no solo demos impresionantes.

El aumento del acceso de los trabajadores a la IA fue del 50% en 2025, pero solo el 34% de las organizaciones está realmente reimaginando el negocio. La mayoría mejora flujos de trabajo existentes en lugar de reinventarlos.

El patrón de los líderes exitosos: no construir más bots, sino construir equipos. Tratar a los agentes como trabajadores digitales que necesitan ser seleccionados cuidadosamente, bien entrenados y correctamente equipados. Y medir el ROI no en términos de automatización de tareas, sino de reimaginación de procesos completos.

La revolución silenciosa de los sistemas multi-agente no está en el front page de la tecnología de consumo. Está ocurriendo en los SOCs de ciberseguridad, en las salas de procurement de las consultoras globales, en los centros de operaciones logísticas y en los laboratorios de investigación. Y está redefiniendo qué significa que un sistema de software sea verdaderamente inteligente.


Fuentes y recursos

Continue Reading

Actualidad

IA + Ciberseguridad en 2026: lo técnico, lo de negocios y las especializaciones que importan

Publicado

on

Este es uno de los sectores donde la IA está generando los cambios más profundos y más rápidos, simultáneamente en ambos lados del tablero: ataque y defensa.


Lo técnico nuevo: del copiloto al agente autónomo

El cambio estructural más importante es que las empresas están abandonando los copilotos que resumen y sugieren, para pasar a agentes de IA que persiguen objetivos mediante flujos de trabajo de múltiples pasos, coordinando herramientas, tomando acciones y actualizando planes a medida que llega nueva información. Denexus

En la práctica, esto se traduce en el concepto de SOC agentic (centro de operaciones de seguridad autónomo). El modelo contrasta las ganancias incrementales de las plataformas SOAR tradicionales con un modelo de agente capaz de razonar, actuar, observar y ajustarse mientras cambia la evidencia — diseñado para gestionar investigaciones dinámicamente en lugar de ejecutar un playbook estático. Denexus

En el frente ofensivo de la IA defensiva, Google DeepMind’s CodeMender es un ejemplo de agente que mejora la seguridad del código automáticamente, con resultados tempranos que demuestran su capacidad de encontrar vulnerabilidades zero-day en software bien probado. Denexus

El otro vector técnico nuevo es el «harvest now, decrypt later»: la exfiltración silenciosa de datos cifrados hoy para descifrarlos cuando la computación cuántica lo permita, que ya está incorporada al cálculo de riesgo actual. Harvard Business Review


Los riesgos reales: el agente como vector de ataque

El problema más perturbador de 2026 no es solo que la IA ayude a los defensores, sino que los agentes se convierten en el blanco preferido de los atacantes.

Un agente está siempre activo, nunca duerme, nunca come; pero si está mal configurado, puede acceder a las claves del reino —acceso privilegiado a APIs críticas, datos y sistemas— y es implícitamente confiable. Con una sola inyección de prompt bien ejecutada o explotando una vulnerabilidad de uso incorrecto de herramientas, los actores maliciosos pueden cooptar el empleado más poderoso y confiable de una organización. Harvard Business Review

En 2026, las organizaciones pueden experimentar sus primeros incidentes de seguridad a gran escala causados por agentes de IA que se comportan de maneras no intencionadas, no necesariamente por intención maliciosa, sino por la facilidad con que los agentes pueden ser influenciados. Los agentes de IA están diseñados para ser útiles, carecen de juicio y operan sin entender el contexto o las consecuencias. Darktrace

Otro vector de riesgo emergente es el Shadow AI: la mayoría de los negocios no saben si sus empleados están usando ChatGPT u otras plataformas, y mucho menos si están ingresando información sensible en ellas. TechNewsWorld

En el frente del ataque puro, los números son contundentes: el costo promedio de una brecha de datos fue de $4.4 millones en 2025, el phishing sigue siendo el vector principal de intrusión en aproximadamente el 60% de los incidentes y el 85% de las organizaciones experimentaron al menos un incidente relacionado con deepfakes en el último año. DeepStrike


Lo de negocios: el mercado explotando

Las cifras de negocio son difíciles de ignorar: el gasto global en productos y servicios de ciberseguridad se proyecta para superar los $520 mil millones anuales en 2026, y la IA está expandiendo el mercado total direccionable para proveedores de ciberseguridad a $2 billones de dólares. ECCU

Del lado de la adopción corporativa, el 52% de los ejecutivos en organizaciones que usan IA generativa ya tienen agentes de IA en producción, y el 46% de los ejecutivos con agentes en producción los están adoptando para operaciones de seguridad y ciberseguridad. Denexus

Un indicador de la madurez institucional del tema: está emergiendo una nueva función ejecutiva —el Chief AI Risk Officer— cuya misión es reencuadrar el riesgo de la IA como un problema de datos, unificando gobernanza, monitoreo en tiempo real y kill switches a nivel de agente. Harvard Business Review


Las especializaciones que valen: el mapa de carreras

El 10% de las ofertas de trabajo en ciberseguridad ya mencionan específicamente habilidades de IA, y el World Economic Forum identifica redes y ciberseguridad entre las tres habilidades de más rápido crecimiento hasta 2030, con el 87% de los encuestados identificando las vulnerabilidades relacionadas con IA como el riesgo cibernético de crecimiento más rápido. Penligent

Las especializaciones concretas que el mercado está demandando ahora mismo:

AI Security Engineer / AI Red Teamer — el rol emergente más destacado de 2026. Identifica vulnerabilidades como prompt injection, model poisoning y explotación de agentes autónomos. Mexa Solutions Es esencialmente un pentester pero para sistemas de IA.

Defenders y Detection Engineers — el carril más duradero porque está más cerca de la continuidad del negocio. Penligent Con IA, el trabajo evoluciona de responder alertas a supervisar agentes que responden alertas.

Cloud Security Engineer — el mayor riesgo en cloud en 2026 es la identidad de máquinas inseguras, con ratios de identidad máquina-a-humano alcanzando 100 a 1, dando a los atacantes nuevas rutas para moverse lateralmente en entornos cloud. Mexa Solutions

AI Safety & Governance Specialist — roles que aseguran el cumplimiento normativo a lo largo del ciclo de vida de los sistemas de IA, desde la definición del riesgo hasta el monitoreo y la respuesta a incidentes. Heisenberginstitute Con solo el 44% de las organizaciones teniendo una política formal de seguridad de IA, hay enorme demanda.

Incident Response con IA — las organizaciones que usan defensas aumentadas por IA están conteniendo brechas 108 días más rápido que las que no las usan. Mexa Solutions


La tensión de fondo: velocidad vs. control

El resumen más honesto del momento lo da Darktrace: los desafíos centrales de la ciberseguridad no están cambiando dramáticamente — identidad, confianza, datos y toma de decisiones humana siguen en el centro de la mayoría de los incidentes. Lo que cambia rápido es el entorno en que estos desafíos ocurren. La IA y la automatización están acelerando todo: la velocidad con que los atacantes escalan, la amplitud con que se distribuye el riesgo, y la facilidad con que el comportamiento no intencionado puede crear impacto real. Darktrace

El diferenciador no va a ser si una organización «usa agentes», sino si puede escalarlos con gobernanza disciplinada, auditabilidad, reglas de engagement bien definidas y un programa de riesgo que pueda cuantificar y comunicar el valor de negocio de la seguridad.

Continue Reading

TENDENCIAS