Connect with us

Publicado

on

La Inteligencia Artificial (IA) se ha convertido en una herramienta transformadora para la bioseguridad, definida como el conjunto de medidas destinadas a proteger la salud humana, animal, vegetal y el medio ambiente frente a riesgos biológicos (virus, bacterias, toxinas, etc.). Sin embargo, la convergencia entre IA y biotecnología (AIxBio) representa un doble filo: acelera enormemente la capacidad de respuesta a amenazas, pero también reduce barreras para la creación de patógenos peligrosos, ya sea por accidente o mal uso intencional.

En 2026, la IA ya no solo apoya la ciencia biológica, sino que comienza a diseñar y ejecutar experimentos de forma semi-autónoma, obligando a actualizar urgentemente los marcos de bioseguridad tradicionales (como el BMBL del CDC).

1. Aplicaciones positivas de la IA en Bioseguridad

a) Vigilancia epidemiológica y detección temprana de brotes Los sistemas de IA procesan en tiempo real grandes volúmenes de datos heterogéneos: redes sociales, búsquedas en internet, historias clínicas, datos de ventas de medicamentos, información meteorológica, movilidad humana y secuencias genómicas. Esto permite identificar señales anómalas semanas antes de que los sistemas tradicionales confirmen un brote. La OMS actualizó en 2025 su sistema EIOS (Epidemic Intelligence from Open Sources) incorporando IA para mejorar el análisis automatizado y la detección de señales. Estas herramientas también se integran con datos de aguas residuales y metagenómica ambiental.

b) Monitoreo inteligente en laboratorios de alta contención (BSL-3 y BSL-4) Sistemas de visión por computadora verifican en tiempo real el uso correcto del Equipo de Protección Personal (EPP), detectando faltantes o mal ajustes. Monitorean continuamente presión negativa, flujo de aire HEPA, temperatura y posibles fugas, generando alertas automáticas y prediciendo fallos de mantenimiento. La automatización con robots e IA reduce la exposición humana directa a patógenos peligrosos.

c) Diseño acelerado de contramedidas Modelos como AlphaFold (y versiones posteriores) predicen con alta precisión la estructura 3D de proteínas virales o bacterianas, acelerando el diseño de vacunas, anticuerpos monoclonales, antivirales y diagnósticos. En 2025 se avanzó en vacunas basadas en diseño computacional asistido por IA. Iniciativas como la “100 Days Mission” de CEPI buscan desarrollar contramedidas en solo 100 días. La IA optimiza plataformas de ARNm y permite respuestas rápidas ante patógenos emergentes.

d) Evaluación y gestión de riesgos La IA ayuda a clasificar experimentos de “doble uso” (Dual Use Research of Concern – DURC), evaluando si un procedimiento podría aumentar transmisibilidad, letalidad o resistencia de un patógeno. Herramientas de cribado analizan secuencias de ADN/ARN antes de sintetizarlas, bloqueando aquellas de alto riesgo.

e) Seguridad y salud ocupacional La IA analiza datos de wearables para monitorear signos vitales, fatiga y exposición potencial. Detecta comportamientos inseguros y automatiza tareas repetitivas en “cloud labs”, reduciendo la intervención humana con agentes infecciosos. La OIT destaca cómo la IA mejora la seguridad y salud en el trabajo.

2. Riesgos y desafíos: la cara oscura de la IA en bioseguridad

La convergencia AIxBio baja drásticamente las barreras técnicas, económicas y de conocimiento para crear amenazas biológicas.

a) Diseño de proteínas y patógenos novedosos Modelos generativos crean secuencias de proteínas o ácidos nucleicos completamente nuevas. En 2025, IA diseñó virus (bacteriófagos) funcionales que infectan y matan bacterias específicas, demostrando el potencial para aplicar la misma tecnología en patógenos humanos.

b) “Zero-day” biológicos La IA genera patógenos o toxinas que no existen en la naturaleza y que evaden los sistemas actuales de cribado de síntesis de ADN. Estudios mostraron que variantes rediseñadas por IA pueden eludir filtros de proveedores.

c) Automatización de experimentos Laboratorios robóticos + IA permiten diseñar, planificar y ejecutar miles de experimentos con mínima intervención humana. En 2026, casos como la colaboración entre OpenAI y Ginkgo Bioworks muestran IA ejecutando decenas de miles de experimentos biológicos de forma autónoma.

d) Deskalilling (reducción de habilidades requeridas) Personas sin experiencia en biología, asistidas por IA, completan tareas complejas de virología con mayor precisión. Estudios de SecureBio indican que no expertos superaron a expertos en ciertas tareas y obtuvieron instrucciones detalladas pese a filtros de seguridad.

e) Riesgo de mal uso (bioterrorismo o accidente) Expertos de SecureBio, NTI, RAND y el International AI Safety Report 2026 advierten que la IA aumenta significativamente el riesgo de armas biológicas de alto impacto. Modelos pueden proporcionar instrucciones detalladas de laboratorio y ayudar a superar barreras tradicionales.

3. Medidas de mitigación actuales y propuestas (2026)

a) Screening de secuencias de ADN/ARN Proveedores bloquean pedidos que coincidan con patógenos regulados, pero la IA genera variantes que evaden estos filtros. El screening sigue siendo mayoritariamente voluntario en muchos países.

b) Evaluaciones de seguridad previas al lanzamiento Empresas realizan pruebas internas (“safety evaluations”) y agregan salvaguardas. Se proponen benchmarks como el Virology Capabilities Test (VCT) de SecureBio.

c) Gobernanza y regulación Se discuten accesos gestionados (tiered access), licencias para modelos de alto riesgo, supervisión humana obligatoria y auditorías independientes. En EE.UU. hay avances en NDAA 2026 y propuestas bipartidistas. A nivel internacional se debate en la Convención sobre Armas Biológicas (BWC). Organizaciones como NTI recomiendan colaboración entre gobiernos, empresas de IA y científicos.

d) Mejora de filtros y salvaguardas en los modelos de IA Se implementan rechazos (“refusals”) más robustos, aunque vulnerables a jailbreaking. Se exploran técnicas de alineación y entrenamiento con datos filtrados.

e) Cribado de clientes (“know your customer”) Verificación de legitimidad de usuarios y proyectos en síntesis de ADN y acceso a modelos biológicos.

Resumen: Oportunidades vs Riesgos

AspectoBeneficio principalRiesgo principal
VigilanciaDetección temprana con datos masivosEvasión de sistemas o generación de desinformación
LaboratoriosMonitoreo 24/7 y menor exposición humanaAutomatización de experimentos de alto riesgo sin supervisión experta
Diseño de moléculasVacunas y fármacos en tiempo récordPatógenos novedosos más letales o indetectables
AccesibilidadAvances médicos democráticosBaja barrera para actores maliciosos o inexpertos
GobernanzaHerramientas para evaluar riesgosBrecha entre velocidad tecnológica y marcos regulatorios

En 2026, la IA está cerrando el bucle entre diseño y ejecución biológica. Esto exige actualizar manuales de bioseguridad y crear regulaciones específicas para AIxBio.

Fuentes consultadas:

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Bio

Cuando la célula es la computadora: computación en biología sintética

Publicado

on

Biología sintética · Computación molecular


La premisa es radical: en lugar de construir circuitos con silicio y cobre, ¿qué pasa si construimos circuitos con genes y proteínas? La biología ya lleva 4.000 millones de años procesando información. La biología sintética propone hacerlo por diseño, no por evolución.

El campo parte de una observación simple: una célula viva ya es una computadora. Recibe señales del entorno (inputs), las procesa a través de redes de regulación génica, y produce respuestas (outputs). Lo que hace la biología sintética es intervenir ese sistema para programar comportamientos que la evolución nunca diseñó.

No es ciencia ficción. En 2025, el campo pasó de experimentos de laboratorio a aplicaciones que operan en entornos reales: desde células que detectan tumores en el torrente sanguíneo hasta prototipos de almacenamiento de datos en ADN que superan por miles de órdenes de magnitud la densidad del silicio.


Los cuatro pilares del biocomputing

El biocomputing descansa sobre cuatro ideas centrales que se desarrollan de forma paralela y cada vez más convergente.

El primero son los circuitos genéticos lógicos: genes ensamblados para comportarse como compuertas AND, OR, NOT y NAND. Reciben moléculas como input y producen proteínas como output, funcionando como el equivalente biológico de una compuerta lógica electrónica. El segundo pilar es el ADN como medio de almacenamiento de datos: la información digital se traduce a secuencias de bases nitrogenadas A, T, C y G, se sintetiza químicamente, y puede leerse después mediante secuenciación. Un gramo de ADN puede contener teóricamente 215 petabytes de información, lo que equivale a reducir un depósito entero de cintas magnéticas a una caja de zapatos.

El tercer pilar son las células como sensores inteligentes: organismos vivos programados para detectar biomarcadores específicos —proteínas de cáncer, toxinas ambientales— y responder con una acción terapéutica directa desde adentro del cuerpo, sin intervención médica externa. El cuarto son los organismos como fábricas: bacterias o levaduras reprogramadas para producir medicamentos, materiales o combustibles, usando el metabolismo celular como línea de producción industrial.


Cómo funciona un circuito genético

La lógica es directamente análoga a la electrónica digital. Una compuerta AND genética activa su output solo si dos proteínas regulatorias específicas están presentes simultáneamente. Una compuerta NOT suprime el gen de salida cuando su input se activa. Una compuerta OR produce su respuesta si al menos una de las condiciones de entrada se cumple. Combinando estas compuertas se construyen circuitos que toman decisiones complejas dentro de una célula viva.

Un ejemplo concreto: investigadores de la Universidad Médica de Lublin publicaron en 2023 circuitos basados en split Cas9 —una variante dividida del sistema CRISPR— capaces de detectar el origen celular, la transición epitelial-mesenquimal y la fusión célula-célula, usando compuertas AND para distinguir células cancerosas de células normales con alta especificidad. El sistema activa un gen reportero únicamente en células que cumplen los dos criterios simultáneamente, lo que lo hace mucho más preciso que los métodos diagnósticos convencionales.

La lógica computacional se aplica directamente al problema médico: si el paciente tiene el marcador A y el marcador B al mismo tiempo, y solo entonces, el circuito se activa. De otro modo, no hace nada.


El CPU dentro de la célula

En 2019, un equipo de investigadores publicó en las Proceedings of the National Academy of Sciences el diseño de una unidad de procesamiento central basada en CRISPR/Cas9 dentro de células humanas. Usando variantes ortogonales de Cas9 —versiones del sistema que no interfieren entre sí— construyeron un CPU multicore que ejecuta cálculos aritméticos en paralelo dentro de una célula mamífera viva.

No es una metáfora: es un sistema que integra inputs biológicos, los procesa según reglas lógicas programadas genéticamente, y produce outputs medibles. La diferencia con un CPU de silicio es que este opera en el ambiente más hostil e impredecible posible: el interior de un organismo vivo, con temperatura variable, reacciones químicas simultáneas, y la presión constante de la selección evolutiva.


ADN como disco rígido eterno

El problema de almacenamiento de datos es uno de los más urgentes del siglo: el volumen global de información crece exponencialmente mientras los medios convencionales —cintas magnéticas, discos duros— tienen una vida útil de décadas y requieren energía constante para mantenerse. El ADN lleva 4.000 millones de años almacenando información sin ningún cable de alimentación. La biología sintética aprendió a usarlo como medio de escritura deliberada.

La densidad es casi incomprensible en términos convencionales: un gramo de ADN puede almacenar teóricamente 215 petabytes de datos, mientras que un disco duro del mismo peso almacena una fracción infinitesimal de esa cantidad. Y el ADN sintético encapsulado en sílice tiene una estabilidad proyectada superior a los 1.000 años sin ningún tipo de mantenimiento ni consumo energético, lo que lo convierte en el primer medio de almacenamiento genuinamente adecuado para archivo a escala civilizatoria.

En 2025 se produjo un hito concreto: la adopción a gran escala de la síntesis enzimática de ADN (EDS), que reemplaza el proceso químico tradicional por enzimas que construyen cadenas de ADN en soluciones acuosas. Esto permitió sintetizar más de 10.000 bases con alta fidelidad, reduciendo drásticamente los costos y habilitando el primer prototipo funcional de almacenamiento a escala petabyte. El sistema demostró la capacidad de codificar, sintetizar y leer datos de miles de cadenas de ADN sintético a una densidad que supera ampliamente la de los medios basados en silicio.


Las células como médicos autónomos

La aplicación más disruptiva del biocomputing no es el almacenamiento de datos: es la medicina. Investigadores lograron en 2025 diseñar protocélulas —células mínimas sintéticas— programadas con compuertas lógicas para funcionar como diagnósticos autónomos dentro del cuerpo.

El circuito funciona así: la célula sintética detecta biomarcadores específicos de cáncer o toxinas ambientales como inputs. Si la combinación lógica de esos marcadores activa la compuerta correcta, la célula libera automáticamente una respuesta terapéutica como output. Sin médico intermediando. Sin análisis externo. El diagnóstico y el tratamiento ocurren dentro del tejido donde se necesitan.

Circuitos basados en CRISPR-Cas9 publicados en Nature Communications demostraron compuertas AND capaces de distinguir células de cáncer de vejiga de células epiteliales normales con alta especificidad. Al reemplazar el gen reportero por genes funcionales como hBAX y p21, el mismo circuito inhibió el crecimiento tumoral, indujo apoptosis y redujo la motilidad de las células cancerosas in vitro. Es el paso previo al uso clínico de células reprogramadas que detectan y tratan enfermedades desde adentro.


Cronología del campo

1994 — El origen: Leonard Adleman publica en Science la solución del problema del Circuito Hamiltoniano usando operaciones moleculares con cadenas de ADN. Es la primera demostración de que las moléculas pueden computar problemas combinatoriales.

2000 — Primeros circuitos genéticos: Los trabajos fundacionales del toggle switch y el represilador demuestran que genes pueden ensamblarse para funcionar como interruptores biestables y osciladores, sentando las bases de la lógica biológica programable.

2019 — CPU multicore en células humanas: Variantes ortogonales de Cas9 permiten computación aritmética en paralelo dentro de células mamíferas. El paper en PNAS abre la puerta al biocomputing de propósito general en tejidos vivos.

2023 — Split Cas9 para detección de eventos celulares: Compuertas AND basadas en Cas9 dividido detectan células cancerosas, transición mesenquimal y fusión celular con alta especificidad. Publicado en Scientific Reports.

2025 — Síntesis enzimática a escala industrial: La adopción masiva de EDS reduce costos y habilita el primer prototipo funcional de almacenamiento a escala petabyte en ADN. Protocélulas con compuertas lógicas operan como diagnósticos in vivo.

2026 — Convergencia con IA: La conferencia SEED 2026 —el evento central del campo— pone la aceleración por inteligencia artificial y machine learning como eje principal: diseño de proteínas, células virtuales y genomas sintéticos convergen con modelos de lenguaje grandes.


El límite que nadie menciona

El biocomputing tiene una ventaja que ningún chip de silicio puede replicar: opera dentro del sistema que busca comprender o tratar. Una célula reprogramada actúa directamente en el tejido canceroso, sin extracción de muestras ni análisis externos. Pero también tiene restricciones físicas fundamentales.

Los circuitos genéticos no pueden simplemente escalar como los electrónicos: cada proteína regulatoria nueva debe verificarse para que no interfiera con las demás —lo que los investigadores llaman ortogonalidad. El metabolismo celular tiene un presupuesto energético y molecular limitado. Y la evolución siempre está presente: un circuito que reduce la eficiencia de la célula huésped será gradualmente eliminado por selección natural, deshaciendo el diseño del ingeniero.

El debate teórico más profundo del campo gira en torno al paradigma mismo: investigadores argumentan que la lógica booleana digital —AND, OR, NOT— es fundamentalmente inadecuada para la biología, porque las células no operan en valores discretos de 0 y 1, sino en gradientes continuos de concentración molecular. Los circuitos analógicos y probabilísticos pueden representar mejor cómo computan realmente los sistemas biológicos. Esta tensión entre el paradigma digital importado de la ingeniería electrónica y la naturaleza analógica de la biología es la pregunta más abierta del campo, y su respuesta determinará qué tan lejos puede llegar el biocomputing en la práctica.


Fuentes

Continue Reading

Bio

Actualización de su marco normativo para Organismos Genéticamente Modificados (OGM)

Publicado

on

Frontera Biotec: El Nuevo Motor que Acelera el Campo Argentino

Argentina ha consolidado su posición como referente global en biotecnología agrícola con la reciente actualización de su marco normativo para Organismos Genéticamente Modificados (OGM). En marzo de 2026, el Gobierno nacional oficializó la Resolución 255/2026, una medida estratégica diseñada para modernizar la aprobación de eventos biotecnológicos y dinamizar las exportaciones agroindustriales, especialmente en el sector del maíz.


¿Qué es la Resolución 255/2026?

Esta normativa deroga regulaciones previas (como la Resolución 763/2011) para adaptarse a los avances científicos actuales y fomentar la innovación. El corazón de la reforma es la desburocratización estratégica, reduciendo la carga administrativa sin comprometer los rigurosos estándares de bioseguridad del país.

Características Técnicas de la Norma

La nueva estructura impone un ritmo industrial al proceso científico a través de los siguientes pilares:

  • Instancia de Consulta Previa: Se crea un mecanismo opcional donde las empresas pueden consultar qué evaluaciones específicas requerirá su caso antes de iniciar el trámite formal.
  • Plazos Perentorios (Fin del Silencio Administrativo): La norma establece tiempos máximos de respuesta: hasta 120 días hábiles para análisis de bioseguridad y 30 días hábiles para dictámenes de impacto comercial.
  • Ventanilla Única Virtual: Se digitaliza y centraliza la interacción entre los organismos evaluadores, eliminando el traspaso físico de expedientes y reduciendo errores humanos.
  • Coordinación Regional: Se refuerza la cooperación con socios del Mercosur para facilitar la aprobación sincronizada de eventos biotecnológicos en la región.

Impacto en el Mercado y las Exportaciones

El maíz y la soja son los principales beneficiarios de esta agilización. Al acelerar la llegada de tecnología de punta, Argentina busca recuperar competitividad frente a otros mercados globales.

¿Por qué es vital para la economía?

  1. Imán de Inversiones: Argentina se posiciona como un «Testing Lab» global, donde las empresas eligen probar nuevos cultivos resistentes a sequía debido a la previsibilidad regulatoria.
  2. Sincronización Global: Permite que, si un mercado internacional aprueba un nuevo evento, Argentina pueda autorizarlo casi en simultáneo para no perder oportunidades de exportación.
  3. Fomento a la Edición Génica: Sienta las bases para diferenciar productos de edición génica (como CRISPR) que no contienen ADN foráneo, permitiendo un acceso al mercado aún más veloz.

Estructura de Evaluación en Argentina

El sistema mantiene una rigurosa división de responsabilidades para garantizar la seguridad:

  • CONABIA: Encargada de la evaluación de riesgo ambiental y bioseguridad.
  • SENASA: Responsable de la aptitud alimentaria para consumo humano y animal.
  • Secretaría de Agricultura, Ganadería y Pesca: Evalúa el impacto comercial y otorga la autorización final para la comercialización.

Fuentes y Referencias

Continue Reading

Bio

BIDG plataforma de inversión en biotecnología

Publicado

on

El 24 de abril de 2026, Bruselas marcó un hito en la transición hacia una economía verde con el lanzamiento formal del Bioeconomy Investment Deployment Group (BIDG). Esta nueva plataforma estratégica surge de la colaboración entre la Comisión Europea y la Circular Bio-based Europe Joint Undertaking (CBE JU) para movilizar capital público y privado hacia industrias sostenibles.


¿Qué es el Bioeconomy Investment Deployment Group?

El BIDG es una plataforma de inversión diseñada para actuar como el «nervio financiero» de la bioeconomía europea. Su misión principal es convertir el liderazgo científico de Europa en biotecnología en una capacidad industrial real, evitando que las inversiones migren hacia competidores globales.

Objetivos estratégicos y funciones clave

El grupo de despliegue no es solo un foro de debate, sino un instrumento operativo enfocado en cuatro áreas críticas:

  • Arquitecturas de Financiación Combinada (Blended Finance): Diseño de instrumentos de riesgo compartido y garantías adaptadas a proyectos bio-basados de larga duración.
  • Pipeline de Proyectos Bancables: Desarrollo de estándares comunes de auditoría y una base de datos de proyectos listos para invertir, lo que reduce los ciclos de originación de créditos.
  • Transparencia y Monitoreo: Creación de un verificador de elegibilidad digital alineado con la taxonomía de la UE para rastrear los flujos de capital hacia el sector.
  • Interfaz Inversor-Industria: Facilitar el contacto directo (matchmaking) entre empresas bio-basadas en fase de escalado y fondos de capital riesgo o instituciones financieras según su apetito de riesgo.

Impacto Económico y Miembros Fundadores

La bioeconomía en la Unión Europea ya emplea a más de 17 millones de personas y genera un valor aproximado de 2.7 billones de euros. El BIDG busca potenciar estas cifras involucrando a actores de primer nivel:

  • Grupo del Banco Europeo de Inversiones (BEI).
  • Bancos Nacionales de Promoción.
  • Fondos de Capital de Riesgo (Venture Capital).
  • Inversores Institucionales especializados en descarbonización industrial.

Próximos pasos en 2026

Tras el evento de lanzamiento en Bruselas, el cronograma de implementación incluye:

  1. Junio de 2026: Primera sesión plenaria formal del grupo.
  2. Presentación del Plan de Trabajo 2026-2029: Un documento estratégico que guiará las inversiones bajo marcos como el Fondo de Competitividad Europeo y el Fondo de Escala (Scale Up Fund).

Fuentes de información

Continue Reading

TENDENCIAS