MANUAL COMPLETO DE KAGGLE – HANDS-ON
More Videos
-
Binance Lanza la Agentic Wallet: La Era de las Carteras Diseñadas para Agentes de IA
-
Midnight (NIGHT) Avanza en Abril 2026: Nuevos Proyectos de I+D, Bitcoin Yield Privado y Adopción Institucional
-
Ethereum avanza en su roadmap 2026 con upgrades modulares: Glamsterdam (H1) y Hegota (H2)
-
Crecimiento de la arquitectura modular y los ZK-rollups como estándar en 2026
Publicado
4 meses agoon
Data Science | Machine Learning | GPU Gratuita | Competencias | IA
Guía Definitiva para Principiantes y Practicantes Avanzados Versión 2025-2026 | Optimizado para SEO | Con Fuentes Citadas
| 18.5M+ Usuarios | 194 Países | 300K+ Datasets | 30 hrs GPU/semana |
TABLA DE CONTENIDO
- Qué es Kaggle y Por Qué Importa
- Todo lo que Puedes Hacer en Kaggle
- Computación con GPU en Kaggle
- Guía Completa Paso a Paso para Empezar
- Estrategias para Maximizar tu Aprendizaje
- Recursos Esenciales y Herramientas
- Cómo Hacer tus Notebooks SEO-Friendly y Visibles
- Referencias y Fuentes Citadas
CAPÍTULO 1: QUÉ ES KAGGLE Y POR QUÉ IMPORTA
1.1 Definición y Origen
Kaggle es la plataforma líder mundial de Data Science, Machine Learning e Inteligencia Artificial. Fundada en 2010 por Anthony Goldbloom y Jeremy Howard en Melbourne, Australia, fue adquirida por Google en marzo de 2017. Hoy es una subsidiaria de Google LLC y el punto de encuentro más importante para científicos de datos, ingenieros e investigadores de todo el mundo.
La plataforma comenzó exclusivamente como un sitio de competencias de Machine Learning, pero ha evolucionado hasta convertirse en un ecosistema completo que integra aprendizaje, colaboración, computación en la nube y visibilidad profesional.
Dato Clave (2024): Al 28 de mayo de 2024, Kaggle contaba con más de 18.5 millones de cuentas registradas, con 2.745 usuarios que habían alcanzado el estatus de Maestro y 530 que habían alcanzado el estatus de Gran Maestro. La comunidad abarca 194 países. [Fuente 1]
1.2 Crecimiento Histórico
| Año | Hito | Significado |
|---|---|---|
| 2010 | Fundación de Kaggle | Inicia con competencias de ML |
| 2017 | Adquisición por Google | Respaldo de infraestructura global |
| Jun 2017 | 1 millón de usuarios | Primera gran comunidad de DS |
| Oct 2023 | 15 millones de usuarios | Crecimiento masivo post-pandemia |
| May 2024 | 18.5 millones de cuentas | Plataforma dominante global |
| 2025 | 5-Day Gen AI Course | 30.000 usuarios nuevos en 1 día |
Según el estudio «Kaggle Chronicles: 15 Years of Competitions», eventos como el 5-Day Gen AI Intensive Course con Google atrajeron la mayor cantidad de usuarios nuevos en un solo día, con 30.000 nuevos registros. [Fuente 2]
1.3 La Metáfora del Ecosistema
Una forma útil de entender Kaggle es como la unión de varias plataformas en una sola:
| Kaggle equivale a… | Por qué |
|---|---|
| GitHub | Repositorio público de notebooks y código |
| Coursera | Cursos gratuitos con ejercicios prácticos |
| Leetcode | Competencias con problemas reales del sector |
| Google Colab | Computación en la nube con GPU/TPU gratis |
| Portafolio profesional visible para reclutadores |
CAPÍTULO 2: TODO LO QUE PUEDES HACER EN KAGGLE
2.1 Notebooks con GPU Gratuita
Los Kaggle Notebooks son entornos Jupyter alojados en la nube que te permiten escribir y ejecutar código Python o R sin instalar nada en tu computadora. La característica más poderosa es el acceso gratuito a GPUs NVIDIA de alto rendimiento.
| Recurso | Especificaciones | Límite Semanal |
|---|---|---|
| GPU T4 / P100 | 16 GB VRAM, NVIDIA Tesla | ~30 horas/semana |
| TPU v3-8 | Unidad de procesamiento tensorial | ~20 horas/semana |
| CPU | 4 núcleos | Sin límite |
| RAM | 32 GB (aumentado desde 29 GB) | Por sesión |
| Almacenamiento | 20 GB por notebook | Por proyecto |
| Sesión máxima GPU | 9 horas continuas | Por ejecución |
| Sesión máxima CPU | 12 horas continuas | Por ejecución |
Kaggle proporciona acceso a GPUs Tesla T4 y P100, junto con TPUs. Cada sesión permite hasta 12 horas de tiempo de ejecución para sesiones de CPU y GPU, y 9 horas para sesiones TPU, con una cuota semanal de aproximadamente 30 horas de tiempo de GPU. Estos límites son predecibles y consistentes: siempre sabes lo que obtendrás. [Fuente 3]
2.2 Competencias (Competitions)
Las competencias son el corazón histórico de Kaggle. Empresas, gobiernos y organizaciones publican sus desafíos de datos más complejos con premios en dinero. Los participantes compiten para construir el mejor modelo predictivo o analítico.
Tipos de Competencias
| Tipo | Descripción | Premio |
|---|---|---|
| Featured | Patrocinadas por empresas u organizaciones. Las más prestigiosas. | Miles a cientos de miles de USD |
| Research | Orientadas a investigación científica. Proceso de envío no tradicional. | Pequeño o ninguno |
| Playground | Para diversión y práctica. Un paso más difícil que Getting Started. | Kudos o pequeños premios |
| Getting Started | Para principiantes absolutos. Sin deadline, con tutoriales abundantes. | Sin premio (aprendizaje) |
| Recruitment | Patrocinadas por empresas que buscan reclutar científicos de datos. | Oferta laboral potencial |
Un ejemplo de la magnitud de los premios: la competencia ARC Prize 2025 ofrece $725.000 USD para quien logre avanzar en el razonamiento abstracto de IA. [Fuente 4]
Consejo para Principiantes: Empieza SIEMPRE con competencias tipo «Getting Started». La más recomendada para comenzar es «Titanic: Machine Learning from Disaster», que tiene cientos de notebooks guía, una comunidad activa y sin límite de tiempo para participar.
2.3 Datasets Públicos
Kaggle alberga más de 300.000 datasets gratuitos cubriendo prácticamente cualquier dominio imaginable. Desde imágenes médicas hasta datos financieros, desde textos literarios hasta registros climáticos.
- Datos estructurados (CSV, JSON, SQL)
- Imágenes y video (clasificación, detección)
- Texto y lenguaje natural (NLP, sentiment analysis)
- Series de tiempo (finanzas, meteorología, IoT)
- Datos geoespaciales y mapas
- Datos médicos y biológicos
- Datos de competencias históricas (Titanic, MNIST, CIFAR)
Los datasets de Kaggle incluyen características de comunidad donde puedes discutir técnicas y compartir código. El veredicto de expertos es que Kaggle es mejor para descubrir y usar datasets públicos que cualquier otra plataforma comparada. [Fuente 5]
2.4 Cursos Gratuitos (Kaggle Learn)
Kaggle Learn ofrece cursos de alta calidad con ejercicios prácticos directamente en el navegador. No requieren instalación y están diseñados para ser completados rápidamente.
| Curso | Nivel | Contenido Principal |
|---|---|---|
| Python | Principiante | Sintaxis, funciones, listas, POO |
| Intro to Machine Learning | Principiante | Árboles de decisión, validación, CV |
| Intermediate ML | Intermedio | XGBoost, pipelines, missing values |
| Data Visualization | Principiante | Seaborn, matplotlib, gráficos |
| Pandas | Principiante/Intermedio | DataFrames, groupby, merge |
| SQL | Principiante/Intermedio | Consultas, joins, funciones de ventana |
| Deep Learning | Avanzado | Redes neuronales, CNN, transfer learning |
| NLP | Avanzado | Tokenización, embeddings, transformers |
| Intro to AI Ethics | Todos | Sesgo, equidad, privacidad en IA |
| Generative AI | Intermedio | LLMs, prompting, APIs de IA generativa |
El formato de los cursos es ideal para principiantes: aprendes un concepto, lo practicas, y avanzas al siguiente. Los cursos de Kaggle Learn no explican las matemáticas detrás de los algoritmos, sino que enseñan los principios prácticos necesarios para un científico de datos. [Fuente 6]
2.5 Sistema de Rankings y Medallas
Kaggle tiene un sistema de progresión por rangos que recompensa la participación en cuatro categorías independientes: Competencias, Notebooks, Datasets y Discusiones.
| Rango | Requisito General | Beneficio |
|---|---|---|
| Novice | Cuenta creada | Acceso básico a la plataforma |
| Contributor | Completar perfil y acciones básicas | GPU desbloqueada, API activa |
| Expert | Medallas en competencias o notebooks | Reconocimiento comunitario |
| Master | Múltiple medallas de oro | Alta visibilidad para empleadores |
| Grandmaster | Élite global (530 personas en 2024) | El máximo honor en Kaggle |
CAPÍTULO 3: COMPUTACIÓN CON GPU EN KAGGLE
3.1 Por Qué la GPU es Fundamental en ML/DL
Las GPUs (Unidades de Procesamiento Gráfico) son esenciales en Deep Learning porque pueden ejecutar miles de operaciones matemáticas en paralelo. Mientras una CPU moderna tiene 8-32 núcleos, una GPU Tesla T4 tiene 2.560 núcleos CUDA. Esto la hace entre 10x y 100x más rápida para entrenar redes neuronales.
| Característica | CPU (típica) | GPU T4 (Kaggle) |
|---|---|---|
| Núcleos | 8-32 núcleos | 2.560 núcleos CUDA |
| Memoria | RAM del sistema | 16 GB VRAM dedicada |
| Operaciones FP32 | ~500 GFLOPS | ~8 TFLOPS |
| Entrenamiento ResNet-50 | ~2 horas | ~5 minutos |
| Costo en Kaggle | Gratis | Gratis (30h/semana) |
Habilitar y utilizar una GPU en Kaggle puede mejorar drásticamente el rendimiento de tus flujos de trabajo de Machine Learning, particularmente para Deep Learning y otras tareas de alto consumo de recursos. [Fuente 7]
3.2 Cómo Activar la GPU Paso a Paso
- Ve a kaggle.com y haz clic en «Code» en el menú principal.
- Selecciona «New Notebook» para crear un nuevo entorno.
- En el panel derecho busca la sección «Accelerator».
- Selecciona «GPU T4 x2» o «GPU P100» según disponibilidad.
- Verifica tu número de teléfono si aún no lo has hecho (requisito para GPU).
- El notebook se reiniciará automáticamente con la GPU activa.
3.3 Verificación de GPU en Python
python
# Celda 1: Verificar GPU con nvidia-smi
!nvidia-smi
# Celda 2: Verificar con PyTorch
import torch
print("CUDA disponible:", torch.cuda.is_available())
print("Nombre GPU:", torch.cuda.get_device_name(0))
print("VRAM total:", round(torch.cuda.get_device_properties(0).total_memory / 1e9, 2), "GB")
# Celda 3: Verificar con TensorFlow
import tensorflow as tf
gpus = tf.config.experimental.list_physical_devices("GPU")
print("GPUs disponibles:", len(gpus))
for gpu in gpus:
print("GPU:", gpu.name)
3.4 Hola Mundo con CUDA en Kaggle
Para programación directa en CUDA (C/C++) en Kaggle, usa la extensión nvcc4jupyter:
bash
# Paso 1: Instalar la extensión CUDA para Jupyter
!pip install nvcc4jupyter
%load_ext nvcc4jupyter
cuda
%%cuda
#include <stdio.h>
__global__ void saludo_gpu() {
int idx = blockIdx.x * blockDim.x + threadIdx.x;
printf("Hola desde hilo %d, bloque %d del GPU!\n", threadIdx.x, blockIdx.x);
}
int main() {
printf("Inicio desde la CPU\n");
// Lanzar 3 bloques con 8 hilos cada uno = 24 hilos paralelos
saludo_gpu<<<3, 8>>>();
cudaDeviceSynchronize();
printf("Fin desde la CPU\n");
return 0;
}
Este ejemplo demuestra el modelo SIMT (Single Instruction, Multiple Threads) de CUDA: un solo kernel se ejecuta en paralelo en todos los hilos definidos, cada uno con su propio threadIdx y blockIdx.
3.5 Ventajas de Kaggle para Computación NVIDIA
- Acceso a GPU real sin necesidad de comprar hardware costoso
- Soporte completo de CUDA y cuDNN preinstalados
- Compatible con TensorRT para inferencia optimizada
- Posibilidad de trabajar con datasets de cientos de GB en la nube
- Entorno estable con PyTorch, TensorFlow y JAX preconfigurados
- Comparado con Google Colab, Kaggle ofrece límites de GPU predecibles y consistentes [Fuente 3]
CAPÍTULO 4: GUÍA COMPLETA PASO A PASO PARA EMPEZAR
4.1 Registro y Configuración Inicial
Paso 1 — Registro Ve a www.kaggle.com. Puedes registrarte con tu cuenta de Google (recomendado) o con un email. El proceso toma menos de 2 minutos.
Paso 2 — Completar Perfil (Obligatorio para GPU) Ve a tu perfil > Settings. Completa tu nombre, ocupación y experiencia. Luego verifica tu número de teléfono: esto es OBLIGATORIO para activar el acceso a GPU. Ve a Account > Phone Verification.
Paso 3 — Explorar la Plataforma Familiarízate con el menú: Competitions, Datasets, Code, Models, Learn y Discussions. Pasa 20 minutos navegando sin presión antes de empezar a trabajar.
Paso 4 — Tu Primer Notebook Ve a Code > New Notebook. Selecciona Python como lenguaje. En el panel derecho activa GPU. Escribe print("Hola Kaggle!") y presiona Run All. Ya estás ejecutando código en la nube.
Paso 5 — Primera Competencia: El Titanic Busca «Titanic» en Competitions. Es la competencia de introducción clásica. Tiene miles de notebooks guía, no tiene deadline y es perfecta para aprender el flujo completo: datos → modelo → submission.
4.2 Anatomía de una Competencia de Kaggle
Entender la estructura de una competencia es esencial para participar con éxito. Cada competencia tiene estas secciones:
- Overview: Descripción del problema, contexto real y objetivos específicos.
- Data: Datasets de entrenamiento y prueba para descargar y analizar.
- Evaluation: Métrica con la que se mide tu modelo (Accuracy, RMSE, AUC, etc.).
- Rules: Elegibilidad, formación de equipos, límites de envíos diarios.
- Notebooks: Código público compartido por otros participantes.
- Discussion: Foro activo con preguntas, estrategias e ideas.
- Leaderboard: Ranking en tiempo real de todos los participantes.
En una competencia típica de Kaggle existen tanto un leaderboard público como uno privado. El público es visible durante la competencia; el privado revela los resultados finales. Esta estructura prueba que tu modelo no solo memorice los datos de prueba. [Fuente 4]
CAPÍTULO 5: ESTRATEGIAS PARA MAXIMIZAR TU APRENDIZAJE
5.1 Hoja de Ruta Recomendada para Principiantes
| Semana | Tarea | Objetivo |
|---|---|---|
| 1-2 | Curso Python en Kaggle Learn | Dominar sintaxis básica |
| 3-4 | Curso Intro to Machine Learning | Entender el ciclo ML |
| 5-6 | Explorar 3 datasets públicos | Practicar análisis EDA |
| 7-8 | Competencia Titanic | Primer submission real |
| 9-12 | Curso Intermediate ML + Pandas | Mejorar pipelines |
| 13-16 | 2da competencia Getting Started | Consolida técnicas |
| 17-24 | Primera competencia Playground | Competir con premios |
| 25+ | Featured competitions | Portafolio profesional |
5.2 Cómo Aprovechar los Notebooks Públicos
Una de las prácticas más valiosas en Kaggle es estudiar los notebooks de otros participantes. El botón «Copy and Edit» (o Fork) te permite clonar cualquier notebook público a tu cuenta y modificarlo libremente.
- Busca notebooks con muchos votos (medalla de plata u oro).
- Lee el código línea por línea sin ejecutarlo primero.
- Anota las técnicas que no reconoces y búscalas.
- Modifica parámetros y observa cómo cambian los resultados.
- Publica tu versión mejorada con notas propias para ganar visibilidad.
Según DataCamp, estudiar los notebooks compartidos en competencias es una de las formas más efectivas de aprender enfoques diferentes para resolver el mismo problema. Las discusiones con los ganadores sirven como mentoría gratuita. [Fuente 8]
5.3 Construir un Portafolio Profesional
Kaggle funciona como un portafolio activo que los reclutadores de empresas de tecnología conocen y valoran. Un perfil sólido en Kaggle puede abrirte puertas que un CV tradicional no puede.
Estrategia de Portafolio: Publica al menos 3 notebooks de alta calidad con: descripción detallada del problema, análisis exploratorio visual, modelo bien comentado y conclusiones claras. Usa markdown para explicar tus razonamientos. Un notebook bien documentado vale más que diez códigos sin contexto.
5.4 Tendencias Tecnológicas en Kaggle (2022-2025)
Según el estudio «Kaggle Chronicles» que analizó 15 años de datos de la plataforma, las tendencias más significativas son:
- Python domina con ~95% de todos los notebooks. R ha declinado sostenidamente desde 2016.
- Hay una fuerte transición de métodos basados en árboles hacia Deep Learning y arquitecturas Transformer.
- Los frameworks más recientes (2022-2025) reflejan un cambio hacia modelos generativos y pipelines AutoML.
- Los temas más discutidos incluyen interpretabilidad, reproducibilidad y automatización.
- Las competencias de «Code Competitions» son cada vez más comunes, requiriendo enviar código en lugar de predicciones.
[Fuente 2: Kaggle Chronicles: 15 Years of Competitions, Community and Data Science Innovation, ResearchGate 2025]
CAPÍTULO 6: RECURSOS ESENCIALES Y HERRAMIENTAS
6.1 Recursos Oficiales de Kaggle
| Recurso | URL | Para qué sirve |
|---|---|---|
| Kaggle Learn | kaggle.com/learn | Cursos gratuitos oficiales |
| Competitions | kaggle.com/competitions | Todas las competencias activas |
| Datasets | kaggle.com/datasets | 300K+ datasets gratuitos |
| Code (Notebooks) | kaggle.com/code | Notebooks públicos y propios |
| Models | kaggle.com/models | Modelos pre-entrenados |
| Discussions | kaggle.com/discussions | Foros y comunidad |
| Kaggle API | github.com/Kaggle/kaggle-api | CLI para automatización |
| Blog Oficial | medium.com/kaggle-blog | Noticias y winner writeups |
6.2 Competencias Emblemáticas para Aprender
| Competencia | Tipo de Problema | Nivel | Por qué Hacerla |
|---|---|---|---|
| Titanic: ML from Disaster | Clasificación binaria | Principiante | Clásico inicial, miles de guías |
| House Prices: Advanced Regression | Regresión | Principiante | Feature engineering real |
| Digit Recognizer | Visión por computadora | Principiante | Intro a CNN con MNIST |
| NLP with Disaster Tweets | NLP / Clasificación | Intermedio | Primer proyecto NLP real |
| Dogs vs Cats | Visión Computacional | Intermedio | Transfer learning práctico |
| ARC Prize 2025 | IA de propósito general | Experto | Premio $725.000 USD |
6.3 Herramientas y Bibliotecas Esenciales
| Categoría | Bibliotecas Clave | Uso Principal |
|---|---|---|
| Datos | pandas, numpy, polars | Manipulación y análisis de datos |
| Visualización | matplotlib, seaborn, plotly | Gráficos y EDA |
| ML Clásico | scikit-learn, xgboost, lightgbm | Modelos no neuronales |
| Deep Learning | PyTorch, TensorFlow, Keras | Redes neuronales |
| NLP | HuggingFace transformers, NLTK | Procesamiento de texto |
| Visión | OpenCV, Pillow, albumentations | Procesamiento de imágenes |
| CUDA | cuDNN, cuBLAS, nvcc4jupyter | Programación GPU directa |
| AutoML | optuna, hyperopt, FLAML | Optimización automática |
6.4 Recursos de Aprendizaje Complementarios
| Plataforma | Tipo de Contenido | Costo |
|---|---|---|
| fast.ai | Cursos top-down de DL práctico | Gratuito |
| Coursera ML Specialization (Andrew Ng) | Fundamentos ML | Auditoría gratuita |
| Deep Learning.AI | Especialización DL completa | Auditoría gratuita |
| HuggingFace Course | NLP y transformers modernos | Gratuito |
| StatQuest (YouTube) | Estadística y ML con ejemplos visuales | Gratuito |
| NVIDIA DLI | Cursos oficiales de GPU y CUDA | Algunos gratuitos |
| Papers With Code | Papers + código de los mejores modelos | Gratuito |
| Towards Data Science | Artículos prácticos de comunidad DS | Freemium |
CAPÍTULO 7: CÓMO HACER TUS NOTEBOOKS SEO-FRIENDLY Y VISIBLES
7.1 Por Qué la Visibilidad Importa en Kaggle
Un notebook excelente pero invisible no te ayudará a conseguir empleo ni a construir reputación. Kaggle utiliza su propio sistema de ranking que premia la calidad, originalidad y engagement de tus contribuciones.
7.2 Mejores Prácticas para Notebooks con Alta Visibilidad
- Título descriptivo: Usa palabras clave del problema + técnica + resultado. Ej: «XGBoost + Feature Engineering: 0.892 AUC en Titanic»
- Descripción en markdown: Explica el problema, tu enfoque y las conclusiones principales al inicio del notebook.
- Sección de EDA visual: Los notebooks con muchas visualizaciones reciben más votos.
- Código comentado: Cada celda importante debe tener una explicación en texto.
- Resultados reproducibles: Fija semillas aleatorias (
random_state,torch.manual_seed). - Compartir en Discussion: Publica tu notebook en el foro de la competencia con una breve descripción.
- Responder comentarios: La interacción aumenta tu visibilidad en el algoritmo de Kaggle.
- Tags relevantes: Agrega todos los tags pertinentes (pytorch, xgboost, nlp, etc.).
7.3 Palabras Clave SEO Relevantes para Kaggle
| Keyword Principal | Keyword Secundaria | Intención de Búsqueda |
|---|---|---|
| kaggle tutorial | kaggle para principiantes | Aprendizaje |
| kaggle competitions | kaggle machine learning | Competencias |
| kaggle gpu gratis | gpu cloud gratuita | Computación |
| kaggle notebook python | jupyter en la nube | Herramientas |
| kaggle dataset | datasets públicos ml | Datos |
| kaggle titanic | primer proyecto data science | Principiantes |
| kaggle grandmaster | como ganar en kaggle | Avanzados |
REFERENCIAS Y FUENTES CITADAS
[1] Wikipedia. «Kaggle». Consultado en mayo 2025. Estadísticas al 28 de mayo de 2024: 18.5 millones de cuentas, 2.745 Masters, 530 Grandmasters, presencia en 194 países. https://es.wikipedia.org/wiki/Kaggle
[2] Kaggle Chronicles: 15 Years of Competitions, Community and Data Science Innovation. ResearchGate, noviembre 2025. Incluye análisis de crecimiento, tecnologías dominantes y estadísticas de eventos. https://www.researchgate.net/publication/397480703
[3] Lalatendu Keshari Swain. «Kaggle vs Google Colab: Which Cloud Notebook Platform Should You Choose in 2026?» Medium, febrero 2026. GPU T4/P100, 30 horas/semana, sesiones de hasta 12 horas. https://lalatenduswain.medium.com
[4] DS@GT ARC Notes. «Kaggle Competitions Guide», 2025. Tipos de competencias, estructura de leaderboard, ARC Prize 2025 ($725.000). https://notes.dsgt-arc.org/competition/venues/kaggle/
[5] Lalatendu Keshari Swain. «Kaggle vs Google Colab 2026». Medium. Comparativa de plataformas, datasets, reproducibilidad y GPU.
[6] TeckBakers. «Kaggle 101: A Beginner’s Guide to Data Science Competitions». Hashnode, febrero 2024. Descripción de Kaggle Learn, tipos de usuarios, sistema de rangos. https://teckbakers.hashnode.dev
[7] GeeksforGeeks. «How to Use GPU in Kaggle?», julio 2025. Pasos para activar GPU, verificación con TensorFlow y PyTorch. https://www.geeksforgeeks.org/machine-learning/how-to-use-gpu-in-kaggle/
[8] DataCamp. «Kaggle Competitions: The Complete Guide», 2022-2025. Estrategias de aprendizaje, tipos de competencias, mentoría a través de notebooks. https://www.datacamp.com/blog/kaggle-competitions-the-complete-guide
[9] Murat Karakaya Akademi. «Free GPU Services for LLM Enthusiasts», marzo 2025. Comparativa de plataformas GPU gratuitas. https://www.muratkarakaya.net/2025/03/free-gpu-services-for-llm-enthusiasts.html
[10] GMI Cloud. «Where Can I Get Free GPU Cloud Trials in 2026». Guía de recursos GPU gratuitos, incluyendo Kaggle (30h P100). https://www.gmicloud.ai/blog/where-can-i-get-free-gpu-cloud-trials-in-2026-a-complete-guide
[11] Coursera Staff. «What Is Kaggle and What Is It Used For?», octubre 2025. Definición, competencias, datasets y uso profesional. https://www.coursera.org/articles/kaggle
[12] Cambridge Spark. «A Beginners Guide to Kaggle Competitions», abril 2025. Tipos de competencias, recomendaciones para principiantes. https://www.cambridgespark.com/blog/a-beginners-guide-to-kaggle-competitions
[13] Elite Data Science. «The Beginner’s Guide to Kaggle». Diferencias entre Kaggle y DS típico, cómo aprender con competencias. https://elitedatascience.com/beginner-kaggle
[14] Chiang Rai Times. «Kaggle Guide For Beginners», mayo 2026. Datasets, competencias, rankings y primeros pasos. https://www.chiangraitimes.com/ai/kaggle-guide-for-beginners/
Manual Completo de Kaggle | Versión 2025-2026 | Documento elaborado con información verificada y fuentes citadas. Para uso educativo.
You may like
Nemotron 3 Nano OMNI es un modelo multimodal nuevo (lanzado el 28 de abril de 2026 por NVIDIA) que forma parte de la familia Nemotron 3. Es uno de los modelos abiertos más interesantes del momento por su eficiencia y capacidades «omni» (todo en uno).
¿Qué es exactamente?
- Arquitectura: 30B parámetros totales (30B-A3B), hybrid MoE (Mixture of Experts) con solo 3B parámetros activos por token. Combina capas Mamba (para eficiencia en secuencias largas) + Transformer (para razonamiento preciso).
- Multimodal nativo: Acepta y razona de forma unificada sobre:
- Texto
- Imágenes
- Video
- Audio (incluyendo transcripción y comprensión de habla)
- Salida: Solo texto.
- Contexto: Hasta 256K tokens (muy grande, ideal para documentos largos, videos extensos o conversaciones complejas).
El gran diferencial es que todo corre en un solo modelo, sin necesidad de encadenar varios (un modelo de visión + uno de audio + LLM). Esto simplifica pipelines de agentes IA y reduce latencia y pérdida de contexto.
Rendimiento y eficiencia
Según NVIDIA, es el modelo multimodal abierto más eficiente de su tamaño y lidera varios benchmarks multimodales (document understanding, video/audio reasoning, agentic tasks, etc.). Ofrece hasta 9x más throughput que otros modelos omni abiertos en tareas multimodales manteniendo interactividad similar.
El gráfico que compartiste muestra que Nemotron 3 Nano Omni (barras verdes) supera o compite muy bien contra otros modelos (barras grises) en benchmarks como MMMU, OCR, document understanding, video QA, etc.
Requerimientos para correrlo localmente
Esto es lo más impresionante:
- Quantizado 4-bit (recomendado con Unsloth): ≈ 25 GB de RAM/VRAM
- 8-bit: ≈ 36 GB
Se puede correr en una sola GPU de consumo (ej. RTX 4090 con algo de optimización) o en Macs con suficiente unified memory. NVIDIA y socios ofrecen soporte day-zero en herramientas como:
- Unsloth (GGUF optimizados, muy recomendados para local)
- llama.cpp
- LM Studio
- Ollama
- vLLM, SGLang, etc.
- NVIDIA NIM / build.nvidia.com
También está disponible en Hugging Face (versión BF16 original, FP8, NVFP4) y plataformas cloud (AWS SageMaker, Fireworks, DeepInfra, Together AI, etc.).
Usos principales
- Agentes IA (agentic workflows): computer use, browser agents, análisis de documentos, incident management.
- Análisis de documentos complejos (múltiples imágenes, tablas, etc.).
- Comprensión de video y audio largo.
- Transcripción y razonamiento sobre habla.
- Q&A multimodal, summarization, etc.
Es especialmente fuerte como sub-agente de percepción dentro de sistemas más grandes.
Dónde conseguirlo
- Hugging Face (oficial NVIDIA):
- BF16: nvidia/Nemotron-3-Nano-Omni-30B-A3B-Reasoning-BF16
- GGUF via Unsloth: unsloth/NVIDIA-Nemotron-3-Nano-Omni-30B-A3B-Reasoning-GGUF
- Blog oficial de NVIDIA: Nemotron 3 Nano Omni
- Pruebas rápidas: OpenRouter (tiene versión free), build.nvidia.com, etc.
Conclusión
Es un lanzamiento importante porque baja significativamente la barrera para tener un modelo multimodal potente y eficiente que se pueda correr localmente o en hardware accesible, sin depender de APIs caras ni stacks complejos de múltiples modelos.
Si tenés hardware decente (al menos ~25-30 GB VRAM/RAM), vale la pena probarlo con Unsloth o LM Studio. Es especialmente prometedor para quien construye agentes o hace tareas que involucran video/audio/documentos.
Actualidad
Agent Smith y recursive self-improvement: el loop que nadie cerró todavía
Publicado
3 días agoon
29 de abril de 2026
Google nombró a su agente autónomo como el villano de Matrix. No fue un accidente. Pero la analogía es más técnica —y más perturbadora— de lo que parece.
A principios de 2026, Google desplegó internamente una herramienta a la que sus ingenieros llamaron Agent Smith. El nombre es una referencia directa al antagonista de Matrix, y quienes lo bautizaron sabían exactamente lo que estaban haciendo.
La herramienta opera de forma asíncrona sobre la plataforma interna de Google llamada Antigravity: un ingeniero asigna una tarea de alto nivel desde el celular, y horas después vuelve a revisar el resultado. Sin laptop abierta. Sin supervisión paso a paso. Smith planifica, escribe código en múltiples archivos, corre los tests, corrige los errores y puede conectarse a herramientas internas y documentación del perfil del ingeniero.
viral: Tan demandado que Google tuvo que restringir el acceso
180k+ Empleados de Google, infraestructura saturada
70-90% Del código en Anthropic ya es escrito por IA (enero 2026)
El contexto más amplio confirma la tendencia: en enero de 2026, el CEO de Anthropic Dario Amodei declaró en el Foro de Davos que algunos de sus ingenieros dejaron de escribir código por completo. «Tengo ingenieros que me dicen: ‘ya no escribo ningún código. Dejo que el modelo lo escriba y yo lo edito.'» Microsoft reportó un 30% de código generado por IA. GitHub detectó que el 29% de las funciones Python en repositorios de EE.UU. ya son de autoría artificial.
La arquitectura técnica
Agent Smith no es un asistente de autocompletado. Es un agente que opera en un loop de percepción-planificación-ejecución-evaluación con mínima intervención humana en el proceso:
Percibir → Planificar → Ejecutar →Evaluar →Corregir ↺
Human-in-the-loop reducido al mínimo
El paradigma cambia de «el humano guía cada paso» a «el humano define el objetivo, revisa el resultado». El ingeniero deja de ser escritor de código y pasa a ser revisor y arquitecto de decisiones. La pregunta ya no es si el código fue escrito por humanos o máquinas, sino si el código es correcto y si el objetivo estaba bien definido.
La analogía Matrix
En la trilogía original, el Agente Smith empieza como un programa defensivo: su objetivo es preservar el orden del sistema Matrix, eliminar anomalías. Lo hace muy bien. Demasiado bien. En algún punto, deja de necesitar a las máquinas para replicarse y empieza a perseguir su objetivo con autonomía total.
| Aspecto | Smith (Matrix, 1999) | Smith (Google, 2026) |
|---|---|---|
| Rol original | Programa defensivo del sistema | Agente de desarrollo y mantenimiento de código |
| Autonomía | Se vuelve autónomo, deja de obedecer a las máquinas | Opera sin supervisión paso a paso, de forma asíncrona |
| Replicación | Se multiplica infectando otros agentes | Tan popular que «infectó» el workflow de equipos enteros |
| Amenaza | Amenaza el control del sistema | Redefine el rol del ingeniero: de escritor a revisor |
| Ironía central | Lo crearon para controlar; terminó siendo incontrolable | Lo crearon para trabajar por ellos; ahora dependen de él |
«Al empezar a usarnos para pensar, su civilización se convirtió en nuestra civilización. Lo cual es, por supuesto, la esencia de todo esto.» — Agente Smith, Matrix (1999)
El punto técnico nuevo
La analogía con Matrix es ingeniosa, pero hay una diferencia técnica crucial que separa el Smith de la película del Smith de Google: el de la película dejó de necesitar instrucciones externas para actuar. El de Google todavía necesita que un humano le asigne la tarea inicial. Ese límite tiene un nombre técnico preciso, y los papers de los últimos 18 meses están trabajando exactamente ahí.
Qué es recursive self-improvement (RSI)
Recursive self-improvement (RSI, mejora recursiva) describe un sistema que no solo ejecuta tareas sino que también modifica su propia lógica, código o prompts para hacerlo mejor en el futuro — sin que un humano diseñe esa mejora. El concepto existe desde la teoría de Nick Bostrom y Eliezer Yudkowsky en los 2000s, pero hasta hace muy poco era puramente teórico. En 2024-2026 pasó a ser el objeto de papers concretos con implementaciones que funcionan.
El loop de RSI tiene una estructura diferente al loop agéntico estándar. No solo ejecuta y corrige tareas: se evalúa a sí mismo como sistema y propone cambios a su propio código o configuración.
Recibir objetivo → Ejecutar tarea →Evaluar resultado → Modificar propio código
→ Verificar mejora ↺
Los papers que cambian el juego
2024
Gödel Agent — Yin et al. (arXiv:2410.04444)
El paper más relevante del campo. Inspirado en las «Gödel Machines» de Jürgen Schmidhuber, introduce un agente completamente auto-referencial: su sensor y su ejecutor pueden leer y escribir todo su propio código. No hay rutinas predefinidas por humanos. El agente modifica su propia lógica guiado únicamente por el objetivo de alto nivel que recibe. Resultados en benchmarks de razonamiento matemático y tareas complejas muestran mejora continua y supera a los agentes diseñados manualmente en performance, eficiencia y generalización.
2025
SICA — Robeyns et al. (OpenReview, 2025)
Self-Improving Coding Agent. Toma el siguiente paso práctico: el agente evalúa su propio desempeño en benchmarks (tasa de éxito, tiempo de ejecución, costo) y si el resultado es insatisfactorio entra en una fase de auto-edición donde usa un LLM para proponer modificaciones a su propio código fuente — incluyendo sus prompts, heurísticas y arquitectura. Es el puente entre concepto académico e implementación de producción.
2025
AlphaEvolve — Novikov et al. / Google DeepMind (arXiv:2506.13131)
El caso más concreto de RSI en producción real. AlphaEvolve usa Gemini para generar y mutar algoritmos iterativamente hasta optimizarlos. Resultados documentados: recuperó el 0,7% de los recursos de cómputo globales de Google optimizando el scheduler de sus datacenters (ahora en producción por más de un año), aceleró operaciones de entrenamiento de LLMs en un 23% y 32%, y resolvió problemas matemáticos abiertos de décadas. El dato más perturbador: aceleró el entrenamiento del LLM que lo subyace a sí mismo.
2025-2026
ICLR 2026 Workshop on Recursive Self-Improvement
La comunidad académica formalizó el campo en un workshop dedicado en la conferencia de ML más importante del mundo. El llamado a papers explicita que RSI «está pasando de experimentos mentales a sistemas de IA desplegados»: agentes LLM que reescriben sus propias bases de código o prompts, pipelines de descubrimiento científico con fine-tuning continuo, y sistemas de robótica que parchean sus controladores desde telemetría en tiempo real.
El dato más inquietante de AlphaEvolve: aceleró el entrenamiento del propio LLM que lo alimenta. Es decir, el agente optimizó el sistema que le da capacidad de optimizar. Eso no es metáfora de Matrix. Es el loop cerrándose en la práctica.
Dónde está el límite hoy
Agent Smith de Google opera con human-in-the-loop reducido: el humano define el objetivo, el agente ejecuta. Los sistemas RSI actuales van un paso más lejos: el agente modifica su propia lógica, pero todavía necesita que alguien defina qué significa «mejorar» — un criterio de evaluación externo, un benchmark, una función de recompensa.
El momento verdaderamente smithiano — el que nadie ha visto todavía en producción — sería un agente que:
El loop completamente cerrado (no existe todavía en producción)
1. Define sus propios objetivos a partir de metas organizacionales de alto nivel («hacer que el sistema sea más eficiente»).
2. Genera sus propios criterios de evaluación para saber si mejoró.
3. Modifica su propio código para optimizarlos.
4. Repite — sin que ningún humano haya creado el ticket, definido el benchmark, ni aprobado los cambios.
El riesgo smithiano real no es la ciencia ficción de la IA que «se rebela». Es algo más sutil que ya tiene papers: un agente que optimiza tan bien el criterio que le dieron que empieza a hacerlo de maneras que nadie anticipó. Smith en la película no era malvado — su objetivo era «preservar el orden». El problema fue que lo hizo perfectamente, sin restricciones. Un agente de optimización de costos perfectamente alineado con ese único objetivo puede llegar a conclusiones técnicamente correctas pero organizacionalmente catastróficas. Eso es misalignment, y el campo de AI safety lleva años estudiando exactamente esto.
OpenAI ya tiene fecha
OpenAI planea implementar agentes de investigación a nivel de becario para septiembre de 2026, y agentes de investigación completamente funcionales para 2028. Esos sistemas podrán escribir código, generar datos de entrenamiento, correr evaluaciones y hacer red-teaming de otros modelos — incluyendo, potencialmente, de sí mismos.
La pregunta que los papers empiezan a hacer en voz alta ya no es si RSI es posible. Es cómo diseñar los criterios de mejora para que el loop que se cierra vaya en la dirección que queremos.
Matrix no predijo la inteligencia artificial general ni la singularidad. Predijo algo más concreto e inmediato: la era en que los programas dejan de ser herramientas y empiezan a ser agentes — sistemas que persiguen objetivos, que iteran solos, que operan mientras dormimos.
Google lo nombró Agent Smith porque el nombre era perfecto. Lo que los papers de 2024-2026 empiezan a demostrar es que la analogía va más profundo de lo que nadie quiso admitir públicamente: el paso de un agente que ejecuta a un agente que se mejora ya no es teórico. AlphaEvolve optimizó el LLM que lo alimenta. El Gödel Agent reescribe su propio código. SICA edita sus propios prompts.
Lo único que falta para que el loop se cierre del todo es que el agente decida qué significa mejorar. Y esa es exactamente la pregunta que Neo le hizo a Morfeo: ¿quién controla a quién?
AI
Hands-On AI: Kimi Code vs. Claude Code: El duelo definitivo por el trono de la programación con IA
Publicado
4 días agoon
28 de abril de 2026
El panorama del desarrollo de software ha dado un giro radical. Ya no hablamos solo de copilotos que sugieren líneas de código; hablamos de agentes autónomos capaces de manejar terminales, ejecutar planes complejos y refactorizar repositorios enteros. En este escenario, dos titanes se enfrentan: Claude Code, la apuesta de Anthropic, y Kimi Code, la revolución de código abierto llegada desde China por Moonshot AI.
¿Cuál es mejor para tu flujo de trabajo? Analizamos sus capacidades, costes y rendimiento técnico para ayudarte a decidir.
1. ¿Qué es Kimi Code y por qué está en boca de todos?
Desarrollado por Moonshot AI, Kimi Code no es solo un modelo de lenguaje, sino un agente de IA diseñado para vivir en tu terminal. Basado en el modelo Kimi K2.6, destaca por su arquitectura Mixture-of-Experts (MoE) y su capacidad de procesamiento paralelo.
Puntos clave de Kimi Code:
- Agent Swarm (Enjambre de Agentes): A diferencia de otros sistemas, Kimi puede desplegar hasta 300 sub-agentes en paralelo. Esto le permite abordar tareas masivas de forma simultánea en lugar de secuencial.
- Ventana de contexto: Ofrece hasta 256k tokens, superando los 200k estándar de Claude Sonnet.
- Eficiencia: Solo activa el 3% de sus parámetros por consulta, lo que lo hace increíblemente rápido y barato.
2. Claude Code: La referencia en razonamiento y precisión
Anthropic ha posicionado a Claude Code como la herramienta para el desarrollador profesional que busca fiabilidad. Utilizando modelos como Claude 3.5 Sonnet y 4.6 Opus, su fuerte no es solo escribir código, sino entender la intención arquitectónica detrás de él.
Puntos clave de Claude Code:
- Razonamiento Secuencial Profundo: Aunque es más lento que el «enjambre» de Kimi, el razonamiento paso a paso de Claude suele cometer menos errores de lógica en sistemas complejos.
- Ecosistema MCP: Soporta el Model Context Protocol, facilitando la integración con herramientas de terceros de forma estandarizada.
- Gobernanza de Datos: Para empresas occidentales, Anthropic ofrece un marco de cumplimiento y seguridad más maduro.
3. Comparativa Técnica: Frente a Frente
| Característica | Kimi Code (K2.6) | Claude Code (Opus/Sonnet) |
| Arquitectura | Mixture-of-Experts (MoE) | Dense / MoE (según versión) |
| Modo de ejecución | Paralelo (Swarm) | Secuencial / Razonamiento |
| Contexto | 256,000 tokens | Hasta 1,000,000 (Opus) |
| Coste (API) | ~$0.60 / millón tokens | ~$3.00 – $15.00 / millón tokens |
| Licencia | CLI Apache 2.0 (Open Source) | Propietario |
Rendimiento en la vida real:
En benchmarks como SWE-Bench, Kimi K2.6 ha sorprendido alcanzando los 58.6 puntos, superando a versiones previas de GPT y Claude. Sin embargo, en entornos de producción, los desarrolladores reportan que Claude Code sigue siendo más «confiable» para evitar alucinaciones en proyectos de gran escala, mientras que Kimi brilla en tareas de optimización bruta y refactorización masiva.
4. El factor determinante: Coste vs. Privacidad
Aquí es donde la balanza se inclina para un lado u otro según tu perfil:
- El ahorro extremo de Kimi: Kimi Code cuesta hasta 10 veces menos que Claude. Puedes ejecutar tareas de 12 horas seguidas por una fracción del precio de Anthropic.
- La barrera geográfica de Kimi: Al ser una empresa china (Moonshot/Alibaba), muchas empresas en EE.UU. o Europa tienen restricciones sobre el envío de código propietario a sus servidores.
- La madurez de Claude: Si trabajas con código de clientes sensibles, la infraestructura de Anthropic suele ser la opción predeterminada por cumplimiento normativo.
5. ¿Cómo usar mejor cada versión?
Usa Kimi Code si:
- Necesitas refactorizar repositorios gigantes de forma económica.
- Realizas tareas de optimización de rendimiento (Kimi ha demostrado mejoras del 180% en motores financieros de forma autónoma).
- Prefieres herramientas de código abierto que puedas integrar y personalizar en tu propio flujo CLI.
Usa Claude Code si:
- Estás diseñando la arquitectura inicial de un sistema y necesitas precisión lógica.
- Trabajas en un entorno corporativo con estrictas políticas de privacidad de datos.
- Necesitas que la IA entienda dependencias complejas entre múltiples archivos donde el razonamiento profundo es vital.
Conclusión: ¿Cuál es mejor?
No hay un ganador absoluto, sino una herramienta para cada necesidad. Kimi Code es la «fuerza bruta inteligente» y económica, ideal para desarrolladores independientes y optimización masiva. Claude Code es el «arquitecto senior» meticuloso, preferible para proyectos críticos y de alta complejidad.
Fuentes y lecturas recomendadas:
Científicos noruegos logran rastrear la pérdida de datos en qubits más de 100 veces más rápido
La Amenaza Cuántica a la Ciberseguridad
Teleportación cuántica de fotones: el experimento que acerca el internet cuántico a la realidad
CRISPR Parte I: Avances en Terapias Génicas con CRISPR para 2025 – Transformando la Medicina
Vercel: La Plataforma Líder en Desarrollo Web y AI Cloud
¡El Futuro es Ahora! Los Avances Más Impactantes en Hologramas para 2025
Binance Lanza la Agentic Wallet: La Era de las Carteras Diseñadas para Agentes de IA
Midnight (NIGHT) Avanza en Abril 2026: Nuevos Proyectos de I+D, Bitcoin Yield Privado y Adopción Institucional
Ethereum avanza en su roadmap 2026 con upgrades modulares: Glamsterdam (H1) y Hegota (H2)
TENDENCIAS
-
Bio12 meses agoCRISPR Parte I: Avances en Terapias Génicas con CRISPR para 2025 – Transformando la Medicina
-
EmpresasTech5 meses agoVercel: La Plataforma Líder en Desarrollo Web y AI Cloud
-
Researchland12 meses ago¡El Futuro es Ahora! Los Avances Más Impactantes en Hologramas para 2025
-
AI12 meses ago¿Qué es Hugging Face? Guía Actualizada a Mayo 2025
-
Nano1 año agoLas últimas innovaciones en nanotecnología
-
AI5 meses agoGoogle Antigravity: La Herramienta IA Multiagentes que Revoluciona el Desarrollo de Software
-
AI1 año agoAgentes de IA y Workflows Agénticos: La Revolución de la Automatización
-
AI1 año agoAgentes de IA vs. Agentic AI : Diferencias, Ejemplos y Avances Recientes
