
La IA como infraestructura: la verdadera carrera tecnológica ya no es por el modelo, sino por el cómputo
La nueva carrera de la IA ya no es por el algoritmo, sino por la infraestructura que lo hace posible.
9 artículos disponibles

La nueva carrera de la IA ya no es por el algoritmo, sino por la infraestructura que lo hace posible.

Waymo, el gigante de los taxis autónomos, enfrenta un intenso escrutinio tras admitir en el Congreso de EE. UU. que sus vehículos dependen de "asistencia remota" desde países como Filipinas. Lo que parecía una tecnología 100% independiente revela una compleja red de supervisión humana que despierta dudas sobre ciberseguridad, soberanía laboral y seguridad vial real.

Cuando usas una IA como ChatGPT, esta tiene que "recordar" lo que has dicho antes para contestar bien. Guardar esos recuerdos consume mucha memoria de video (VRAM) de la GPU, que es carísima y limitada. Samsung ha demostrado que, en lugar de comprar más GPUs costosas, se pueden usar SSDs para guardar esos "recuerdos" de forma temporal. Esto permite que la IA atienda a más personas al mismo tiempo, gaste la mitad de luz y no se bloquee ni se trabe.

El dominio absoluto de NVIDIA en el sector de la inteligencia artificial reside en CUDA (Compute Unified Device Architecture). Durante casi dos décadas, este ecosistema propietario ha actuado como un "cerco digital", vinculando el desarrollo de software de vanguardia al hardware de los "verdes". Sin embargo, un experimento reciente utilizando Claude Code (la herramienta de IA de Anthropic, empresa que se ha centrado mucho en desarrollar modelos buenos para programación) ha demostrado que se puede portar un backend completo de CUDA al ecosistema abierto de AMD (ROCm) en apenas 30 minutos.

En el ecosistema de herramientas con IA, 2026 marcó un cambio de enfoque: pasar de “chatbots que responden” a agentes que ejecutan trabajo. En ese contexto, Anthropic presentó Cowork el 12 de enero de 2026 como una research preview dentro de Claude Desktop para macOS: un modo en el que Claude puede planear y completar tareas de varios pasos trabajando directamente con archivos en una carpeta que tú autorices. La propuesta no es “otra interfaz bonita para preguntar cosas”, sino un intento serio de convertir a Claude en un compañero de trabajo: tú describes el resultado (“ordena mi carpeta”, “arma un reporte”, “convierte estos recibos en una tabla”), y el sistema se encarga de la ejecución, informándote del progreso y pidiendo permisos en acciones delicadas.

Google ha lanzado Gemini 3, posicionándolo no solo como su modelo más inteligente hasta la fecha, sino como el motor central que impulsa una nueva era de funcionalidad en sus productos. Este lanzamiento es una declaración estratégica que busca redefinir la utilidad práctica de la inteligencia artificial, moviéndose más allá de la simple generación de contenido hacia la resolución compleja de problemas y una agentic AI más autónoma.

OpenAI acaba de lanzar su propio navegador web, llamado ChatGPT Atlas, un movimiento que la comunidad tecnológica ya califica como una "declaración de guerra" directa contra Google y su hegemonía en el mercado de Chrome.
En el creciente campo de la inteligencia artificial, la capacidad de memoria de video (VRAM) se ha vuelto fundamental, y Sparkle lo sabe, es por eso que están anunciando tremendos productos con cantidades de memoria absurdas: Hasta 768GB de memoria VRAM

El mundo de la Inteligencia Artificial está dominado por NVIDIA, eso es innegable. Sin embargo, como apasionados del hardware y amantes del software Open Source, nos hemos embarcado en una aventura emocionante para liberar el potencial de las APUs (Accelerated Processing Units) de AMD. Y hoy, quiero compartir con ustedes un logro increíble: logramos ejecutar modelos LLM (Large Language Models) en una APU serie 8000G.