¡EL MOMENTO LLEGÓ!
Creamos el show más completo de tecnología en LATAM: TOTALMENTE EN VIVO ⚡
Estas son las conversaciones que marcan la diferencia, no puedes faltar porque recibirás toda la información, conocimiento y valor de las tecnologías que están revolucionando el mundo.

En el correo de hoy:
💰 ¿Por qué OpenAI pagó más de $10 mil millones por chips de Cerebras?
🚕 Tesla ya opera robotaxis sin conductor de seguridad en 3 ciudades de Texas
🧠 Cómo usar Claude sin agotar tus límites diarios (estrategia del día)
💰 CEREBRAS BUSCA SALIR A BOLSA TRAS ACUERDOS MILLONARIOS 💰
Cerebras, la startup que fabrica los chips de IA más grandes del mundo, acaba de presentar su solicitud para salir a bolsa.
Y no es casualidad: la compañía viene de cerrar acuerdos que la ponen en el mapa de los grandes jugadores del hardware de IA.

Lo más llamativo es el contrato con OpenAI, valorado en más de $10 mil millones. Sí, leíste bien: diez mil millones de dólares.
Esto convierte a Cerebras en un proveedor clave para quien está detrás de ChatGPT. Además, anunciaron una alianza con Amazon Web Services para que sus chips estén disponibles en los centros de datos de AWS.
Pero ¿qué hace especial a Cerebras? Sus chips son literalmente gigantes. Mientras Nvidia y otros fabrican procesadores del tamaño de una tarjeta de crédito, Cerebras creó el Wafer Scale Engine: un chip del tamaño de una placa completa que puede entrenar modelos de IA muchísimo más rápido.
Es como comparar un auto de carreras con una bicicleta.
Este IPO llega en un momento crucial.
La demanda de chips de IA está por las nubes (literalmente hay escasez de RAM que podría durar hasta 2027), y Cerebras quiere capitalizar ese momento.
Si logran una valuación fuerte, podrían convertirse en el tercer gran competidor frente a Nvidia y AMD en el mercado de aceleradores de IA.
Lo interesante es que Cerebras está apostando por un modelo diferente: chips especializados y gigantes en lugar de GPUs versátiles.
Si esta estrategia funciona en el mercado público, podríamos ver una nueva era en cómo se diseña el hardware para IA. Y con clientes como OpenAI respaldándolos con miles de millones, las probabilidades están de su lado.
Noticias Express
🚕 Tesla expande sus robotaxis a Dallas y Houston: La compañía ya opera taxis autónomos sin conductor de seguridad en tres ciudades de Texas tras el lanzamiento en Austin. Leer mas
🚀 Blue Origin reutiliza un cohete New Glenn por primera vez: Un hito importante que pone a la compañía de Jeff Bezos en posición de competir directamente con SpaceX en el mercado de lanzamientos. Leer mas
📊 Meta está a punto de superar a Google en publicidad digital: Por primera vez en la historia, Meta podría destronar a Google como el rey de la publicidad online. Leer mas
💾 La escasez de RAM podría durar años: Según Nikkei Asia, los fabricantes solo cubrirán el 60% de la demanda para finales de 2027, todo por el boom de la IA. Leer mas
⚡ Grietas en el boom de financiamiento de fusión nuclear: Las startups de energía de fusión y sus inversores enfrentan desacuerdos que podrían complicar el futuro del sector. Leer mas
🔒 Vercel confirma brecha de seguridad en sistemas internos: La plataforma de desarrollo web reportó un incidente de seguridad que afectó sus sistemas internos. Leer mas
🧠 Estrategia del día: Cómo usar Claude sin agotar tus límites
📅 El mito: "Si uso Claude para todo, voy a agotar mis límites rápido y tendré que esperar horas para volver a usarlo."
💡 La realidad: Claude tiene límites de uso, sí, pero la mayoría de las personas los agotan porque hacen preguntas ineficientes o no aprovechan las conversaciones existentes. Con algunas técnicas simples, puedes multiplicar tu productividad sin tocar el techo.
🚀 La propuesta: Implementa un sistema de "conversaciones temáticas" y optimiza tus prompts para obtener más valor con menos tokens.
Aquí te dejo 3 pasos para implementarlo hoy:
1. Crea conversaciones temáticas permanentes: En lugar de abrir un nuevo chat para cada pregunta, mantén conversaciones por tema (Marketing, Código, Escritura, etc.). Claude tiene memoria de contexto y aprovechará lo que ya sabe.
2. Usa el método de "pregunta + formato + restricción": En lugar de preguntar "¿Cómo hago X?", pregunta "¿Cómo hago X? Dame 3 opciones en formato bullet points, máximo 50 palabras cada una". Obtienes respuestas más densas y útiles con menos tokens.
3. Pide iteraciones en lugar de respuestas completas: Si necesitas un texto largo, pide primero un outline, revísalo, y luego pide que desarrolle solo las secciones que necesitas. Esto te ahorra regenerar contenido completo.
Prompt reutilizable que te ahorrará tokens:
"Actúa como [rol específico]. Dame [número] opciones para [tarea específica]. Formato: [bullet points/tabla/lista numerada]. Máximo [X] palabras por opción. Si necesito más detalles sobre alguna, te lo pediré después."
Este prompt te da control total, respuestas concisas y la posibilidad de profundizar solo donde lo necesites. Resultado: más conversaciones útiles antes de llegar al límite.
🧠 Los chips de Cerebras tienen 2.6 trillones de transistores, 850,000 núcleos y ocupan un área de 46,225 mm². Para que te hagas una idea: un chip normal de Nvidia tiene unos 80 mil millones de transistores. Es literalmente 32 veces más grande.
¿Qué te pareció la noticia de Cerebras?
1️⃣ Me sorprende que OpenAI pagara tanto
2️⃣ Nvidia debería preocuparse
3️⃣ No entiendo por qué necesitamos chips tan grandes.
Respóndeme, me encanta leer lo que piensas ;)


