En el correo de hoy:
🎭 El CEO de Anthropic llama 'mentiras descaradas' al mensaje de OpenAI sobre su contrato militar
⚡ Las grandes tech prometen no aumentar tu factura eléctrica por sus data centers de IA
🤖 Xiaomi pone robots humanoides como 'becarios' en sus fábricas de autos eléctricos
🥊 ANTHROPIC ACUSA A OPENAI DE MENTIR SOBRE CONTRATOS MILITARES 🥊
Dario Amodei, CEO de Anthropic, no se anduvo con rodeos y llamó "mentiras descaradas" al mensaje que OpenAI compartió sobre su nuevo contrato con el Pentágono.
¿El contexto? Anthropic había firmado previamente un acuerdo con el Departamento de Defensa de EE.UU., pero decidió abandonarlo por desacuerdos fundamentales sobre seguridad en IA. Apenas se retiraron, OpenAI entró a ocupar ese espacio.

Lo que molestó a Amodei fue cómo OpenAI presentó el acuerdo públicamente.
Según reportes, OpenAI habría caracterizado el contrato como algo enfocado en aplicaciones defensivas y de ciberseguridad, minimizando las implicaciones más amplias del uso militar de IA.
Para Anthropic, esto no solo es inexacto, sino que distorsiona deliberadamente la conversación sobre los límites éticos que deberían tener estas tecnologías cuando se aplican en contextos militares.
Esta confrontación pública revela una tensión creciente en la industria: ¿hasta dónde deben llegar las empresas de IA en su colaboración con gobiernos y fuerzas armadas? Anthropic ha construido su marca alrededor de la "IA constitucional" y la seguridad como prioridad máxima, incluso por encima de oportunidades comerciales lucrativas.
OpenAI, por su parte, ha ido expandiendo gradualmente sus colaboraciones institucionales, argumentando que es mejor que tecnología responsable esté en manos de democracias que dejarla solo para actores adversarios.
Pero hay más en juego que principios.
Estos contratos gubernamentales representan cientos de millones de dólares y validan tecnologías ante otros clientes institucionales.
La decisión de Anthropic de retirarse fue costosa, y ver a su competidor principal tomar ese espacio con un mensaje que consideran engañoso claramente tocó un nervio.
Para ti como profesional tech o emprendedor, esto importa porque define qué tipo de aplicaciones de IA se normalizarán en los próximos años y qué líneas rojas la industria está dispuesta a defender.
Lo que viene ahora será revelador: ¿otras empresas de IA tomarán posición pública? ¿Los desarrolladores e investigadores de OpenAI expresarán incomodidad internamente? Y la pregunta más grande: ¿puede una empresa que busca crear inteligencia artificial general (AGI) mantener credibilidad en seguridad mientras expande agresivamente contratos militares?
La respuesta a eso podría redefinir el liderazgo moral en la carrera de la IA.
Noticias Express
⚡ Big Tech promete no disparar tu factura de luz por la IA: Amazon, Google, Meta, Microsoft, OpenAI, Oracle y xAI firmaron el "Ratepayer Protection Pledge" con la Casa Blanca. Se comprometen a que sus data centers hambrientos de energía no aumenten los costos eléctricos para consumidores residenciales. Leer mas
🤖 Xiaomi pone robots humanoides como 'becarios' en sus fábricas: El fabricante chino integró sus primeros robots humanoides en las líneas de producción del auto eléctrico SU7. Leer mas
✍️ Grammarly ofrece revisiones de IA con el estilo de autores famosos (sin su permiso): La herramienta de Superhuman (antes Grammarly) ahora puede darte feedback imitando a escritores famosos, vivos o muertos. El detalle incómodo: no pidieron autorización a ninguno de ellos. Leer mas
⚛️ TerraPower de Bill Gates obtiene luz verde para su planta nuclear: La startup de energía nuclear avanzada recibió aprobación para comenzar construcción de su primera planta. Leer mas
💼 Estrategia del día: Cuando el silencio vale millones (lecciones del caso Epic vs Google)
📅 El mito: Puedes negociar acuerdos comerciales importantes sin comprometer tu libertad de expresión o valores públicos a largo plazo
💡 La realidad: Tim Sweeney, el CEO ultra-vocal de Epic Games que llamó a Google y Apple "gangsters" y "corruptos" durante años de batallas legales, acaba de firmar un acuerdo que le prohíbe criticar a Google hasta 2032.
Esto demuestra que incluso los más combativos líderes tech enfrentan momentos donde deben elegir entre su voz pública y beneficios comerciales concretos. Los acuerdos de confidencialidad y no-disparagement son herramientas poderosas que las grandes corporaciones usan para neutralizar a sus críticos más efectivos.
🚀 La oportunidad: Para emprendedores y profesionales, esto revela una táctica defensiva crucial: antes de firmar cualquier acuerdo comercial, partnership o resolución de disputa, analiza las cláusulas de no-disparagement como si fueran tan importantes como las financieras. Estas cláusulas pueden silenciarte sobre prácticas abusivas, limitar tu capacidad de advertir a otros en tu industria, o impedirte construir tu marca personal alrededor de ciertos valores.
La pregunta no es solo "¿cuánto gano?" sino "¿qué pierdo el derecho a decir y por cuánto tiempo?"
Cómo aplicar esto en tu contexto:
Audita tus acuerdos existentes con IA:
Usa ChatGPT o Claude para revisar contratos que ya firmaste. Sube el documento (sin datos sensibles) y pide: "Identifica todas las cláusulas de confidencialidad, no-disparagement y restricciones de comunicación pública. Para cada una, explica su alcance, duración y qué tipo de declaraciones me prohíbe hacer." Muchos profesionales descubren que firmaron restricciones más amplias de lo que recordaban.
Crea tu "línea roja de valores" antes de negociar:
Antes de tu próxima negociación importante, documenta en una página qué temas, valores o posiciones públicas son innegociables para ti. Por ejemplo: "Puedo aceptar confidencialidad sobre términos financieros, pero no sobre prácticas laborales" o "No firmaré nada que me impida hablar sobre seguridad de datos por más de 2 años." Tener esto claro antes de que haya dinero sobre la mesa te protege de decisiones emocionales que lamentarás después.
Negocia cláusulas de no-disparagement con límites específicos:
Si te presentan una cláusula amplia de no-disparagement, contraoferta con límites concretos. Propón lenguaje como: "Las partes acuerdan no hacer declaraciones falsas o maliciosamente difamatorias" en lugar de "no hacer declaraciones negativas de ningún tipo." O limita el alcance: "Esta restricción no aplica a testimonios veraces en procedimientos legales o declaraciones sobre seguridad pública." La mayoría de empresas aceptarán versiones razonables si las propones proactivamente.
Prompt para usar:
"Eres un abogado corporativo especializado en contratos tecnológicos y acuerdos de confidencialidad. Analiza el siguiente contrato o cláusula:
[PEGA AQUÍ EL TEXTO DEL CONTRATO O CLÁUSULA]
Proporciona:
Identificación de todas las restricciones de comunicación, confidencialidad o no-disparagement
Traducción a lenguaje simple de qué puedo y no puedo decir públicamente
Duración exacta de cada restricción
Consecuencias específicas de violar cada cláusula
Tres versiones alternativas de cada cláusula restrictiva que protejan mejor mis intereses mientras siguen siendo comercialmente razonables
Señales de alerta sobre lenguaje excesivamente amplio o inusualmente restrictivo
Formatea tu respuesta en secciones claras con ejemplos concretos de qué tipo de declaraciones estarían prohibidas vs permitidas."
🧠 Dato curioso: El acuerdo de Tim Sweeney con Google dura 8 años (hasta 2032) porque en EE. UU. contratos mayores a 10 años pueden considerarse excesivos.
Por eso muchas empresas usan 5–8 años, suficiente para cubrir un ciclo tecnológico completo sin problemas legales.
Una pregunta antes de irte: Si estuvieras en los zapatos de Tim Sweeney, ¿qué habrías elegido?
🤐 Tomo el acuerdo y el silencio - a veces hay batallas más importantes
📢 Rechazo cualquier cosa que limite mi voz - los principios no se negocian
⚖️ Depende del monto - todo tiene su precio si es suficientemente alto
Responde directamente a este email. Leo cada mensaje y tus respuestas ayudan a dar forma al contenido que creamos.
Nos leemos mañana 👋


