¡Disculpa la tardanza! a nuestro bot de publicaciones le llegó la semana santa jajaja, pero ya estamos aquí 😎

En el correo de hoy:

  • 🎙️ ¿OpenAI comprando un talk show? La estrategia detrás de esta jugada inesperada

  • 🚗 ChatGPT ahora puede ser tu copiloto literal (ya está en CarPlay)

  • 💊 Utah permite que la IA prescriba medicamentos psiquiátricos sin médico

🎙️ OPENAI COMPRA UN PODCAST Y NADIE VIO VENIR ESTA JUGADA 🎙️

En un movimiento que tiene a Silicon Valley rascándose la cabeza, OpenAI acaba de adquirir TBPN (The Business Podcast Network), el talk show tech favorito de fundadores y emprendedores.

Sí, la misma empresa que está revolucionando la IA ahora es dueña de un programa de entrevistas.

Pero aquí está lo interesante: TBPN operará de forma completamente independiente desde Los Ángeles, bajo la supervisión de Chris Lehane, el estratega político de OpenAI.

La promesa es clara: independencia editorial total. Suena contradictorio, ¿verdad? Una empresa comprando un medio pero prometiendo no tocarlo.

Esta adquisición marca la entrada oficial de OpenAI al mundo de los medios de comunicación.

Algunos lo llaman una "misión secundaria" (side quest, como dice Ars Technica), pero puede ser mucho más estratégico de lo que parece.

Controlar la narrativa en la era de la IA no es solo sobre tecnología, es sobre quién cuenta la historia.

La pregunta del millón: ¿Es este el primer paso de OpenAI hacia un ecosistema de medios propio? ¿O simplemente quieren asegurarse de que las conversaciones más influyentes sobre IA tengan un hogar amigable? El tiempo lo dirá, pero una cosa es segura: la línea entre empresas tech y empresas de medios se está difuminando rápidamente.

Y mientras tanto, el resto de Silicon Valley está tomando notas.

Si OpenAI está comprando podcasts, ¿qué sigue? ¿Google comprando un periódico? ¿Meta lanzando su propia cadena de TV? Bienvenidos a 2026, donde las empresas de IA también son productoras de contenido.

La siguiente gran compra será DIGITALIZADOS…

Noticias Express

🎬 Google Vids se vuelve profesional: La herramienta de video de Google ahora integra Veo y Lyria, sus modelos más potentes de IA, además de avatares dirigibles por IA. Leer mas

🎵 ElevenLabs ya no es solo voz: La empresa lanza ElevenMusic, su app para crear y remezclar canciones con prompts de texto, expandiendo su territorio más allá de la clonación de voz. Leer mas

💊 IA prescribiendo medicamentos psiquiátricos: Utah autoriza a un sistema de IA a prescribir fármacos psiquiátricos sin intervención médica directa, la segunda vez que esto ocurre en EE.UU. Leer mas

🔒 El "modo incógnito" de Perplexity bajo fuego: Una demanda acusa a Perplexity, Google y Meta de compartir millones de conversaciones privadas para aumentar ingresos publicitarios. Leer mas

🚗 ChatGPT llega a CarPlay: OpenAI lanza por sorpresa el modo de voz de ChatGPT para Apple CarPlay, convirtiendo tu asistente de IA en copiloto de verdad. Leer mas

Tesla dice adiós al Model S y X: Los días finales de estos modelos emblemáticos están aquí mientras Tesla apuesta todo al Cybercab y la producción masiva del robot Optimus. Leer mas

💡 Estrategia del día: Cómo moderar contenido generado por IA (sin volverse loco)

📅 El mito común: "La moderación de contenido de IA es igual que la moderación tradicional, solo que más rápida."

💡 La realidad: Moonbounce acaba de levantar $12 millones para resolver un problema que muchos ignoran: convertir políticas de moderación en comportamiento predecible de IA. El ex-insider de Facebook detrás de esto sabe algo que tú necesitas entender: la IA no solo necesita reglas, necesita un "motor de control" que traduzca tus políticas en acciones consistentes.

🚀 La propuesta: En lugar de moderar contenido después de que la IA lo genera (reactivo), necesitas un sistema que controle qué puede generar desde el inicio (proactivo).

Tres pasos para implementar moderación preventiva en tus sistemas de IA:

1. Define políticas como código, no como documentos: Convierte cada regla de moderación en parámetros específicos que la IA pueda interpretar matemáticamente. "No contenido ofensivo" es vago; "puntuación de toxicidad <0.3 según modelo X" es accionable.

2. Implementa capas de validación pre-generación: Antes de que tu IA muestre algo al usuario, pásalo por filtros automáticos basados en tus políticas. Es como un firewall, pero para contenido.

3. Crea un loop de retroalimentación continuo: Cada vez que un humano corrija o apruebe contenido, alimenta esa decisión de vuelta al sistema para afinar los parámetros.

Prompt reutilizable para crear políticas de moderación claras:

"Actúa como un especialista en moderación de contenido. Toma esta política general: [INSERTA TU POLÍTICA] y conviértela en 5 reglas específicas y medibles que un sistema de IA pueda evaluar automáticamente. Para cada regla, define: 1) El criterio exacto, 2) El umbral numérico cuando aplique, 3) Un ejemplo de contenido que pasa y otro que no pasa."

🧠 Dato curioso: El primer chatbot de la historia, ELIZA (1966), fue diseñado para simular a un psicoterapeuta. Irónicamente, 60 años después, estamos usando IA para prescribir medicamentos psiquiátricos reales. La tecnología da vueltas completas de formas impredecibles.

Pregunta rápida para terminar: Si pudieras tener ChatGPT integrado en cualquier lugar de tu vida diaria, ¿dónde sería?

1. 🏃 En tu smartwatch mientras haces ejercicio

2. 🍳 En tu cocina mientras preparas comidas

3. 🛁 En tu espejo del baño durante tu rutina matutina

Respóndeme este email, me encanta leer tus ideas.

Nos vemos el lunes con más tech 🚀

Reply

Avatar

or to participate

Seguir leyendo