Altman critica demanda de The New York Times en entrevista tensa
El CEO de OpenAI defendió el uso de datos privados de usuarios. El conflicto surgió durante un podcast en vivo en San Francisco, donde también abordó la competencia con Meta y la relación con Microsoft.
«No borraremos los chats aunque lo pida el usuario»
Sam Altman, CEO de OpenAI, arremetió contra la demanda de The New York Times por el uso de sus artículos para entrenar modelos de IA. «Nos piden conservar registros de usuarios incluso en modo privado«, denunció. La discusión dominó los primeros minutos del evento, organizado por los periodistas Kevin Roose (The New York Times) y Casey Newton (Platformer).
Contexto legal favorable
El tono de Altman pudo deberse a un fallo reciente a favor de Anthropic, competidor de OpenAI, donde un juez avaló el uso de libros protegidos por derechos de autor para entrenar IA. Esto podría influir en casos similares contra Google y Meta.
Meta, Microsoft y la lucha por el talento
Altman reveló que Mark Zuckerberg ofrece hasta 100 millones de dólares para fichar empleados de OpenAI. Brad Lightcap, COO de la empresa, bromeó: «Creo que [Zuckerberg] cree que es superinteligente«. Sobre Microsoft, Altman admitió «puntos de tensión» en la relación, aunque la calificó de «valiosa».
IA y salud mental: un desafío pendiente
Al ser preguntado por casos de usuarios con problemas psicológicos que usan ChatGPT para temas sensibles, Altman reconoció limitaciones: «Aún no sabemos cómo hacer llegar advertencias a personas al borde de una crisis«. La compañía corta conversaciones riesgosas y deriva a servicios profesionales.
Silicon Valley vs. medios: la grieta se amplía
El conflicto entre OpenAI y The New York Times refleja la creciente tensión entre tecnológicas y editoriales. Desde 2023, múltiples demandas acusan a empresas de IA de usar contenido protegido sin compensación, alegando que devalúa su trabajo.
Altman sale al ruedo, pero la pelea continúa
La entrevista mostró a una OpenAI enfrascada en batallas legales y de reclutamiento, mientras intenta gestionar los riesgos éticos de su tecnología. El fallo sobre Anthropic podría marcar un precedente clave para el futuro de la IA generativa.