DeepSeek marcó un punto de inflexión en OpenAI: ahora refuerza su seguridad mientras GPT‑5 asoma en el horizonte, según FT

Publicado el 08/07/2025 por Diario Tecnología
Artículo original

DeepSeek marcó un punto de inflexión en OpenAI: ahora refuerza su seguridad mientras GPT‑5 asoma en el horizonte, según FT

La irrupción de DeepSeek en el mercado no pasó desapercibida. El 20 de enero de 2025 puso en circulación su chatbot gratuito, y en cuestión de días escaló hasta lo más alto del ranking en la App Store estadounidense, superando a ChatGPT. El impacto fue tal que incluso afectó directamente al valor bursátil de NVIDIA.

Este éxito no tardó en generar fricciones. Hacia finales de ese mismo mes, OpenAI lanzó una acusación seria: la startup china habría usado sus modelos cerrados para entrenar su alternativa de código abierto. En declaraciones a Financial Times, la compañía dirigida por Sam Altman afirmó tener evidencia de un proceso de destilación que apuntaba a su rival chino.

OpenAI refuerza sus medidas de seguridad

Desde entonces han pasado casi seis meses. Y si algo ha quedado claro es que OpenAI no dejó pasar el episodio por alto. Según el mencionado periódico británico, la compañía inició una revisión a fondo de sus prácticas internas y reforzó sus medidas de seguridad para reducir el riesgo de filtraciones o lo que internamente ya se refieren como “espionaje corporativo”.

“El episodio motivó a OpenAI a ser mucho más riguroso”, dijo alguien cercano al equipo de seguridad. La compañía estadounidense ha intensificado sus esfuerzos para blindarse por dentro: no solo ha ampliado su plantilla en ciberseguridad, también ha revisado sus protocolos y endurecido sus políticas internas.

Entre las medidas más relevantes está el aislamiento de buena parte de su tecnología patentada, que ahora se gestiona en entornos fuera de línea o separados del resto de sus redes. También ha implementado controles biométricos de acceso a sus oficinas, reforzado la seguridad física de sus centros de datos y aplica una política de "salida denegada por defecto" para proteger los pesos de sus modelos.

Chatgpt

Si te preguntas en qué consiste esta última medida, la respuesta es bastante simple: implica que toda transferencia de datos críticos queda bloqueada por norma general, y solo se permite si ha sido autorizada de forma expresa. Así, cualquier intento de extraer los modelos —o partes sensibles de ellos— queda automáticamente denegado salvo que se habilite manualmente, reduciendo al mínimo el riesgo de fuga.

Este blindaje llega en un momento clave para la compañía. La carrera por el liderazgo en inteligencia artificial se ha acelerado, y OpenAI ya no es vista como una fuerza inalcanzable. La competencia se estrecha, el talento se encarece —Meta ha empezado a pagar cifras desorbitadas por sus ingenieros— y todas las miradas están puestas en la llegada de GPT‑5.

Aunque OpenAI no ha confirmado la fecha exacta, Sam Altman ha dicho que el nuevo modelo está en camino y que será “una gran evolución” respecto a lo que conocemos. Todo apunta a que GPT‑5 unificará lo mejor de las versiones anteriores, con mayor capacidad de razonamiento, mejor personalización, y, presumiblemente, una ventana de contexto más amplia. La presión por lanzarlo sin errores, en un entorno cada vez más competitivo, es máxima.

Imágenes | Solen Feyissa | Xataka con Grok

En Xataka | La rencilla de Huawei y Alibaba amenaza con transformarse en una auténtica guerra: la de la IA entre compañías chinas

utm_campaign=08_Jul_2025"> Javier Marquez .