Así es trabajar en OpenAI, según un exingeniero: caos, noches sin dormir y estar muy pendiente de X

Publicado el 16/07/2025 por Diario Tecnología
Artículo original

Así es trabajar en OpenAI, según un exingeniero: caos, noches sin dormir y estar muy pendiente de X

Cuando un ingeniero con la trayectoria de Calvin French-Owen, cofundador de la startup Segment decide abandonar OpenAI, muchos podrían pensar en muchas polémicas internas. Pero tras relatar su experiencia trabajando en esta gran compañía de inteligencia artificial, ha dejado claro que no hubo ningún 'drama'.

En una interesante publicación en su blog, este ingeniero, que trabajó durante un año en el desarrollo de Codex (el agente de codificación que compite con herramientas como Cluade Code de Anthropic), ha desvelado cómo es realmente la cultura de trabajo en una de las compañías más importantes de la actualidad. Y aunque algunas cosas pueden ser predecibles, otras son muy sorprendentes.

Un crecimiento explosivo (y el caos que conlleva)

Según French-Owen, OpenAI pasó de 1.000 a 3.000 empleados en el año que estuvo allí. Un crecimiento tan meteórico tiene consecuencias directas y, como era de esperar, genera caos. Lo relata de esta manera:

Todo se rompe cuando escalas tan rápido: la comunicación como empresa, las estructuras jerárquicas, cómo lanzar productos, cómo gestionar y organizar a la gente, los procesos de contratación, etc

Este caos se materializa en diferentes aspectos de la empresa a ojos de este desarrollador. Y es que a pesar de su tamaño, la empresa mantiene una estructura ágil donde los empleados tienen autonomía para actuar. Pero el problema que ve es que muchos equipos acaban trabajando en lo mismo.

Jonathan Kemper Uf3vfhv04sa Unsplash

Calidad de código desigual. Este es otro problema que se deja ver en las entrañas de OpenAI. La razón es muy sencilla: en la plantilla hay una mezcla de veteranos del sector con 'novatos' que apenas tienen experiencia. Esto, combinado con la flexibilidad de Python, ha convertido el repositorio de código en "una especie de vertedero". Esto puede hacer que las cosas se puedan romper con frecuencia.

El problema de las grandes empresas: dormir poco

A pesar de su valoración y tamaño, OpenAI parece no ser consciente de que ya es un gigante. La cultura interna se asemeja mucho a la de los primeros años de Facebook con su lema "muévete rápido y rompe cosas". De hecho, la compañía está llena de antiguos empleados de Meta y funcionan casi enteramente por Slack. Como una compañía pequeña.

French-Owen pone como ejemplo el lanzamiento de Codex. Un equipo reducido (ocho ingenieros, cuatro investigadores, dos diseñadores, personal de marketing y un product manager) construyó y lanzó el producto desde cero en solo siete semanas, sin apenas dormir.

"Nunca he visto un producto conseguir una adopción tan inmediata simplemente por aparecer en una barra lateral izquierda, pero ese es el poder de ChatGPT" ha detallado de manera sorpresiva al ver cómo la gente comenzó a usarlo tras su lanzamiento.

OpenAI se fija más en X de lo que pensamos

Ser el centro de la atención mundial tiene un precio. OpenAI vive en una 'pecera' bajo el escrutinio constante del público, los consumidores y también los gobiernos como el de Estados Unidos. Esto ha fomentado una cultura interna de secretismo que tiene como objetivo evitar que nada de lo que se esté trabajando en ese momento se filtre. O al menos tratar de controlarlo.

Sin embargo, esta coraza tiene una curiosa puerta trasera: X. La compañía está extremadamente atenta a lo que ocurre en la red social. Si una publicación se vuelve viral, el equipo de OpenAI lo verá, y posiblemente, actuará en consecuencia. French-Owen no dudó en compartir una broma que le hizo un amigo:

"Un amigo bromeó: 'esta compañía funciona a base de vibes de Twitter'"

Quizás la revelación más importante de French-Owen es la que combate la percepción de que a OpenIA no le preocupa la seguridad tanto como debería. Mientras que muchos críticos y ex-empleados se centran en los riesgos teóricos para la humanidad, el ingeniero asegura que internamente el foco está en la seguridad práctica y tangible:

"Se presta mucha más atención a problemas prácticos como el discurso de odio, el abuso, la manipulación de sesgos políticos, la creación de armas biológicas, las autolesiones o la inyección de prompts"

Aunque lógicamente los riesgos a largo plazo están también cubiertos por un equipo dedicado. Pero la realidad es que muchas personas piden muchas cosas a diario a ChatGPT, desde consejos médicos hasta terapia psicológica. Y esto es un gran problema.

Imágenes | Jonathan Kemper Jonathan Kemper

En Genbeta | Si quieres usar lo último en IA, tener una VPN se ha vuelto obligatorio. Y nada apunta a que cambie pronto


utm_campaign=16_Jul_2025"> José Alberto Lizana .