OpenAI quiere pagar la factura del caos que ella misma está creando
El 6 de abril de 2026, OpenAI publicó un documento de 13 páginas titulado Industrial Policy for the Intelligence Age: Ideas to Keep People First. En él, la compañía que lidera el desarrollo hacia la superinteligencia propone aumentar los impuestos sobre las ganancias de capital, gravar los ingresos generados por trabajo automatizado, pilotar una semana laboral de cuatro días sin recorte salarial y crear un fondo de riqueza pública para que todos los ciudadanos estadounidenses tengan participación en el crecimiento económico de la IA. No es poca cosa. Y no viene de un senador progresista ni de un think tank sindical: viene de la empresa que, por su propia admisión, está construyendo sistemas capaces de superar a los humanos más inteligentes incluso cuando esos humanos están asistidos por IA.
La paradoja es estructural, no accidental. Y desde el diseño de portafolio corporativo, revela algo más incómodo que una contradicción política.
El documento que nadie esperaba de Silicon Valley
Lo más notable del texto no es su contenido, sino su autor. OpenAI no es una ONG ni un laboratorio académico. Es una compañía que compite directamente por capturar el valor económico que sus propias propuestas de política pública intentarían redistribuir. El CEO Sam Altman reconoce en el documento haber conversado con un senador republicano de alto rango que le señaló algo que pocas veces se escucha en ese espectro político: el capitalismo ha dependido siempre de un equilibrio entre el trabajo y el capital, y la IA está rompiendo ese equilibrio de forma acelerada e irreversible.
Esa frase no es retórica. Es un diagnóstico operativo sobre lo que ocurre cuando una tecnología desplaza la fuente de ingresos de la mayoría mientras concentra la rentabilidad en quienes poseen la infraestructura que la opera. El papel de OpenAI propone responder con una reconfiguración del sistema fiscal: menos dependencia de los impuestos sobre la nómina —vulnerables al desplazamiento laboral— y mayor carga sobre las ganancias corporativas, las plusvalías en los tramos más altos y los retornos sostenidos impulsados por automatización. Además, incentivos para que las empresas retengan y recapaciten trabajadores, mejoren coberturas de salud y jubilación, y piloten la semana de cuatro días vinculada a ganancias de productividad.
No es una propuesta menor. Y el CEO de JPMorgan Chase, Jamie Dimon, llegó a conclusiones parecidas por su cuenta: predice que la IA reducirá la semana laboral a tres días y medio y ha pedido un sistema de incentivos públicos y privados para la reconversión de trabajadores y la jubilación anticipada. Cuando los líderes de los dos sectores más influyentes del capitalismo moderno —tecnología y finanzas— convergen en el mismo diagnóstico, vale la pena tomarse en serio la mecánica detrás de la propuesta.
La estrategia de portafolio detrás de la filantropía política
Visto desde afuera, esto parece altruismo corporativo. Visto desde el diseño organizacional, es algo más calculado: una maniobra de gestión de riesgos sobre el portafolio de negocios a largo plazo.
OpenAI sabe que su modelo de ingresos actual depende de que las empresas y los individuos adopten sus herramientas masivamente. Pero esa adopción masiva tiene un límite político: si el desplazamiento laboral genera una reacción legislativa descontrolada, el resultado puede ser regulación punitiva, aranceles sobre servicios de IA o restricciones de uso que ninguna empresa del sector querría. Al proponer ella misma los términos de la redistribución, OpenAI intenta posicionarse como el actor razonable que define el perímetro de la conversación antes de que lo hagan otros.
Esto tiene una lógica de portafolio muy clara. El negocio central de OpenAI —sus modelos comerciales, las licencias empresariales, las APIs— es hoy el motor de caja que financia la carrera hacia la superinteligencia. Proteger ese motor implica evitar que el contexto político lo ahogue. La propuesta de política pública funciona, en ese sentido, como un escudo regulatorio para el núcleo de ingresos: si Altman ya está pidiendo que graven a las empresas como la suya, es mucho más difícil acusarla de evadir su responsabilidad social.
El problema es que proponer un impuesto sobre las ganancias del capital es fácil cuando tu empresa aún no ha generado las ganancias que ese impuesto gravaría. OpenAI sigue siendo una compañía en etapa de inversión masiva, no un generador estable de flujo de caja. La propuesta tiene un costo político presente casi nulo para sus actuales accionistas y un beneficio narrativo inmediato considerable. Eso no la hace hipócrita necesariamente, pero sí incompleta como arquitectura fiscal.
La semana de cuatro días como experimento de portafolio, no como concesión laboral
Hay un elemento en el documento que merece análisis separado: la propuesta de pilotar una semana laboral de cuatro días sin recorte salarial, vinculada a los aumentos de productividad que genera la IA. Desde el papel, suena a concesión laboral generosa. Desde el diseño de incentivos corporativos, es otra cosa.
Si una empresa adopta IA y sus empleados producen el equivalente de cinco días en cuatro, el cuarto día libre no le cuesta nada al empleador en términos de output. Le cuesta en estructura salarial fija solo si esa productividad no se materializa. Por eso el documento no propone la semana de cuatro días como mandato universal, sino como piloto condicionado a métricas de productividad. Es un experimento de validación, no una concesión. La empresa retiene al trabajador, reduce la fricción política y mantiene o incrementa el output. Si el piloto falla, lo descarta. Si funciona, lo escala.
Eso es exactamente cómo debería ejecutarse una innovación interna bien diseñada: con autonomía limitada, métricas de aprendizaje propias y sin extender los criterios de evaluación de la operación madura al experimento. El problema es que la mayoría de las empresas que adoptarán estas recomendaciones —si alguna vez se convierten en política— no tienen la infraestructura de IA ni la capacidad analítica para medir ese intercambio con precisión. Para ellas, el piloto puede convertirse en un costo sin retorno medible.
El documento de OpenAI asume implícitamente que todas las empresas van a capturar valor de la IA al ritmo que la propia OpenAI proyecta. Esa es una suposición de portafolio que no está validada por el mercado.
El portafolio de OpenAI tiene un problema de legitimidad, no de ideas
Las propuestas del documento no son técnicamente descabelladas. Gravar el capital en lugar del trabajo cuando el trabajo está siendo automatizado tiene una lógica fiscal coherente. Crear fondos de riqueza pública con retornos de la IA es una idea que economistas de distintos espectros han explorado durante años. La recapacitación masiva de trabajadores es una necesidad operativa, no solo ética.
Pero hay un problema de gobernanza en el diseño de todo esto. OpenAI es simultáneamente el desarrollador de la tecnología disruptiva, el autor del diagnóstico sobre el daño que causa y el proponente del remedio regulatorio. Esa concentración de roles en un solo actor —sin contrapesos institucionales independientes que validen el análisis— es exactamente el tipo de cuello de botella organizacional que debilita cualquier propuesta de política pública, independientemente de sus méritos técnicos.
La administración Trump firmó en diciembre de 2025 una orden ejecutiva para reducir la regulación estatal sobre la IA. OpenAI opera en ese contexto desregulatorio mientras publica un blueprint para regularse a sí misma y a sus competidores. El enmarcamiento bipartidista del documento —citando tanto a republicanos como construyendo consenso con figuras del establishment financiero como Dimon— sugiere una lectura política sofisticada del momento. Pero ninguna habilidad narrativa resuelve el problema de fondo: una empresa no puede ser al mismo tiempo el principal beneficiario de un proceso y el árbitro más confiable de sus consecuencias.
La viabilidad del portafolio de largo plazo de OpenAI depende menos de sus propuestas fiscales y más de si el mercado y los reguladores aceptan ese rol dual. Hasta ahora, no hay señales claras de que lo vayan a hacer.










