Newsbit
Ver app
Ver

OpenAI ha llegado a un acuerdo con el Departamento de Defensa de Estados Unidos para implementar sus modelos de inteligencia artificial en redes militares clasificadas. Este acuerdo se produce tras la orden de la Casa Blanca a las agencias federales de detener el uso de la tecnología de la competencia, Anthropic.

El Pentágono considera a Anthropic un riesgo para la seguridad nacional

El CEO Sam Altman anunció el acuerdo a través de X. Según él, los modelos de OpenAI estarán disponibles dentro de la red clasificada del Pentágono. Destacó que el Departamento estaba dispuesto a operar dentro de los límites establecidos por la empresa.

El anuncio se produjo después de una decisión del secretario de Defensa, Pete Hegseth, de calificar a Anthropic como un «riesgo para la seguridad nacional dentro de la cadena de suministro», una calificación que generalmente se utiliza para adversarios extranjeros. Desde entonces, los contratistas de defensa deben declarar que no utilizan los modelos de Anthropic.

El presidente Donald Trump también ordenó a todas las agencias federales detener de inmediato el uso de la tecnología de Anthropic. Las organizaciones que ya dependen de ella tienen un período de transición de seis meses.

Anthropic se negó a desarrollar armas autónomas

Anthropic fue anteriormente la primera empresa de IA en proporcionar modelos dentro del entorno clasificado del Pentágono, bajo un contrato de 200 millones de dólares firmado en julio. Sin embargo, la colaboración se estancó.

La empresa buscaba garantías de que su software no se usaría para armas autónomas o vigilancia masiva doméstica. El Departamento no pudo garantizar esto y mantuvo su intención de un uso amplio para todos los fines militares legales.

Anthropic expresó estar «profundamente apenada» y anunció que impugnará la medida legalmente. Según la empresa, esta decisión puede afectar futuras negociaciones de las empresas tecnológicas con las agencias gubernamentales.

OpenAI afirma aplicar las mismas restricciones

Altman afirmó que OpenAI aplica restricciones similares. La vigilancia masiva doméstica está prohibida, y se requiere responsabilidad humana en decisiones sobre el uso de la fuerza, incluidos los sistemas de armas automatizados. No se han revelado más detalles sobre la colaboración.

Tras el anuncio, surgieron críticas en las redes sociales. El político estadounidense Christopher Hale escribió que había cancelado ChatGPT y se había cambiado a Anthropic. Otros hicieron referencia a posturas previas de OpenAI donde la empresa afirmaba no facilitar nunca aplicaciones militares.

S&P 500 y Nasdaq alcanzan máximos históricos: el mercado confía en el fin cercano de la guerra con Irán

S&P 500 y Nasdaq alcanzan máximos históricos: el mercado confía en el fin cercano de la guerra con Irán

S&P 500 y Nasdaq alcanzan máximos históricos: el mercado confía en el fin cercano de la guerra con Irán
¿Quién sabía lo que iba a decir Trump? La CFTC investiga operaciones sospechosas en el mercado petrolero
Janet Yellen critica duramente a Trump: presión sobre la Fed es como de una ‘república bananera’
Más Bolsa news

Más leídos

Los criptopirateos se duplican en marzo: más de 52 millones de dólares robados en un mes
Piratas informáticos norcoreanos continúan azotando el sector cripto: 168 millones robados en el primer trimestre
Irán rechaza la tregua; Trump mantiene el ultimátum: se acerca la fecha límite