OpenAI ha llegado a un acuerdo con el Departamento de Defensa de Estados Unidos para implementar sus modelos de inteligencia artificial en redes militares clasificadas. Este acuerdo se produce tras la orden de la Casa Blanca a las agencias federales de detener el uso de la tecnología de la competencia, Anthropic.

El Pentágono considera a Anthropic un riesgo para la seguridad nacional

El CEO Sam Altman anunció el acuerdo a través de X. Según él, los modelos de OpenAI estarán disponibles dentro de la red clasificada del Pentágono. Destacó que el Departamento estaba dispuesto a operar dentro de los límites establecidos por la empresa.

El anuncio se produjo después de una decisión del secretario de Defensa, Pete Hegseth, de calificar a Anthropic como un «riesgo para la seguridad nacional dentro de la cadena de suministro», una calificación que generalmente se utiliza para adversarios extranjeros. Desde entonces, los contratistas de defensa deben declarar que no utilizan los modelos de Anthropic.

El presidente Donald Trump también ordenó a todas las agencias federales detener de inmediato el uso de la tecnología de Anthropic. Las organizaciones que ya dependen de ella tienen un período de transición de seis meses.

Anthropic se negó a desarrollar armas autónomas

Anthropic fue anteriormente la primera empresa de IA en proporcionar modelos dentro del entorno clasificado del Pentágono, bajo un contrato de 200 millones de dólares firmado en julio. Sin embargo, la colaboración se estancó.

La empresa buscaba garantías de que su software no se usaría para armas autónomas o vigilancia masiva doméstica. El Departamento no pudo garantizar esto y mantuvo su intención de un uso amplio para todos los fines militares legales.

Anthropic expresó estar «profundamente apenada» y anunció que impugnará la medida legalmente. Según la empresa, esta decisión puede afectar futuras negociaciones de las empresas tecnológicas con las agencias gubernamentales.

OpenAI afirma aplicar las mismas restricciones

Altman afirmó que OpenAI aplica restricciones similares. La vigilancia masiva doméstica está prohibida, y se requiere responsabilidad humana en decisiones sobre el uso de la fuerza, incluidos los sistemas de armas automatizados. No se han revelado más detalles sobre la colaboración.

Tras el anuncio, surgieron críticas en las redes sociales. El político estadounidense Christopher Hale escribió que había cancelado ChatGPT y se había cambiado a Anthropic. Otros hicieron referencia a posturas previas de OpenAI donde la empresa afirmaba no facilitar nunca aplicaciones militares.

Goldman Sachs identifica oportunidades fuera de la tecnología: estas son sus tres áreas favoritas

Goldman Sachs identifica oportunidades fuera de la tecnología: estas son sus tres áreas favoritas

Goldman Sachs identifica oportunidades fuera de la tecnología: estas son sus tres áreas favoritas
El precio de la plata se dispara un 6% tras datos de inflación en EE.UU., el oro sube un 1%
Los precios de los productores en EE.UU. suben el doble de lo esperado: se aleja la rebaja de tasas
Más Bolsa news

Más leídos

El precio de XRP podría duplicarse con la solicitud de ETF de BlackRock, según analista
Fundador de Wikipedia considera que Bitcoin ha fracasado y predice una caída por debajo de 10,000 dólares
Logan Paul vende tarjeta Pokémon por 16 millones de dólares
Newsbit
Ver app
Ver