Newsbit
Ver app
Ver

La empresa de inteligencia artificial Anthropic, creadora del chatbot Claude, ha presentado una demanda contra el Departamento de Defensa de Estados Unidos. El Pentágono pretende incluir a Anthropic en una lista negra porque la empresa se niega a eliminar las restricciones de su IA. Anthropic establece un límite claro: no a las armas autónomas ni a la vigilancia de ciudadanos estadounidenses.

Pentágono sanciona a Anthropic por negativa

El secretario de Defensa, Pete Hegseth, incluyó formalmente a Anthropic en una lista negra de la cadena de seguridad nacional la semana pasada. Esto limita el uso de la tecnología de la empresa por parte de las agencias gubernamentales estadounidenses.

La razón: Anthropic se niega a modificar sus llamados guardrails. La empresa tiene restricciones incorporadas que evitan que su IA se utilice para armas autónomas o vigilancia masiva de ciudadanos.

Según el Pentágono, las empresas privadas no deberían dictar al ejército cómo utilizar la tecnología. La legislación estadounidense establece lo que está permitido, no las condiciones de una empresa de IA, según Defensa.

Anthropic sostiene que la medida es ilegal y viola los derechos fundamentales.

Trump detiene cooperación, OpenAI ocupa el espacio

El presidente Trump ordenó detener por completo la cooperación con Anthropic. Habrá un período de transición de seis meses para finalizar los proyectos en curso. Esto afecta gravemente a Anthropic: el Pentágono cerró el año pasado acuerdos de hasta 200 millones de dólares con varias empresas de IA, incluidas Anthropic, OpenAI y Google.

La sincronización de lo que ocurrió después es reveladora. Poco después de la decisión, OpenAI anunció que su tecnología se utilizará más ampliamente dentro de la red de defensa estadounidense. El CEO Sam Altman dijo que OpenAI comparte el principio de que siempre debe haber supervisión humana en los sistemas de armas, pero la empresa claramente no establece los mismos límites estrictos que Anthropic.

¿Quién decide cómo se utiliza la IA en la guerra?

La demanda plantea una pregunta fundamental. ¿Pueden las empresas tecnológicas establecer límites a cómo se utiliza militarmente su propia tecnología? ¿O es el gobierno quien lo decide?

Anthropic considera que los sistemas de IA actuales no son lo suficientemente confiables para armas totalmente autónomas. El riesgo de escaladas incontroladas es demasiado grande. La empresa también traza una línea clara en la vigilancia interna: usar IA para monitorear a ciudadanos estadounidenses es, según Anthropic, una violación de derechos fundamentales.

El Pentágono busca máxima flexibilidad y considera que una empresa privada no debe tomar esa decisión. El caso, presentado en un tribunal federal en California, podría determinar cuánta autoridad mantienen las empresas tecnológicas sobre su propia tecnología una vez que esta llega a manos militares.

Ministro iraní viaja a Rusia ante estancamiento de negociaciones con EE. UU.

Ministro iraní viaja a Rusia ante estancamiento de negociaciones con EE. UU.

Ministro iraní viaja a Rusia ante estancamiento de negociaciones con EE. UU.
El precio de la plata se desplomó un 50% tras un gran auge: ¿sigue siendo una buena inversión?
Semana crucial para Wall Street: seis gigantes tecnológicos presentan resultados
Más Bolsa news

Más leídos

Empleados de Kraken fotografiaron datos de clientes: la criptoempresa está siendo extorsionada
Videollamadas falsas y phishing con IA: así hackeó Corea del Norte la cripto billetera Zerion
Google invierte 185 mil millones de dólares en nueva generación de IA