Sam Altman, director ejecutivo de OpenAI, intenta mediar en un conflicto creciente entre la empresa de IA Anthropic y el Pentágono de Estados Unidos. En una nota interna a los empleados, menciona que OpenAI está trabajando en un posible acuerdo con el Departamento de Defensa para permitir modelos de IA en entornos confidenciales.

Al mismo tiempo, Altman establece límites claros: no habrá vigilancia masiva ni armas autónomas letales. La apuesta es alta: se trata del futuro de la inteligencia artificial en el campo de batalla.

Sam Altman busca un compromiso con el Pentágono

Según The Wall Street Journal, OpenAI está explorando si sus modelos pueden utilizarse en sistemas militares clasificados sin comprometer los principios de seguridad de la empresa. Aún no se ha firmado ningún acuerdo y las negociaciones podrían fracasar.

En el memo, Altman expresa que OpenAI desea un contrato que permita todas las aplicaciones legales, excepto aquellas que sean ilegales o inadecuadas para el uso en la nube. Menciona explícitamente la vigilancia masiva interna y las armas ofensivas autónomas.

Altman subraya: “Siempre hemos creído que la IA no debe usarse para la vigilancia masiva ni para armas letales autónomas, y que las personas deben seguir participando en decisiones cruciales.”

Con ello, se alinea con la posición de Anthropic, que previamente se negó a poner su modelo Claude a disposición bajo la condición amplia del Pentágono de que la IA debe poder usarse para “todos los fines legales”.

Anthropic versus Pentágono: una lucha por el control

El conflicto surgió cuando Dario Amodei, director de Anthropic, se mantuvo firme en condiciones estrictas para el uso militar de la IA. El Pentágono no quiere que las empresas privadas determinen cómo el gobierno utiliza la tecnología para la seguridad nacional, especialmente en la carrera tecnológica con China.

Al mismo tiempo, el sector de la IA teme que una interpretación demasiado amplia de “fines legales” pueda establecer precedentes peligrosos. Dentro de OpenAI y Google, incluso los empleados firmaron una carta instando a sus directivas a resistir la presión del Departamento de Defensa.

Es notable que la empresa xAI de Elon Musk sí aceptó la exigencia de que su modelo se utilice para todos los fines legales. Sin embargo, ese modelo no se considera una alternativa completa a la tecnología de Anthropic.

¿Qué está en juego para el sector de la IA?

ChatGPT ya está disponible en sistemas militares no clasificados. Según fuentes, las conversaciones para permitir su uso en entornos confidenciales han acelerado su ritmo.

OpenAI, según personas cercanas, busca integrar garantías técnicas además de acuerdos contractuales. Esto incluye limitar los modelos de IA a entornos en la nube para evitar su integración directa en armas autónomas. También quiere emplear personal con acreditación de seguridad para supervisar su uso.

Altman enfatiza que el conflicto ya no es solo entre Anthropic y el Pentágono. “Es un tema para todo el sector,” escribe, expresando su deseo de ayudar a desescalar la situación.

La posibilidad de llegar a un acuerdo sigue siendo incierta. Sin embargo, es evidente que el resultado podría tener repercusiones en toda la industria de la IA. Por primera vez, las principales empresas de IA parecen estar estableciendo límites sobre cómo los gobiernos pueden utilizar su tecnología.

Anthropic acusa a empresas chinas de IA de robo masivo de datos

Anthropic acusa a empresas chinas de IA de robo masivo de datos

Anthropic acusa a empresas chinas de IA de robo masivo de datos
Secretos comerciales de Google transferidos a Irán: tres ingenieros tecnológicos acusados
Agentes de IA demasiado caros: los millonarios tecnológicos cuestionan a los trabajadores digitales
Más Tech news

Más leídos

El precio de XRP podría duplicarse con la solicitud de ETF de BlackRock, según analista
Fundador de Wikipedia considera que Bitcoin ha fracasado y predice una caída por debajo de 10,000 dólares
Logan Paul vende tarjeta Pokémon por 16 millones de dólares
Newsbit
Ver app
Ver