La empresa de inteligencia artificial Anthropic ha afirmado ser el objetivo de ataques de «destilación» a gran escala por parte de tres compañías chinas de inteligencia artificial. Según la compañía, DeepSeek, Moonshot y MiniMax realizaron más de 16 millones de interacciones con el chatbot Claude a través de unos 24.000 cuentas fraudulentas.

16 millones de interacciones con Claude

En una entrada de blog, Anthropic afirma que las tres empresas recopilaron sistemáticamente datos de Claude, su modelo de lenguaje a gran escala, mediante decenas de miles de cuentas falsas que generaron más de 16 millones de interacciones.

El objetivo sería la llamada destilación, una técnica de entrenamiento en la que un modelo más pequeño o menos potente aprende de la salida de un modelo más fuerte. Es como si un estudiante copiara las respuestas del maestro para volverse más inteligente.

“La destilación es un método de entrenamiento común y legítimo. Los principales laboratorios de inteligencia artificial destilan rutinariamente sus propios modelos para crear versiones más pequeñas y económicas para sus clientes,” escribe Anthropic.

“Sin embargo, la destilación también puede usarse con fines ilícitos: los competidores podrían emplearla para adquirir capacidades avanzadas de otros laboratorios en una fracción del tiempo y del coste que les llevaría desarrollarlas por sí mismos,” añade la empresa.

Según Anthropic, las campañas se centraron en las funciones más distintivas de Claude, como el razonamiento agente, la programación, el análisis de datos y la visión por computadora.

Anthropic es un desarrollador de inteligencia artificial estadounidense y un competidor directo de OpenAI. A principios de este mes, Anthropic volvió a ser noticia con una ronda de financiación planificada de más de 20.000 millones de dólares, lo que podría elevar su valoración a aproximadamente 350.000 millones de dólares.

Aumentan las preocupaciones geopolíticas

Las tres empresas mencionadas están ubicadas en China y tienen valoraciones multimillonarias. DeepSeek es la más conocida a nivel internacional.

Anthropic afirma haber identificado a las partes involucradas mediante la correlación de direcciones IP, metadatos de solicitudes y características de infraestructura. También se habría observado un comportamiento similar en sus plataformas por parte de socios de la industria.

La empresa extiende el problema más allá de la propiedad intelectual. “Los laboratorios extranjeros que destilan modelos estadounidenses pueden luego alimentar estas capacidades no protegidas a sistemas militares, de inteligencia y de vigilancia, permitiendo a gobiernos autoritarios utilizar inteligencia artificial avanzada para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva,” según Anthropic.

Son palabras contundentes. Se teme que la avanzada inteligencia artificial estadounidense termine en sistemas militares o de vigilancia a través de vías indirectas.

Anthropic dice que está fortaleciendo su seguridad, incluyendo controles de acceso más estrictos y mejores sistemas de detección. También insta a las empresas tecnológicas estadounidenses, a los proveedores de servicios en la nube y a los responsables políticos a tomar medidas conjuntas.

Secretos comerciales de Google transferidos a Irán: tres ingenieros tecnológicos acusados

Secretos comerciales de Google transferidos a Irán: tres ingenieros tecnológicos acusados

Secretos comerciales de Google transferidos a Irán: tres ingenieros tecnológicos acusados
Agentes de IA demasiado caros: los millonarios tecnológicos cuestionan a los trabajadores digitales
Presidente de la Fed califica las criptomonedas de ‘totalmente inútiles’ comparadas con la IA
Más Tech news

Más leídos

El precio de XRP podría duplicarse con la solicitud de ETF de BlackRock, según analista
Logan Paul vende tarjeta Pokémon por 16 millones de dólares
Sultan Bin Sulayem bajo escrutinio: CEO de DP World se retira tras vínculos con Epstein
Newsbit
Ver app
Ver