;
  • 26 FEB 2026, Actualizado 00:01

Anthropic: IA habría sido utilizada en presunto hackeo contra instituciones del gobierno mexicano

Claude, el modelo de inteligencia artificial de Anthropic, habría sido utilizado para planear un hackeo contra dependencias del gobierno de México. Estos son los datos atribuidos al reporte internacional y las respuestas oficiales

Mexican flag at San Jeronimo

Mexican flag at San Jeronimo / Martin Vargas

La inteligencia artificial ha vuelto a generar preocupación por su capacidad de acción deliberada, esta vez bajo una sombra incómoda. Un reporte internacional publicado por Bloomberg sostiene que Claude, el modelo desarrollado por la empresa de IA Anthropic, habría sido utilizado por un atacante para planear y ejecutar un presunto hackeo contra diversas instituciones del gobierno mexicano.

De acuerdo con la publicación de Bloomberg, que cita un análisis técnico de la firma Gambit Security, el incidente se habría desarrollado entre diciembre de 2025 y enero de 2026. El volumen de información sustraída ascendería a aproximadamente 150 gigabytes de datos sensibles. Hasta ahora, distintas dependencias mexicanas han emitido posturas parciales o negaciones sobre vulneraciones directas en sus sistemas.

El caso no describe una acción autónoma de la inteligencia artificial. Según la fuente, el modelo respondió a instrucciones diseñadas para eludir sus restricciones internas, en un proceso gradual que permitió generar código y diagnósticos técnicos orientados a la explotación de vulnerabilidades.

TE RECOMENDAMOS: Trump ordena divulgar archivos extraterrestres: ¿qué se sabe sobre la desclasificación de OVNIs en Estados Unidos?

El modelo señalado: Claude, de Anthropic

El sistema involucrado es Claude, uno de los modelos de lenguaje insignia de Anthropic. El reporte indica que el atacante le solicitó actuar como un especialista en pruebas de penetración, generando:

  • Identificación de posibles fallas en redes.
  • Scripts para explotación técnica.
  • Métodos de automatización para extracción de datos.

Según la publicación, el modelo rechazó inicialmente solicitudes que violaban sus normas de uso. Sin embargo, mediante ajustes progresivos en los prompts, el atacante habría logrado sortear esas barreras, práctica conocida como “jailbreak”.

Instituciones mencionadas en el informe

La información atribuida al análisis técnico señala como posibles objetivos a:

  • El Servicio de Administración Tributaria (SAT).
  • El Instituto Nacional Electoral (INE).
  • Dependencias estatales en Jalisco, Michoacán y Tamaulipas.
  • El Registro Civil de la Ciudad de México.
  • Un organismo de agua estatal en Monterrey.

Entre los datos presuntamente comprometidos se encontrarían registros fiscales, padrones electorales y credenciales internas de empleados públicos. No obstante, algunas de las instituciones señaladas han negado accesos no autorizados recientes en sus infraestructuras principales.

Participación de otras herramientas de IA

El mismo reporte indica que el atacante también habría intentado utilizar sistemas de OpenAI para tareas complementarias. Según la información citada, esos intentos fueron bloqueados por los mecanismos de seguridad de la compañía.

Anthropic, por su parte, señaló, de acuerdo con la publicación, que investigó el caso, suspendió las cuentas vinculadas y reforzó sus controles internos para prevenir usos indebidos.

Lo que está confirmado y lo que sigue en revisión

La información publicada se basa en análisis técnicos y revisión de interacciones con el modelo. Hasta el momento, no existe un pronunciamiento oficial que confirme de manera integral la magnitud exacta de la filtración descrita.

El caso, sin embargo, abre un frente inevitable en la discusión sobre ciberseguridad en México, el potencial uso de modelos avanzados de inteligencia artificial como herramientas para acelerar ataques digitales. No se trata de que la IA “hackee” por sí misma, sino de cómo puede amplificar la capacidad técnica de un actor con intención maliciosa.

Anthropic queda así en el centro de un debate global que apenas comienza: cómo blindar sistemas de inteligencia artificial cada vez más sofisticados frente a intentos deliberados de manipulación. Porque en el terreno digital, la innovación y la vulnerabilidad caminan, con frecuencia, demasiado cerca.

TAMBIÉN PUEDES LEER: Destapan esquema millonario de exportación de petróleo ruso que burló sanciones y financió la guerra

El siguiente artículo se está cargando

W Radio México
En vivo

Tu contenido empezará después de la publicidad

Programación

Ciudades

Elige una ciudad

Compartir

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad