ESPECIALISTA SEGURIDAD APLICATIVA

Ubicación: 

CIUDAD DE MEXICO, Ciudad de México, MX

Categoría:  Desarrollo de Negocios Digitales
ID de Requisicion:  121154

Especialista Ciberseguridad Inteligencia Artificial

(Ciudad de México / Monterrey)

 

 

En Banorte buscamos talento único, fuerte y extraordinario, que impulse la transformación e innovación del país, convirtiéndonos en un gran aliado para crecer fuerte con México.

 

Estamos convencidos que la combinación de solidaridad, innovación, respeto, lealtad y responsabilidad es la fórmula perfecta para ser el mejor equipo del sector financiero.

 

Objetivo del puesto: Coordinar y controlar la protección y gobierno de la Inteligencia Artificial en Ciberseguridad, asesorando en iniciativas, proyectos de negocio y servicios de TI que involucren tecnologías de IA. Como especialista, contribuirás a la definición y aplicación de estándares, lineamientos y mejores prácticas para la protección de modelos de IA, la identificación y gestión de riesgos y ciberriesgos, y la implementación de controles efectivos alineados con marcos internacionales (NIST AI RMF, ISO/IEC 42001, OWASP Top 10 LLM, Google SAIF, LFPDPPP). Propondrás soluciones viables para mitigar riesgos, participarás en la adopción de herramientas de protección, y apoyarás la concientización y formación de equipos multidisciplinarios, brindando elementos de toma de decisión para el negocio y asegurando el cumplimiento de los objetivos estratégicos de la CIA (Ciberseguridad para Inteligencia Artificial).

 

Cada día te encontrarás ante nuevos e interesantes retos dentro de tu puesto, en los cuales serás responsable de:

  • Asesorar a las áreas de negocio sobre lineamientos y estándares de Ciberseguridad en proyectos que involucren Inteligencia Artificial, desde la evaluación de factibilidad hasta su implementación y operación, minimizando riesgos de Ciberseguridad y ciberriesgos en IA.
  • Coordinar la definición, adopción y actualización de estándares, formatos y lineamientos de Ciberseguridad para proyectos de innovación que utilicen Inteligencia Artificial, incluyendo aquellos que presenten situaciones no contempladas en lineamientos previos.
  • Evaluar y gestionar riesgos en todas las fases del ciclo de vida de los modelos de IA: entrenamiento, validación, despliegue y monitoreo continuo, asegurando la aplicación de controles y estándares de Ciberseguridad.
  • Evaluar durante el desarrollo, pruebas e implementación de iniciativas y proyectos de negocio que utilicen Inteligencia Artificial, asegurando que los controles y estándares de seguridad sean aplicados correctamente.
  • Analizar y evaluar nuevas tendencias y tecnologías en Inteligencia Artificial y ciberseguridad (incluyendo IA generativa, LLMs, automatización avanzada), justificando la viabilidad de su implementación y los beneficios para el negocio.
  • Coordinar la evaluación de impactos potenciales de vulnerabilidades, amenazas y riesgos en el entorno y la industria relacionados con Inteligencia Artificial, estableciendo planes de tratamiento de riesgos específicos.
  • Participar en la identificación de riesgos y amenazas para el desarrollo y actualización de una taxonomía de controles específica para IA, alineada con marcos de referencia internacionales como NIST AI RMF, ISO/IEC 42001, OWASP Top 10 LLM, Google SAIF, MITRE ATLAS, ENISA AI Threat Landscape, y regulaciones como LFPDPPP (México).
  • Proponer e implementar herramientas de protección de IA, identificando necesidades tecnológicas no cubiertas en el stack actual y promoviendo su adquisición e integración.
  • Promover la adopción de prácticas éticas y responsables en el uso de Inteligencia Artificial, considerando aspectos de privacidad, protección de datos, sesgos algorítmicos, explicabilidad y gobernanza.
  • Impulsar la inclusión de la temática de IA en los programas de concientización y capacitación, desarrollando materiales y participando en actividades de sensibilización para fortalecer la cultura de seguridad.
  • Mantenerse actualizado en normativas nacionales e internacionales relevantes para Inteligencia Artificial como ISO/IEC 42001, NIST AI Risk Management Framework, OWASP Top 10 LLM, Google SAIF, MITRE ATLAS, ENISA AI Threat Landscape, entre otras).
  • Medir y reportar indicadores de éxito, como la implementación exitosa de controles de IA en proyectos críticos y la reducción de incidentes relacionados con IA.

 

Requisitos:

  • Formación profesional: Ingeniería en Sistemas, Informática, Inteligencia Artificial, Ciberseguridad o afín (Titulado).
  • Experiencia: 3-5 años en Ciberseguridad, preferentemente con participación en proyectos que involucren Inteligencia Artificial, Machine Learning y/o Automatización.
  • Certificaciones deseables: CISM, CISSP, CRISC, certificaciones en Inteligencia Artificial (por ejemplo, AI Security Specialist, Certified AI Practitioner, Google Professional Machine Learning Engineer), entre otros.
  • Conocimientos sólidos en estándares y marcos de referencia de seguridad de la información y de IA: ISO/IEC 27001, ISO/IEC 42001, NIST AI Risk Management Framework, OWASP Top 10 LLM, Google SAIF, MITRE ATLAS, ENISA AI Threat Landscape.
  • Conocimiento y experiencia en leyes y regulaciones aplicables al sector financiero y al uso de Inteligencia Artificial.
  • Experiencia en la identificación y mitigación de riesgos de Inteligencia Artificial: privacidad, protección de datos, sesgos, vulnerabilidades algorítmicas y explicabilidad.
  • Habilidades de negociación y comunicación: para lograr acuerdos entre áreas de Negocio y Tecnología en la aceptación y ejecución de planes de tratamiento de riesgos.
  • Conocimiento general en controles de Ciberseguridad para IA, incluyendo protección de modelos y datos de entrenamiento (model hardening, data integrity checks), controles contra ataques adversariales (adversarial input detection), gestión de riesgos en LLMs (alineado con OWASP Top 10 LLM), monitoreo y validación continua de modelos (detección de desviaciones, control de sesgos) y seguridad en pipelines de IA (protección de MLOps, control de acceso a datasets y modelos).
  • Conocimientos básicos en fundamentos de IA: machine learning, deep learning, NLP, LLMs, y experiencia en la aplicación de controles de seguridad en estos entornos.

 

 

  • Conocimiento y experiencia en funciones y herramientas especializadas para la protección de sistemas de Inteligencia Artificial, incluyendo:
    • Gobierno y control de modelos de IA: uso de herramientas para el inventario de modelos, gestión de riesgos, explicabilidad, trazabilidad y control del ciclo de vida de la IA desde una perspectiva de seguridad (ej. IBM watsonx.governance, Azure Responsible AI, AWS AI Governance).
    • Protección de LLMs y GenAI en tiempo de inferencia (AI Runtime Security / Guardrails): implementación de soluciones para prevenir prompt injection, jailbreaks, data leakage, generación de contenido no autorizado y abuso de modelos mediante validación de entradas y salidas, inspección de prompts y aplicación de políticas de uso (ej. Google Model Armor, Prisma AIRS (Palo Alto Networks), Protect AI, Lakera Guard, HiddenLayer, CalypsoAI, LLM Guard, NeMo Guardrails).
    • Seguridad en pipelines de MLOps y supply chain de IA: protección del desarrollo, entrenamiento y despliegue de modelos mediante controles de acceso a datasets y modelos, escaneo de dependencias y artefactos de ML, y seguridad de contenedores y entornos de ejecución (ej. Snyk, JFrog Xray, Kubescape, Trivy, MLflow con controles de seguridad, Protect AI – ML Supply Chain Security).
    • Monitoreo y detección de riesgos en sistemas de IA: uso de herramientas para identificar model drift, degradación del desempeño, anomalías de comportamiento, sesgos y uso indebido de modelos en producción (ej. WhyLabs, Arize AI, Fiddler, Aporia, Evidently AI).
    • Testing y robustez de modelos de IA: ejecución de pruebas de seguridad y resiliencia frente a entradas adversariales, escenarios de abuso y fallas del modelo antes y después del despliegue (ej. Robust Intelligence, Giskard).
    • Inglés intermedio (B1/B2) Capacidad para comprender y redactar documentación técnica, participar en reuniones y comunicarse por escrito y oralmente en un entorno profesional.

 

 

 

 

Haz clic en el botón aplicar y no pierdas la oportunidad de desarrollar todo tu potencial.

 

En Banorte actuamos bajo un principio de igualdad de oportunidades. Por ello no discriminamos por edad, origen étnico, nacionalidad, género, orientación sexual, estado civil, condición social, estado de salud, creencias religiosas, doctrina política o discapacidad.


Segmento de empleo: Risk Management, Finance