Centro de Investigación en Ciberseguridad

Laboratorios y centros


Laboratorio de Sonrisas
Director: Khalid Malik
El sistema Laboratorio de Modelado Seguro y Aprendizaje Inteligente en Sistemas de Ingeniería es un grupo interdisciplinario con visión de futuro de profesores y estudiantes investigadores que adoptan un pensamiento innovador para desarrollar arte de vanguardia.Soluciones basadas en inteligencia oficial para algunos de los problemas más apremiantes de nuestro tiempo. La investigación traslacional presentada por el equipo de SMILES tiene un impacto que se extiende más allá de nuestra comunidad con soluciones comercializables en ciberseguridad y atención médica que nos beneficiarán a todos.
Centro de inteligencia personalizada generalizada
Director: Marouane Kessentini
El sistema Centro PPI es un centro de investigación multiuniversitario centrado en la industria supervisado por la Fundación Nacional de Ciencias de EE. UU. Operamos bajo el Modelo NSF IUCRC. Los proyectos de investigación precompetitivos (es decir, de interés para muchas empresas) y aplicados a la industria en los que trabajamos están financiados por miembros de la industria, nuestras universidades y la NSF.
Proyectos actuales
Desarrollo de un detector robusto y explicable de amenazas cibernéticas y multimedia falsificadas utilizando inteligencia artificial
Financiado por la Fundación Nacional de Ciencias y la Investigación y Comercialización Traslacional de Michigan
Nuestro equipo en el centro de ciberseguridad está abordando la creciente amenaza que representan los archivos multimedia deepfaked, un desarrollo que compromete nuestra capacidad de confiar en el contenido digital. Financiados por la Fundación Nacional de Ciencias y Michigan Translational Research and Commercialization, nuestros esfuerzos de investigación se centran en la creación de soluciones de vanguardia para detectar y combatir esta forma de amenaza cibernética. La pieza central de nuestra investigación es Deep Forgery Detector, una herramienta diseñada para identificar falsificaciones audiovisuales, incluidos deepfakes sofisticados. Con una extensa investigación que abarca más de seis años y respaldado por casi 1 millón de dólares en subvenciones, el MVP del DFD se ha desarrollado para contrarrestar el uso malicioso de los medios generados por IA que amenaza la seguridad global, las instituciones democráticas y la seguridad personal.
Nuestro equipo interdisciplinario ha trabajado para mejorar el DFD para que resista las medidas antiforenses y garantice que proporcione evaluaciones transparentes, explicables y fáciles de usar. Esto es fundamental para aplicaciones en diversos campos, incluido el sistema legal, donde la necesidad de pruebas verificables es primordial. Además, nuestra participación en este proyecto brinda a los estudiantes una experiencia práctica valiosa en el uso de tecnologías avanzadas de IA, como el aprendizaje profundo y la IA neurosimbólica. También aprenden a enfrentarse a ataques antiforenses, contribuyendo al desarrollo de sistemas disponibles para los no expertos. El proyecto es una expansión de premios y esfuerzos anteriores, con el objetivo de refinar y fortalecer las capacidades del DFD para mantenerse a la vanguardia de las técnicas de falsificación digital en evolución. Al hacerlo, pretendemos hacer contribuciones significativas a la integridad del contenido digital y la ciberseguridad.
Para obtener más detalles, consulte:
- Resumen del premio NSF: ForensicExaminer: banco de pruebas para realizar evaluaciones comparativas de algoritmos forenses de audio digital
- Resumen del premio NSF: Tecnología de detección profunda de falsificaciones
- Comunicado de prensa de MEDC: El centro de innovación MTRAC para informática avanzada da la bienvenida al tercer grupo de proyectos de innovación de tecnología profunda en etapa inicial
Donación de datos para el entrenamiento de modelos de IA | Douglas Zytko
El funcionamiento eficaz de la IA de detección de riesgos depende de datos de alta calidad, que a menudo son difíciles de adquirir a escala. Al mismo tiempo, las implementaciones modernas de IA a menudo se basan en datos recopilados de los usuarios sin su conocimiento o consentimiento, lo que plantea sus propios problemas de ciberseguridad. Este proyecto busca actualizar un paradigma de donación de datos a través del cual los usuarios finales más susceptibles a la ciberseguridad y otros riesgos donan conscientemente datos personales para 1) mejorar la autonomía sobre los datos personales y 2) mejorar la calidad de la IA de detección de riesgos. Este proyecto ha atraído 600,000 dólares de la Fundación Nacional de Ciencias.
Fuentes ocultas de deuda técnica derivadas de preocupaciones sobre la seguridad del software | Jeffrey J. Yackley
Actualmente, no se comprende bien cómo la deuda técnica afecta la seguridad del software. La deuda técnica es una abstracción que se utiliza para describir los costos asociados con la elección de una solución conveniente en lugar de un enfoque más prudente o exhaustivo de un problema durante el desarrollo de software. El objetivo de este proyecto es avanzar en la comprensión de los fundamentos detrás de la relación entre deuda técnica y seguridad del software. Este conocimiento servirá como base científica para el desarrollo de nuevas categorías de deuda técnica y problemas de calidad del software relacionados con la seguridad que se utilizarán en la investigación futura del PI utilizando el aprendizaje automático para predecir y resolver problemas de seguridad y calidad del software.
Analizando la eficacia del análisis estático en la detección de violaciones de seguridad | Mohamed Wiem Mkaouer
Linting es el proceso de utilizar herramientas de análisis estático para escanear el código fuente y detectar patrones de codificación que se consideran malas prácticas de programación. Estos patrones pueden ser responsables de futuros errores y anomalías estilísticas más allá de los errores del compilador. Dada su importancia, se han introducido linters en las aulas para educar a los estudiantes sobre cómo detectar y potencialmente evitar estos antipatrones de código. Sin embargo, se sabe poco sobre en qué medida estas herramientas de análisis estático contribuyen a la detección y corrección de vulnerabilidades comunes en el código. Por lo tanto, este proyecto tiene como objetivo comprender hasta qué punto los profesionales están adoptando herramientas populares de análisis estático. Dicho análisis permitirá comprender qué tipos de vulnerabilidades suelen detectar y corregir los desarrolladores y qué otros tipos se ignoran o no se parchean. Los resultados ayudarán a que la investigación proporcione mejores fundamentos para solucionar dichas vulnerabilidades, además de alertar a los educadores sobre la necesidad de proporcionar medios para apoyar la corrección de dichas vulnerabilidades. En este proyecto, los estudiantes aprenderán a ejecutar herramientas de análisis estático y luego aprenderán a identificar problemas relacionados con vulnerabilidades en proyectos populares de código abierto antes de extraer información sobre su corrección.
Ciberataques no técnicos y ciberseguridad internacional: el caso de la ingeniería social | Amal Alhosban
El trabajo en este proyecto incluye proporcionar una descripción general de los ataques de ingeniería social y sus impactos en la ciberseguridad, incluida la seguridad nacional e internacional, y desarrollar técnicas de detección y métodos importantes para contramedidas. ¿Cómo afectan los ataques de ingeniería social a la seguridad nacional e internacional? ¿Y por qué es tan difícil afrontarlos?
Filtrado web neurosimbólico basado en IA Patrocinado por Netstar, Inc | Khalid Malik
Las soluciones de filtrado web son un componente vital de la ciberseguridad. Bloquean el acceso a sitios web maliciosos, evitan que el malware infecte nuestras máquinas y protegen los datos confidenciales para que no salgan de las organizaciones. Ofrecen una experiencia en línea segura, eficiente y controlada en varios sectores, abordando inquietudes relacionadas con la seguridad, la productividad y la idoneidad del contenido. Las crecientes tendencias en el uso de Internet para compartir datos y conocimientos exigen una clasificación dinámica de los contenidos web, particularmente en el borde de Internet.
Hoy en día, las empresas necesitan que estas soluciones tengan capacidades multilingües y protejan la privacidad de los datos de sus empleados. Para enfrentar estos desafíos, se requiere una solución confiable que pueda clasificar efectivamente las URL en las clases correctas.

Para satisfacer estas necesidades, UM-Flint se ha asociado con una empresa japonesa líder en filtrado de URL, Netstar Inc., para desarrollar una solución basada en aprendizaje automático. El equipo está formado por varios estudiantes de doctorado y posdoctorado de modelado seguro y aprendizaje inteligente en el laboratorio de sistemas de ingeniería y empleados de Netstar.
Los estudiantes involucrados en este proyecto aprenderán técnicas avanzadas de procesamiento del lenguaje natural, procesamiento de contenido multilingüe y desarrollo de gráficos de conocimiento. Adquirirán experiencia con IA neurosimbólica y multimodal que sea explicable y ofrezca razonamiento. También tendrán oportunidades de adquirir las numerosas habilidades sociales necesarias para colaborar con una corporación global.
Verificación de integridad del sensor del vehículo mediante gemelo digital e IA multimodal | Khalid Malik
La formación y la contratación en materia de ciberseguridad es uno de los problemas más apremiantes en el desarrollo de la fuerza laboral en la actualidad. Lo global Institución de Ingeniería y Tecnología ha publicado Automotive Cyber Security, una revisión de liderazgo intelectual sobre las perspectivas de riesgo para los vehículos conectados. Esto explica que nuestra trayectoria hacia vehículos más conectados haya aumentado enormemente la necesidad de profesionales de la ciberseguridad en la industria automotriz.
Sin embargo, cumplir esos roles tiene un desafío: la curva de aprendizaje. La educación en ciberseguridad, tal como se hace hoy, puede ser un poco árida y teórica, haciéndola parecer más inaccesible de lo que realmente es, pero no tiene por qué ser así.

Nuestro grupo de investigación está desarrollando diversas herramientas, como 'gemelos digitales' virtuales y un sistema visual de preguntas y respuestas, para enseñar la complejidad de temas interdisciplinares como la ciberseguridad en el automóvil. Este proceso permitirá a los estudiantes tener una experiencia de realidad virtual de las formas complejas en que los sensores de IoT, los sistemas de conducción y las redes de sistemas y software dentro y fuera del vehículo interactúan en un vehículo físico.
En resumen, utilizando la lógica neurosimbólica, la inteligencia artificial y el aula invertida, estamos trabajando en rediseñar las clases desde cero, comenzando con una nueva oferta en ciberseguridad automotriz. La clase incluirá ejercicios prácticos sobre el gemelo digital de un sistema de automóvil real y también ofrecerá asistencia las 24 horas del día, los 7 días de la semana con un chatbot basado en un modelo de lenguaje grande como ChatGPT.
Detección de comportamiento malicioso en aplicaciones de Android | Halil Bisgin
Las aplicaciones móviles están en el centro de la vida diaria de todos y los usuarios les dan acceso a sus datos personales. Por lo tanto, es importante desarrollar métodos para determinar cuánto puede detectar y recopilar una aplicación de sus usuarios, y si ese acceso está en línea con sus expectativas de privacidad. Se han ideado varios métodos para determinar la intrusión de las aplicaciones, incluido el análisis de sus descripciones y la conformidad con su comportamiento programado. La mayoría de los enfoques existentes dependen del análisis estático, que no es fácil de realizar sobre la marcha. Con este fin, nuestro objetivo es desarrollar soluciones de aprendizaje automático y soluciones de inteligencia artificial para determinar si una aplicación es intrusiva en función de las características de la aplicación, que van desde su código fuente hasta su descripción, lo que puede permitir a los usuarios tomar decisiones antes de descargarla.
Fusionando la investigación sobre laboratorios de ciberseguridad educativa modulares y seguros con soluciones de inteligencia artificial | Halil Bisgin
La demanda de profesionales de la ciberseguridad está aumentando, con un aumento proyectado de más del 35% en los empleos durante la próxima década, según el BLS del Departamento de Trabajo de EE. UU. Al mismo tiempo, los avances en inteligencia artificial, ciencia de datos y aprendizaje automático están remodelando las industrias y creando desafíos, en particular el desplazamiento de empleos para las personas poco calificadas. Este proyecto tiene como objetivo abordar la necesidad crítica de integrar AI/DS/ML en la educación en ciberseguridad para satisfacer estas demandas cambiantes. Estamos desarrollando una metodología que permite a los instructores e investigadores transformar su trabajo en laboratorios de enseñanza prácticos, seguros e interactivos, mejorando el aprendizaje de los estudiantes en diversos temas de ciberseguridad. Nuestra iniciativa tiene como objetivo integrar técnicas de IA, DS y ML en laboratorios interactivos para abordar los desafíos actuales de ciberseguridad de manera efectiva.