Centro de Pesquisa em Segurança Cibernética

Logotipo do Laboratório SMILES
Logotipo do Pervasive Personalized Intelligence Center


Modelagem Segura e Aprendizagem Inteligente em Laboratório de Sistemas de Engenharia é um grupo interdisciplinar de professores e estudantes pesquisadores com visão de futuro que adota o pensamento inovador para desenvolver arte de pontasoluções baseadas em inteligência oficial para alguns dos problemas mais prementes do nosso tempo. A investigação translacional apresentada pela equipa SMILES tem um impacto que se estende para além da nossa comunidade com soluções comercializáveis ​​em segurança cibernética e cuidados de saúde que irão beneficiar a todos nós.


A Centro PPI é um centro de pesquisa multiuniversitário com foco na indústria supervisionado pela Fundação Nacional de Ciência dos EUA. Operamos sob o Modelo NSF IUCRC. Os projetos de pesquisa pré-competitivos (ou seja, de interesse para muitas empresas) e aplicados à indústria em que trabalhamos são financiados por membros da indústria, nossas universidades e a NSF.

A nossa equipa no centro de cibersegurança está a enfrentar a ameaça crescente representada pela multimédia deepfaked, um desenvolvimento que compromete a nossa capacidade de confiar no conteúdo digital. Financiados pela National Science Foundation e pela Michigan Translational Research and Commercialization, nossos esforços de pesquisa se concentram na criação de soluções de ponta para detectar e combater essa forma de ameaça cibernética. A peça central da nossa pesquisa é o Deep Forgery Detector, uma ferramenta projetada para identificar falsificações audiovisuais, incluindo deepfakes sofisticados. Com extensa pesquisa que abrange mais de seis anos e apoiada por quase US$ 1 milhão em doações, o DFD MVP foi desenvolvido para combater o uso malicioso de mídia gerada por IA que ameaça a segurança global, as instituições democráticas e a segurança pessoal.

Nossa equipe interdisciplinar trabalhou no aprimoramento do DFD para resistir a medidas antiforenses e garantir que ele forneça avaliações transparentes, explicáveis ​​e fáceis de usar. Isto é fundamental para aplicações em vários domínios, incluindo o sistema jurídico, onde a necessidade de provas verificáveis ​​é fundamental. Além disso, nosso envolvimento com este projeto proporciona aos alunos uma experiência prática valiosa na utilização de tecnologias avançadas de IA, como aprendizagem profunda e IA neurossimbólica. Eles também aprendem a enfrentar ataques anti-forenses, contribuindo para o desenvolvimento de sistemas disponíveis para não especialistas. O projeto é uma expansão de prêmios e esforços anteriores, com o objetivo de refinar e fortalecer as capacidades do DFD para permanecer à frente da evolução das técnicas de falsificação digital. Ao fazê-lo, pretendemos fazer contribuições significativas para a integridade do conteúdo digital e a segurança cibernética.

Para obter mais detalhes, consulte:


O funcionamento eficaz da IA ​​de deteção de riscos depende de dados de alta qualidade, que muitas vezes são difíceis de adquirir em grande escala. Ao mesmo tempo, as implementações modernas de IA são frequentemente treinadas com base em dados recolhidos dos utilizadores sem o seu conhecimento ou consentimento, o que coloca o seu próprio conjunto de preocupações de segurança cibernética. Este projeto procura atualizar um paradigma de doação de dados através do qual os utilizadores finais mais suscetíveis à segurança cibernética e outros riscos doam conscientemente dados pessoais para 1) melhorar a autonomia sobre os dados pessoais e 2) melhorar a qualidade da IA ​​de deteção de riscos. Este projeto atraiu US$ 600,000 da National Science Foundation.


Atualmente, não se sabe bem como a segurança do software é afetada pela dívida técnica. A dívida técnica é uma abstração usada para descrever os custos associados à escolha de uma solução expedita em vez de uma abordagem mais prudente ou completa para um problema durante o desenvolvimento de software. O objetivo deste projeto é avançar na compreensão dos fundamentos da relação entre dívida técnica e segurança de software. Este conhecimento servirá como base científica para o desenvolvimento de novas categorias de dívida técnica e questões de qualidade de software relacionadas à segurança que serão utilizadas nas pesquisas futuras do PI usando aprendizado de máquina para prever e resolver problemas de segurança e qualidade de software.


Linting é o processo de uso de ferramentas de análise estática para escanear o código-fonte e detectar padrões de codificação que são considerados práticas de programação inadequadas. Esses padrões podem ser responsáveis ​​por futuros bugs e anomalias estilísticas além de erros do compilador. Dada a sua importância, os linters foram introduzidos nas salas de aula para educar os alunos sobre como detectar e potencialmente evitar esses antipadrões de código. No entanto, pouco se sabe até que ponto estas ferramentas de análise estática estão a contribuir para a deteção e correção de vulnerabilidades comuns no código. Portanto, este projeto visa compreender até que ponto as ferramentas populares de análise estática estão sendo adotadas pelos profissionais. Tal análise permitirá compreender quais tipos de vulnerabilidades estão sendo normalmente detectadas e corrigidas pelos desenvolvedores e quais outros tipos estão sendo ignorados ou permanecem sem correção. Os resultados ajudarão a investigação a fornecer melhor a fundamentação para a correção de tais vulnerabilidades, além de alertar os educadores sobre a necessidade de fornecer meios para apoiar a correção de tais vulnerabilidades. Neste projeto, os alunos aprenderão como executar ferramentas de análise estática e, em seguida, aprenderão como identificar problemas relacionados à vulnerabilidade em projetos populares de código aberto antes de extrair insights sobre sua correção.


O trabalho neste projeto inclui o fornecimento de uma visão geral dos ataques de engenharia social e seus impactos na segurança cibernética, incluindo a segurança nacional e internacional, e o desenvolvimento de técnicas de detecção e métodos principais de contramedidas. Como os ataques de engenharia social afetam a segurança nacional e internacional? E por que é tão difícil lidar com eles? 


As soluções de filtragem da Web são um componente vital da segurança cibernética. Eles bloqueiam o acesso a sites maliciosos, evitam que malware infecte nossas máquinas e protegem dados confidenciais contra saídas das organizações. Eles oferecem uma experiência online segura, eficiente e controlada em vários setores, abordando questões relacionadas à segurança, produtividade e adequação do conteúdo. As tendências crescentes na utilização da Internet para partilha de dados e conhecimentos exigem uma classificação dinâmica dos conteúdos da Web, especialmente na periferia da Internet.

As empresas hoje precisam que estas soluções tenham capacidades multilíngues e protejam a privacidade dos dados dos seus funcionários. Para enfrentar esses desafios, é necessária uma solução confiável que possa classificar efetivamente as URLs nas classes corretas.

Para atender a essas necessidades, a UM-Flint fez parceria com uma empresa japonesa líder em filtragem de URL, a Netstar Inc., para desenvolver uma solução baseada em aprendizado de máquina. A equipe consiste em vários alunos de doutorado e pós-doutorado em Modelagem Segura e Aprendizagem Inteligente no Laboratório de Sistemas de Engenharia e funcionários da Netstar.

Os alunos envolvidos neste projeto aprenderão técnicas avançadas de processamento de linguagem natural, processamento de conteúdo multilíngue e desenvolvimento de gráficos de conhecimento. Eles ganharão experiência com IA neurossimbólica e multimodal que é explicável e oferece raciocínio. Eles também terão oportunidades de adquirir as muitas habilidades sociais necessárias para a colaboração com uma empresa global.


O treinamento e o recrutamento de segurança cibernética são uma das questões mais prementes no desenvolvimento da força de trabalho atualmente. O global Instituição de Engenharia e Tecnologia lançou Automotive Cyber ​​Security, uma análise de liderança inovadora sobre as perspectivas de risco para veículos conectados. Isto explica que a nossa trajetória em direção a veículos mais conectados aumentou muito a necessidade de profissionais de segurança cibernética na indústria automotiva.

Porém, preencher essas funções apresenta um desafio: a curva de aprendizado. A educação em cibersegurança, tal como é feita hoje, pode ser um pouco árida e teórica, fazendo com que pareça mais inacessível do que realmente é, mas não tem de ser assim.

Nosso grupo de pesquisa está desenvolvendo diversas ferramentas, como 'gêmeos digitais' virtuais e um sistema visual de perguntas e respostas, para ensinar a complexidade de assuntos interdisciplinares, como segurança cibernética em automóveis. Este processo permitirá que os alunos tenham uma experiência de RV das formas complexas como os sensores IoT, os sistemas de direção e as redes de sistemas e software dentro e fora do veículo interagem em um veículo físico.

Em resumo, utilizando a lógica neurossimbólica, a IA e a sala de aula invertida, estamos a trabalhar na reformulação das aulas desde o início, começando com uma nova oferta em segurança cibernética automóvel. A aula contará com exercícios práticos sobre o gêmeo digital de um sistema automotivo real e também oferecerá assistência 24 horas por dia, 7 dias por semana, com um chatbot baseado em um grande modelo de linguagem como o ChatGPT.


Os aplicativos móveis estão no centro da vida diária de todos e os usuários lhes dão acesso aos seus dados pessoais. Portanto, é importante desenvolver métodos para descobrir quanto um aplicativo pode detectar e coletar de seus usuários e se esse acesso está de acordo com suas expectativas de privacidade. Vários métodos foram desenvolvidos para determinar a intrusividade de aplicativos, incluindo a análise de suas descrições e a conformidade com seu comportamento programado. A maioria das abordagens existentes depende de análise estática, o que não é feito facilmente em trânsito. Para tanto, pretendemos desenvolver soluções de aprendizado de máquina e soluções de inteligência artificial para determinar se um aplicativo é intrusivo com base nos recursos do aplicativo, que vão desde seu código-fonte até sua descrição, o que pode permitir que os usuários tomem decisões antes de fazer o download. 


A procura por profissionais de cibersegurança está a aumentar, com um aumento previsto de mais de 35% nos empregos durante a próxima década, de acordo com o BLS do Departamento do Trabalho dos EUA. Simultaneamente, os avanços na inteligência artificial, na ciência de dados e na aprendizagem automática estão a remodelar as indústrias e a criar desafios, nomeadamente a deslocação de empregos para os menos qualificados. Este projeto visa abordar a necessidade crítica de integrar IA/DS/ML na educação em segurança cibernética para atender a essas demandas em evolução. Estamos desenvolvendo uma metodologia que permite que instrutores e pesquisadores transformem seu trabalho em laboratórios de ensino práticos, seguros e interativos, melhorando o aprendizado dos alunos em diversos tópicos de segurança cibernética. Nossa iniciativa visa integrar técnicas de IA, DS e ML em laboratórios interativos para enfrentar de forma eficaz os desafios atuais de segurança cibernética.